
В нескольких словах
Известный эксперт по искусственному интеллекту Рамон Лопес де Мантарaс выражает скептицизм относительно научного значения современных генеративных моделей ИИ, таких как ChatGPT. Он подчеркивает, что истинный интеллект и сознание, вероятно, требуют биологической основы и телесности, которых не хватает современным ИИ. Эксперт также призывает к осторожности и регулированию в развитии ИИ, указывая на этические и социальные риски, связанные с бесконтрольным распространением этих технологий.
Подробнее
Рамон Лопес де Мантарaс (Сан-Висенс-де-Кастельет, Барселона, 72 года) может сказать, что занимался искусственным интеллектом (ИИ) еще до того, как это стало модно. Задолго до этого, на самом деле: он занимается этим пятьдесят лет, что делает его одним из отечественных пионеров в этой дисциплине. Он рассказывает в качестве анекдота, что, когда Ян ЛеКун, нынешний главный научный сотрудник по ИИ в Meta и считающийся одним из отцов глубокого обучения (machine learning), писал докторскую диссертацию в Сорбоннском университете в Париже, он был там приглашенным профессором и читал ему курс. Этот каталонский инженер-электрик, информатик и физик является основателем Института исследований искусственного интеллекта Высшего совета по научным исследованиям (CSIC), организации, с которой он до сих пор сотрудничает в качестве почетного профессора-исследователя. Он только что представил в Мадриде свою последнюю книгу «100 вещей, которые нужно знать об искусственном интеллекте» (Lectio Ediciones), в которой предлагает очень педагогическое путешествие по истории этой дисциплины, сумев просто объяснить не самые простые идеи. Генеративному ИИ, который стоит за такими инструментами, как ChatGPT или Copilot, он посвящает только эпилог, потому что он ворвался в нашу жизнь, когда рукопись уже была готова к публикации.
Демис Хассабис, лауреат Нобелевской премии по химии: «Нам понадобится ряд крупных прорывов, прежде чем мы достигнем общего искусственного интеллекта»
Вопрос. Каково, на ваш взгляд, влияние генеративного ИИ на дисциплину?
Ответ. С научной точки зрения, я вижу в этом скорее незначительный интерес. Если мы придерживаемся современного ИИ, то главный научный вопрос заключается в том, возможно ли наличие интеллекта в чем-то небиологическом. Я считаю, что для того, чтобы по-настоящему понять мир, необходимо обладать сознанием. Это научная цель со времен пионеров пятидесятых и шестидесятых годов: создать машины, которые были бы равны или превосходили людей по интеллекту во всех смыслах. Мое мнение, и мнение других, таких как Ян ЛеКун или Демис Хассабис [генеральный директор Google DeepMind], заключается в том, что генеративный ИИ не только не продвигает нас к этому сильному ИИ, но, как говорит ЛеКун, отвлекает нас от пути к его достижению. Аргумент состоит в том, что они не могут понять мир, потому что у них нет тела для взаимодействия с этим миром. Я иду немного дальше: наличие тела, возможно, позволяет выучить основные физические законы и простейшие причинно-следственные связи, которые известны даже младенцу, например, что если вы отпустите яблоко, оно упадет на землю. Но это не означает, что у ИИ есть сознание.
В. Однако генеративный ИИ вызвал восхищение во всем мире. Первым предупреждением стало то, что инженер Google Блейк Лемуан поверил, что ведет чат с ИИ, обладающим сознанием. Почему мы склонны к антропоморфизации?
О. Это нечто, присущее человеку. Мы сразу же проецируем субъектов на объекты, не обладающие человеческими качествами. Так было всегда. Но нужно признать, что в данном случае результат впечатляет. Вы спрашиваете что-то у ChatGPT, и ответы поражают точностью, грамматически совершенны, убедительны и с хорошо построенной речью, хотя иногда и выдают ложь. Я понимаю, что люди могут подумать, что за этим действительно стоит интеллект, даже более мощный, чем их собственный. Но на самом деле вы имеете дело с компьютерной программой, которая обнаруживает и перекомбинирует шаблоны снова и снова и извергает результаты.
Рамон Лопес де Мантарaс позирует на улице Мадрида.INMA FLORES
В. Есть те, кто считает, что ИИ уже так же разумен, как люди, или даже обладает сознанием. Возможно ли, что машина обретет сознание?
О. Тот, кто утверждает, что машина разумна и обладает сознанием, должен это доказать. Я из тех, кто считает, что сознание, понимание мира и интеллект в человеческом смысле этого слова глубоко укоренены в том факте, что мы живые существа. В том, что наш субстрат — это химия углерода, а не кремния. Мы так отличаемся от машин, с их аппаратным и программным обеспечением… Физика, лежащая в основе компьютеров, основана на транзисторах, которые проводят или не проводят электричество, нули и единицы, в то время как наши физические символы — это процессы, которые мы совершаем с нейронами, которые гораздо сложнее, чем двоичный язык. У нас есть электрическая активность, но также и химическая. В общем, природа мозга и человеческого тела настолько несравнима и настолько отличается от машины, что, на мой взгляд, сознание и интеллект могут возникать только у живых существ. Другое дело, что в очень далеком будущем биоинженерия эволюционирует до такой степени, что репликанты из «Бегущего по лезвию» станут реальностью. Если это произойдет, я начну допускать, что, возможно, машины смогут стать сознательными и разумными.
В. В книге вы говорите, что одной из фундаментальных задач ИИ является достижение здравого смысла. Насколько можно продвинуться в этом направлении?
О. Ну, на данный момент я вижу, что каждый день какая-нибудь технологическая компания заявляет, что их новая языковая модель имеет на много миллиардов параметров больше, чем предыдущая. Но все эти модели, по сути, одно и то же. Они основаны на концепции Transformer, которая является нейронной архитектурой, лежащей в основе больших языковых моделей (LLM), которые оценивают, какое слово с наибольшей вероятностью следует за определенной последовательностью слов. Здесь, с научной точки зрения, я не вижу прогресса. Однако уже есть крупные технологические компании, такие как Google DeepMind, которые придают своим моделям роботизированное тело. В этом направлении мы можем увидеть интересные вещи. Поскольку данные, на которых обучаются модели генеративного ИИ, заканчиваются, Хассабис или ЛеКун утверждают, что путь заключается в том, чтобы сделать их телесными, чтобы они могли понимать мир, о чем я и говорю уже 20 лет на своих конференциях. Что нужно делать, так это создавать гибриды, интегрировать нейронные сети с когнитивными архитектурами и символическим ИИ, основанным на логике. И результат этого — наделить телом.
В. Без придания ИИ тела не будет больших успехов?
О. ИИ не всегда нужно знание мира, чтобы хорошо функционировать. AlphaFold, который принес Хассабису Нобелевскую премию по химии, имеет 32 различных алгоритма. Существуют нейронные сети, машинное обучение и причинно-следственный ИИ, работающие в интегрированном режиме. Чтобы предсказать форму, в которой сворачиваются белки, не нужно иметь модель мира, и, следовательно, не нужно иметь тело.
В. В книге вы жалуетесь на то, что генеративный ИИ развертывается очень поспешно и опрометчиво. Как это следует делать? Какое регулирование нам следует иметь?
О. Мы находимся в своего рода гонке вооружений. Первую модель ChatGPT они запустили с идеей, что они получат обратную связь от сотен миллионов людей, которые будут ее использовать. Такая динамика «выпустить зверушку и ждать, что будет дальше» фатальна с этической и даже юридической точки зрения. Нельзя проводить социальные эксперименты в больших масштабах, я думаю, что нужно быть осторожнее. Я беспокоюсь, потому что мы уже видели, насколько известно, пару самоубийств в Бельгии и Соединенных Штатах. Эмили Бендер, Тимнит Гебру и Маргарет Митчелл уже предупреждали в статье о последствиях выпуска технологии, которая заставит людей думать, что они взаимодействуют с человеком.
В. Считаете ли вы правильным то, как ЕС подходит к этому вопросу?
О. Европейский Союз движется в правильном направлении, хотя это и не регулирование, с которым я согласен на 100%. Я думаю, что это влечет за собой очень большую бюрократическую нагрузку, которая затруднит выполнение требований компаниям, действующим добросовестно. Как вы собираетесь требовать алгоритмической прозрачности, если сами разработчики программного обеспечения не знают, что на самом деле происходит внутри черного ящика, которым является машинное обучение? Еще одна вещь, которую я критикую, это то, что они ни разу не упоминают о применении автономного летального оружия.
Но, с этими оговорками, я думаю, что основная идея регулирования хороша. Необходимо регулировать опасные применения ИИ. Речь идет не о том, что он может подчинить себе человечество, а о реальных опасностях: манипулирование информацией, дезинформация, влияние на результаты выборов, предвзятость, дискриминация, абсолютно неустойчивое энергопотребление и так далее. У нас уже есть длинный список реальных проблем. Создается впечатление, что те, кто сосредотачивается на экзистенциальных рисках ИИ, делают это для того, чтобы скрыть то, что уже происходит.