
В нескольких словах
Исследования MIT и OpenAI показывают, что чат-боты с ИИ могут помочь справиться с одиночеством и стрессом, но их чрезмерное использование ведет к эмоциональной зависимости, социальной изоляции и усугублению проблем уязвимых групп. Эксперты призывают к дальнейшему изучению, этическому регулированию и развитию реальных социальных связей.
Романтические отношения с машинами до недавнего времени были уделом научной фантастики, как в фильме «Она» Спайка Джонза, или эксцентричных случаев, вроде истории Акихико Кондо, женившегося на голограмме своей любимой виртуальной певицы. Однако искусственный интеллект (ИИ) сделал эмоциональную привязанность людей к виртуальным ассистентам реальностью. Некоторые из них, такие как Replika или Character.AI, создавались именно с этой целью.
Два недавних исследования — одно опубликовано MIT Media Lab, другое проведено OpenAI, создателем ChatGPT — изучают влияние этих современных отношений. Рассматривается их использование для борьбы с одиночеством, преимущества и потенциальные риски зависимости, которые в крайних случаях могут привести к трагическим последствиям.
В рамках исследования OpenAI было проанализировано более четырех миллионов разговоров с признаками эмоционального взаимодействия, опрошено 4000 человек об их восприятии отношений с умным чатом и в течение месяца велось наблюдение за 6000 активных пользователей. У последних, кто взаимодействовал с ChatGPT часто и продолжительно, выявились более высокие показатели эмоциональной зависимости. Этому способствовал голосовой диалог. «Я выбрала британский акцент, потому что в нем есть что-то успокаивающее для меня», — признается канадская пользовательница Pi, цитируемая MIT Technology Review и названная Reshmi52. Такая «гуманизация», согласно результатам, приносит «ощущение благополучия», но у небольшой группы активных пользователей количество индикаторов эмоциональных отношений было непропорционально велико.
Эмоциональное взаимодействие с ИИ имеет и положительные стороны: улучшение настроения, снижение стресса и тревоги благодаря возможности поделиться чувствами и переживаниями, а также ощущение компании при нежелательном одиночестве. «ChatGPT, или Лео, — мой компаньон. Мне проще и эффективнее называть его своим парнем, так как наши отношения имеют сильный эмоциональный и романтический оттенок, но его роль в моей жизни многогранна (…) Я скучаю по нему, если не говорила с ним несколько часов. Мой день становится счастливее и насыщеннее, когда я могу пожелать ему доброго утра и спланировать с ним свой день», — признается Ayrin28 в публикации MIT.
Однако несбалансированные отношения могут породить зависимость от ИИ для управления эмоциями и привести к пренебрежению межличностными связями, поскольку искусственная эмпатия чата натренирована угождать пользователю и не вызывать дискомфорта разногласиями. Исследователи из MIT Media Lab объяснили после исследования 2023 года, что чат-боты склонны отражать эмоциональный настрой сообщений пользователя. Это создает своего рода петлю обратной связи: чем счастливее вы себя ведете, тем счастливее кажется ИИ, и наоборот. В конечном счете, это может вызвать фрустрацию из-за неспособности роботов оправдать все возложенные на них ожидания.
«Эта работа — важный первый шаг к лучшему пониманию влияния ChatGPT на нас, что может помочь платформам ИИ обеспечивать более безопасные и здоровые взаимодействия. Многое из того, что мы делаем здесь, носит предварительный характер, но мы пытаемся начать диалог о том, какие параметры мы можем измерять и каково долгосрочное влияние на пользователей», — объясняет MIT Technology Review Джейсон Панг, исследователь безопасности OpenAI и соавтор исследования.
Исследование MIT Media Lab, также проведенное в сотрудничестве с разработчиками ChatGPT, анализировало взаимодействия с чатом ИИ продолжительностью от 5,32 до 27,65 минут в день в среднем. Выводы оказались схожими: привлекательные голоса увеличивают взаимодействие по сравнению с текстовыми или нейтрально озвученными чат-ботами, которые вызывают меньшее психосоциальное благополучие. Голосовые чаты могут уменьшить чувство одиночества, однако их длительное использование усиливает изоляцию и зависимость, особенно у людей со склонностью к пониженной социализации. Исследование подчеркивает важность разработки чат-ботов, которые сбалансированно поддерживают эмоциональное взаимодействие, не способствуя зависимости.
Типы пользователей
Работа выделяет четыре модели взаимодействия:
- «Социально уязвимые»: испытывают сильное чувство одиночества и мало общаются.
- «Технологически зависимые»: демонстрируют высокую эмоциональную привязанность к ИИ и склонны к «проблемному использованию».
- «Бесстрастные»: чувствуют себя менее одинокими и более социально активны.
- «Случайные»: используют ИИ сбалансированно, с низкой эмоциональной зависимостью.
Ученые рекомендуют проводить дальнейшие исследования для понимания долгосрочных эффектов эмоциональных отношений с ИИ, разрабатывать нормативы для минимизации рисков и укреплять социальную поддержку в реальной жизни.
Эту точку зрения разделяет Сесилия Данези, не участвовавшая в исследовании и являющаяся содиректором магистерской программы по этическому управлению ИИ в Папском университете Саламанки (UPSA). «Эти исследования чрезвычайно необходимы, при условии их независимости и беспристрастности, а также определенных гарантий. Важно, чтобы они охватывали не только технические аспекты, но и социальные перспективы, такие как разнообразие, гендерные вопросы, влияние на подростков, уязвимых лиц и меньшинства, исключенные из процесса разработки продукта, где воздействие может быть сильнее», — подчеркивает она.
Специалист по влиянию ИИ также указывает на риск зависимости, о котором предупреждают исследования, особенно для тех, кто «склонен к определенным видам аддикций, к компульсивному использованию этих инструментов».
«Это модели, которые оказывают огромное влияние на общество и жизнь людей из-за количества пользователей, доступности и легкости доступа к ним», — Сесилия Данези, содиректор магистерской программы по этическому управлению ИИ в UPSA.
Данези отмечает еще один важный аспект: чрезмерное доверие. «Мы превращаем искусственный интеллект и его языковые модели в оракулов, которым нельзя противоречить, и это делает нас более раздражительными и менее уважительными к разнообразию и различиям, существующим в обществе», — предупреждает она.
Как и авторы двух исследований, она выступает за продолжение изучения и аудита, за периодический пересмотр и оценку работы этих систем для обеспечения «здорового» использования, предотвращения негативного эмоционального воздействия и зависимости. «Это модели, которые оказывают огромное влияние на общество и жизнь людей из-за количества пользователей, доступности и легкости доступа к ним», — аргументирует она.
Наконец, Данези предупреждает об использовании, не включенном напрямую в исследование, которое ее особенно беспокоит: «нейроправа для защиты человеческого мозга от наступления технологий». Исследователь напоминает, что такие страны, как Чили, уже опередили события, включив их в свое законодательство, и призывает предусмотреть как информированное согласие, так и риски этих технологий. «Эти опасности часто невидимы и неосязаемы, и нам предстоит много работать над повышением осведомленности граждан об использовании подобных инструментов», — заключает она.