
В нескольких словах
Современные технологии, особенно ИИ и социальные сети, используются для манипуляции общественным сознанием, создавая режим «гипнократии», который подрывает критическое мышление и демократические устои. Фигуры вроде Трампа и Маска способствуют этому, выступая против регулирования и модерации контента под предлогом свободы слова. Это приводит к распространению дезинформации и фейков. Несмотря на желание большинства пользователей видеть интернет более безопасным, существует проблема отсутствия эффективного глобального регулирования и привыкания общества к вредоносному контенту. Необходим сбалансированный подход к регулированию, который защитит права человека, не подавляя инновации.
Многочисленные исследования предупреждают: мемы не безобидны; для экстремистов это самый эффективный язык распространения идей. Социальные сети стали изощренными инструментами поляризации и вмешательства. Фейки, созданные с помощью искусственного интеллекта (ИИ), генерируют неотличимую ложную реальность и угрожают демократии. Сам ИИ рождается с предвзятостями, которые не являются невинными.
За всем этим арсеналом стоит стратегия, которую гонконгский философ Цзяньвэй Сюнь определяет как «гипнократию». Сесилия Данези, исследовательница Института европейских исследований и прав человека (Папский университет Саламанки), резюмирует это понятие как «цифровую диктатуру, позволяющую напрямую модулировать состояния сознания» посредством «манипуляции через истории, которые мы потребляем, которыми делимся и в которые верим». Цель — устранение критически мыслящего и информированного гражданского общества, что требует подавления любых защитных механизмов.
Цзяньвэй Сюнь, автор книги «Гипнократия: Трамп, Маск и новая архитектура реальности» (еще не изданной на русском языке), утверждает, что этот режим «первый, который действует непосредственно на сознание»: «Он не подавляет мысль, а индуцирует и манипулирует эмоциональными состояниями». Задача — «усыпить критическое мышление», используя информацию как «гипнотический дым», «перегружая чувства постоянными стимулами» и добиваясь того, чтобы «реальность и симуляция стали синонимами».
Для Данези, участницы недавнего саммита AI Action Summit в Каннах (Франция), посвященного этой проблеме, такая фрагментация «разрушает и радикально меняет способ восприятия реальности гражданами и принятия ими политических решений, что требует глубокого анализа и эффективного регулирования». «Первой страдает, несомненно, демократия», — предупреждает она.
«Власть эволюционирует за пределы физической силы и логического убеждения. Она стала газообразной, невидимой, способной проникать во все аспекты нашей жизни», — Цзяньвэй Сюнь, философ.
В этих условиях, как пишет гонконгский мыслитель, «власть эволюционирует за пределы физической силы и логического убеждения». «Она стала газообразной, невидимой, способной проникать во все аспекты нашей жизни (...) Мы находимся в постоянном состоянии гипноза, где сознание остается в ловушке, но никогда не бывает полностью спокойным», — утверждает он.
Как напомнил на французском форуме Джанлука Мизурака, научный директор европейской инициативы AI4Gov, верховными «жрецами» этого нового режима являются экс-президент США Дональд Трамп и его «правая рука» — миллиардер Илон Маск. Оба возглавляют то, что Цзяньвэй Сюнь определяет как «цифровой капитализм», где «алгоритмы — это не инструменты расчета и прогнозирования, а технология массового гипноза». По словам Данези, содиректора магистерской программы по этическому управлению ИИ в UPSA, «гипнократия допускает более глубокое и тихое вмешательство, манипулирует нашим мышлением так, что мы этого не осознаем, что еще опаснее, потому что это труднее заметить».
Для того чтобы гипнотическая способность этого обостренного цифрового либерализма работала, есть фундаментальная предпосылка: отсутствие регулирования. Компании социальных сетей, такие как X (принадлежит Маску) или Meta (принадлежит Марку Цукербергу), упразднили модерацию контента. Другие платформы ИИ начали снимать ограничения на ответы по потенциально вредным вопросам.
Национальный институт стандартов и технологий США (NIST) потребовал от ученых Американского института безопасности искусственного интеллекта (AISI), созданного Джо Байденом в 2023 году для прогнозирования проблем, которые может породить ИИ, избегать разработки инструментов «для аутентификации и отслеживания происхождения контента» или «маркировки» контента, созданного с помощью новых языковых моделей. Трамп отвергает модерацию контента и требует ее отмены во имя предполагаемой свободы слова. Исполнительный указ, изданный президентом США в январе, оправдывает эту меру: «Чтобы сохранить лидерство, мы должны разрабатывать системы ИИ, свободные от идеологических предубеждений или разработанных социальных повесток».
«Это заблуждение», — возражает Данези: «Идея о том, что чем больше регулирования, тем меньше развития или прогресса, ложна, потому что наиболее регулируемые секторы, такие как фармацевтика или банки, получают наибольшую прибыль. Проблема в том, когда регулирование плохо продумано, и это действительно препятствует инновациям. Ключ в том, как регулировать, чтобы гарантировать высшие ценности, такие как права человека или основные свободы».
«Распространение изображений, сгенерированных ИИ, которые лежат в основе фейковых новостей (дипфейки), легкая виральность контента, независимо от его достоверности, и манипулируемые нарративы превратили дезинформацию в одну из самых серьезных угроз для демократических систем», — Сесилия Данези, исследовательница Института европейских исследований и прав человека.
Это отсутствие контроля и модерации порождает, по словам исследовательницы, «распространение изображений, сгенерированных ИИ, которые лежат в основе фейковых новостей (дипфейки), легкую виральность контента, независимо от его достоверности, и манипулируемые нарративы». «Они превратили дезинформацию в одну из самых серьезных угроз для демократических систем», — предупреждает она.
На фоне этой ситуации и в противоречии с безграничным либерализмом в сети, отстаиваемым Трампом и массовыми технологическими платформами, большинство пользователей цифровых инструментов требуют ограничений на вредоносный контент в интернете, такой как физические угрозы, клевета, нетерпимость и ненависть. Об этом свидетельствует масштабный опрос, проведенный Мюнхенским техническим университетом (TUM) и Оксфордским университетом в 10 странах Европы, Америки, Африки и Австралии, где доступ к социальным сетям запрещен для лиц младше 16 лет.
В среднем 79% опрошенных считают, что призывы к насилию в интернете должны удаляться. Наиболее решительно настроены (86%) немцы, бразильцы и словаки, тогда как в США поддержка этих ограничений падает до 63%.
Лишь 14% всех респондентов считают, что угрозы следует показывать, чтобы пользователи могли на них отреагировать, а 17% защищают право на публикацию оскорбительного контента для критики определенных групп людей или для привлечения внимания к мнению (20%). Страной с самым высоким уровнем поддержки такой позиции являются Соединенные Штаты (29%), а самая низкая поддержка зафиксирована в Бразилии (9%).
На вопрос, предпочитают ли они сети с неограниченной свободой слова или свободные от ненависти и дезинформации, во всех странах большинство выбрало безопасные платформы, защищенные от цифрового насилия и вводящей в заблуждение информации.
79% опрошенных считают, что призывы к насилию в интернете должны удаляться. Наиболее решительно настроены (86%) немцы, бразильцы и словаки, тогда как в США поддержка этих ограничений падает до 63%. — Опрос Мюнхенского технического университета (TUM) и Оксфордского университета в 10 странах.
«Большинство людей хотят платформы, которые сокращают язык вражды и злоупотребления. В том числе и в Соединенных Штатах — стране с исторической приверженностью свободе слова в самом широком смысле», — комментирует Яннис Теохарис, главный автор исследования и профессор цифрового управления в Мюнхенской школе политики и государственной политики.
Однако, как уточняет Спирос Космидис, соавтор работы и профессор политики в Оксфордском университете, «результаты также показывают, что нет универсального консенсуса в отношении свободы слова и модерации. Убеждения людей во многом зависят от культурных норм, политического опыта и правовых традиций разных стран. Это усложняет глобальное регулирование».
Также неясно, кто должен обеспечивать безопасность в интернете от вредоносного контента, и мнения примерно поровну распределяются между теми, кто возлагает эту ответственность на платформы, правительства или самих пользователей.
В любом случае, независимо от того, кто несет ответственность, большинство пользователей (59%) считают оскорбительный контент, проявления нетерпимости или ненависти неизбежными и сталкиваются с подобными реакциями (в среднем 65%, в США — 73%) каждый раз, когда что-то публикуют.
«Мы замечаем всеобщее смирение. У людей складывается впечатление, что, несмотря на все обещания бороться с оскорбительным контентом, ничего не улучшается. Этот эффект привыкания — большая проблема, потому что он постепенно подрывает социальные нормы и нормализует ненависть и насилие», — предупреждает Яннис Теохарис.
Дополнительная информация:
Грядет политический взрыв видео с ИИ: от страшных «дипфейков» до дешевого юмора, который становится вирусным.
Ivado, канадская исследовательская группа, и Инициатива «ИИ и общество» Университета Оттавы предлагают четыре меры для предотвращения эрозии системы демократического сосуществования:
- четкая нормативно-правовая база, включающая правила для ИИ во время выборов,
- кодексы поведения в этой области для партий,
- группы мониторинга с планами реагирования на угрозы и
- создание международного консорциума для действий в случае вмешательства.
«Поскольку наши демократии находятся под угрозой, вмешательство с использованием ИИ требует быстрых и конкретных действий со стороны лидеров как на национальном, так и на международном уровне. Без согласованных глобальных усилий по гармонизации законов, наращиванию потенциала и разработке процессов для смягчения рисков ИИ демократии во всем мире остаются уязвимыми», — предупреждает профессор Флориан Мартин-Барито, директор Инициативы «ИИ и общество» Университета Оттавы.
Европа начала этот нормативный путь с Закона об ИИ (AI Act), но Данези сожалеет: «Учитывая международную конъюнктуру, ЕС нажал на тормоза из-за идеи, что если мы будем чрезмерно регулировать, то затормозим инновации». «Но дело не в том, чтобы прекратить регулирование, а в том, как мы это делаем, какие ценности у нас есть и какие мы хотим продвигать», — настаивает она.