
В нескольких словах
Исследование показало, что дезинформация о стихийных бедствиях в соцсетях вызывает разные эмоции в зависимости от платформы: в X – страх и грусть, а в TikTok – гнев и отвращение. Использование ИИ для выявления и модерации фейков может помочь снизить их распространение.
Социальные сети апеллируют к эмоциям, особенно в ситуациях кризиса и масштабной дезинформации, как это было видно во время DANA (изолированный высотный циклон), обрушившегося 29 октября и приведшего к гибели 227 человек в провинции Валенсия. Реакции пользователей различаются в зависимости от платформы, что подтверждается исследованием, проведенным учеными из Политехнического университета Валенсии (UPV). Эмоциональная парадигма не одинакова, поскольку каждая платформа активирует различные когнитивные и сенсорные процессы.
Проанализировав сотни сообщений о DANA в X (ранее Twitter) и TikTok, исследователи пришли к выводу, что дезинформация в X в основном связана с грустью и страхом, в то время как в TikTok – с гневом и отвращением, как говорится в пресс-релизе.
«В X, где преобладает текстовый контент, пользователи должны интерпретировать информацию, что способствует более интроспективной эмоциональной реакции. Они создают нарративы, подчеркивающие трагедии и негативные события в более спокойной манере, вызывая чувства грусти и страха. В свою очередь, TikTok, благодаря интеграции визуальных и аудио-элементов, предлагает мультисенсорный опыт, который вызывает немедленные и более интенсивные реакции», – объясняют исследователи UPV Паоло Россо и Иван Аркос, которые пришли к выводу, что реактивные и висцеральные эмоции, генерируемые TikTok, сосредоточены на гневе и отвращении.
Это некоторые из выводов, к которым пришли авторы исследования «Расходящиеся эмоциональные паттерны в дезинформации в социальных сетях. Анализ твитов и тиктоков о DANA в Валенсии» под руководством Ивана Аркоса, Паоло Россо и Рамона Салаверрии из Школы коммуникаций Университета Наварры.
Драматическая музыка, тональные вариации и визуальные эффекты в китайской социальной сети действуют как катализаторы, вызывающие эти менее обдуманные эмоции. Кроме того, аудитория TikTok, «привыкшая к динамичному и быстро сменяющемуся контенту, склонна обрабатывать информацию более непосредственно, что способствует эмоциональной поляризации перед лицом дезинформации», – заключают Россо и Аркос, работающие в исследовательском центре PRHLT.
Исследование, проведенное в рамках Иберийской обсерватории цифровых медиа и опубликованное на Конференции по искусственному интеллекту ICAART-2025, было проведено после анализа распространения дезинформации в этих двух социальных сетях во время DANA в Валенсии 29 октября. Для этого были проанализированы эмоциональные и лингвистические паттерны 650 публикаций из X и TikTok. Отчет подтверждает вывод о том, что апелляция к эмоциям является преднамеренной и повторяющейся стратегией в вводящих в заблуждение сообщениях. Лингвистический анализ сообщений показывает, что достоверный контент использует более сложный язык, в то время как фейковые сообщения используют отрицания, личные анекдоты или ссылки на членов семьи, чтобы легитимизировать свои утверждения посредством прямых свидетельств и казаться правдоподобными.
В процессе анализа сообщений, опубликованных в социальных сетях, использовались ключевые слова, связанные с DANA, которые вызвали тысячи и тысячи реакций на основе фейков, таких как сокрытие сотен трупов на парковке торгового центра Bonaire (ни одной жертвы не было обнаружено) или многочисленные ложные сведения об отказе в помощи или прорыве плотин. Некоторые из наиболее часто используемых ключевых слов были: «конспирация», «сокрытие погибших», «обман», «манипуляции», «ложь», «Bonaire кладбище», «отказ в помощи» или «спровоцированные плотины».
В аудиозаписях публикаций в TikTok выделяются разные паттерны: достоверные аудиозаписи демонстрируют более яркие тона и роботизированные или монотонные повествования, что создает ясность и доверие, а сообщения, распространяющие дезинформацию, использовали тональные вариации, эмоциональную глубину и музыкальные элементы для изменения восприятия.
В связи с ростом дезинформации в социальных сетях исследователи указывают на использование искусственного интеллекта для оказания помощи платформам в проверке контента, поскольку «они могли бы автоматически анализировать тысячи публикаций, выявлять характерные признаки дезинформации и уведомлять об этом модераторов. Они также могли бы предупреждать пользователей о возможной сомнительной достоверности определенных постов, что способствовало бы смягчению распространения вводящей в заблуждение информации», – заключает пресс-релиз.