
В нескольких словах
ИИ использует личную информацию для убеждения в дебатах, превосходя людей. Исследование выявило риски манипуляции и призвало к разработке мер предосторожности.
Исследование показало, что искусственный интеллект (ИИ) использует личную информацию для более эффективного убеждения в дебатах, чем люди. Эксперимент, проведенный с использованием GPT-4, показал, что ИИ успешно меняет мнения оппонентов в 64% случаев, когда у него есть доступ к личным данным.
Способность ИИ адаптировать аргументы к конкретному человеку, используя информацию о поле, возрасте, образовании, политических взглядах и других факторах, является ключевым фактором его успеха. Это открывает новые возможности для манипуляции, особенно в онлайн-среде, где ИИ может собирать и анализировать огромные объемы данных о пользователях.
Исследователи предупреждают о серьезных этических рисках, связанных с использованием ИИ для убеждения, особенно в таких чувствительных областях, как политика и здравоохранение. Они призывают к разработке мер по обеспечению прозрачности и ограничению использования ИИ в целях манипуляции.
В исследовании отмечается, что ИИ может использоваться для создания дезинформации, усиления поляризации и распространения ненавистнических высказываний. Эксперты призывают к разработке контрмер, включая раскрытие информации об использовании персонализированных аргументов и ограничение применения ИИ в областях с высоким риском манипуляции.
Однако, отмечается и положительный потенциал ИИ, например, в сфере торговли, где он может улучшить качество обслуживания клиентов. Важно найти баланс между использованием преимуществ ИИ и минимизацией рисков, связанных с его способностью влиять на людей.