
В нескольких словах
В интервью Каталина Ботеро Марино рассуждает о сложностях модерации контента в интернете, необходимости внешнего контроля за платформами и важности защиты прав человека в цифровой среде. Особое внимание уделяется вопросам дезинформации, дипфейков и влияния искусственного интеллекта на свободу слова и доверие в обществе. Подчеркивается необходимость баланса между свободой выражения мнений и защитой от злоупотреблений и манипуляций, а также важность развития международного сотрудничества для регулирования цифровых платформ.
Это интервью было опубликовано в ежегодном журнале проекта «Тенденции» за 2024 год, до того, как Meta объявила о существенных изменениях в своей политике модерации контента, и поэтому этот вопрос не рассматривается в статье.
Каталина Ботеро Марино (Богота, 1965) в течение четырех лет была одним из голосов консультативного совета по контенту Meta (ранее Facebook), известного как «Супер Суд» Facebook. Юрист, бывший специальный докладчик по вопросам свободы выражения мнений Межамериканской комиссии по правам человека (МКПЧ), посвящает свою жизнь изучению влияния технологических платформ на права человека и не имеет ни одной социальной сети.
Во время празднования 45-летия МКПЧ она перечислила девять вызовов цифровой среды для этих прав и демократии, которые говорят о ближайшем будущем: среди них – защита персональных данных; свобода выражения мнений в Интернете; нейроправа; алгоритмическая дискриминация с искусственным интеллектом (ИИ) и дипфейки – поддельные видео, изображения или аудио, которые выдают себя за человека.
Вопрос: Какие самые большие уроки и новые вопросы вы вынесли из своего пребывания в совете Meta?
Ответ: Было очень полезно понять сложность модерации контента в Интернете и его огромные различия с тем, как решаются дела о свободе выражения мнений в автономном режиме. В модерации контента, из-за скорости и масштаба, вопрос о конкретном деле состоит не в том, какое решение является наиболее справедливым, и это может показаться странным, а в том, с какой ошибкой мы можем жить. Я впервые сказала это около четырех лет назад и сегодня придерживаюсь этого мнения. Это, пожалуй, был один из самых важных уроков.
В: Есть ли альтернатива?
О: Невозможно останавливаться, чтобы пересмотреть справедливость каждого конкретного случая, потому что платформам приходится делать это с огромной скоростью и в гигантском масштабе. Что нужно делать, так это принимать правила, которые можно применять очень быстро и в которых наверняка будут ошибки, но альтернатива, заключающаяся в том, чтобы иметь конституционного судью для каждого дела, невозможна. Их миллиарды, и у вас не может быть человека, который проверяет каждый из них.
В: Консультативный совет понимался как переломный момент в саморегулировании. Что требует новая реальность?
О: Это второй урок. Платформам определенно необходимо иметь внешние и действительно автономные органы, которые могли бы проникнуть в их внутренности и проверять их работу. В противном случае командам по правам человека внутри компании будет очень трудно взять верх над финансовыми командами. Meta предприняла эти усилия, но необходимо предпринять и другие. И есть другие платформы, такие как X, которые больше отстают. По сути, X используется ее владельцем для своей собственной политической повестки дня и с полной непрозрачностью в отношении того, как осуществляется модерация контента. Находясь в совете по саморегулированию, подобном этому, понимаешь, каковы подлинные ограничения модерации в масштабе, а также те, которые можно преодолеть усилиями компаний.
В: Что эти компании могут сделать в структурном плане?
О: Наблюдательный совет дал Meta примерно 250 рекомендаций. Одна из них, например, касается особого внимания, которое они должны уделять при модерации контента журналистов или правозащитников, а также голосов оппозиции, особенно в странах с закрытым политическим пространством. Так он рекомендовал в отношении дела о Кубе, например.
В авторитарных странах платформы должны обеспечивать защиту, особенно критических высказываний, поскольку это единственное пространство, в котором люди могут выражать свое мнение. Он также рекомендовал ей в случае критических ситуаций в области общественного здравоохранения, таких как пандемия Covid-19, работать с другими секторами, такими как здравоохранение и, в целом, научное сообщество, чтобы определить, какой тип контента может нанести значительный ущерб реальной жизни людей, и принять прозрачные и соразмерные меры, такие как маркировка или, даже, в случаях, когда это необходимо, удаление.
В: Многие из них – не органические высказывания, а добавленный контент. Каков возможный путь в отношении такого рода злонамеренной информации?
О: Добавленный контент относится к сумме значительного количества контента, который индивидуально может не причинить вреда. Если один человек говорит другому, чтобы он выпил отбеливатель, и у него три или четыре подписчика, это, вероятно, не причинит существенного вреда. Но если у вас есть сотни тысяч людей, рекомендующих его, из-за того, как работают предубеждения, вы склонны думать, что это правда. Обычно это информация, созданная с целью дезинформировать и продвигаемая субъектами, у которых есть особые интересы, использующими нечеловеческие взаимодействия, ботов и направленная на население, восприимчивое к вере в такого рода информацию.
В: В 2020 году вы сказали, что «быть неблагодарными к Facebook» – это ваш долг...
О: У Meta есть как минимум три вещи, которых нет у других крупных платформ. С одной стороны, невероятно сильная и технически очень квалифицированная и преданная своему делу команда по правам человека. Она создала такие механизмы, как этот совет, и, кроме того, инвестировала ресурсы в попытки модерировать контент с учетом местных рынков. Но есть и трудности, такие как то, что эта команда по правам человека не обязательно имеет такой же взвешенный вес, как и те, кто определяет бизнес-модель. Еще предстоит пройти долгий путь к тому, что, по моему мнению, должна делать платформа.
В: И что они должны делать?
О: Платформы несут ответственность в области прав человека, и это должно побуждать их учитывать в каждом из своих дизайнерских решений не только свои экономические интересы, но и общественные интересы, которые могут пострадать. Когда я говорю об общественных интересах, я имею в виду международное право прав человека и, в целом, демократическую систему. В Европе платформы обязаны, например, проводить оценку рисков своих дизайнерских решений. Это обяжет их включить в уравнение общественные интересы.
Я также считаю, что различные платформы должны быть полностью совместимыми. Идеалом подлинно конкурентного рынка, ориентированного на пользователей, было бы, например, то, что если пользователь не готов принять то, как работает платформа, он может уйти со своими подписчиками на другую. Я знаю, что это технически очень сложно, есть те, кто утверждает, что это невозможно, и я знаю, что это полностью противоречит бизнес-модели, но важно думать о мерах, которые позволили бы пользователям выбирать между различными предложениями, без несоразмерных затрат, таких как потеря всего сообщества или сети, которую они построили. И чтобы заботиться о влиянии платформ на права человека, крайне необходимо осуществлять гораздо более строгий надзор и контроль за использованием систем искусственного интеллекта.
В: В совете вы принимали решения по сложным делам. Какие выделяются?
О: Дела глав государств были очень интересными. Признается не только важность того, чтобы глава государства мог говорить и люди слушали то, что он говорит, но и то, что у них есть сила и способность создавать воображаемые образы и генерировать насилие больше, чем у любого другого пользователя. В случае с Камбоджей, например, платформе было рекомендовано оценить удаление аккаунта премьер-министра, потому что он использовал его, буквально, для запугивания членов оппозиции. Когда человек, который является важным влиятельным лицом из-за его способности влиять на поведение людей, подстрекает к насилию или криминализирует оппозицию, он увеличивает риск для людей, которые его критикуют, и использует платформу способом, противоречащим правилам самой платформы.
В: За это время вы получили дела, касающиеся нападения на Конгресс в Бразилии.
О: Был выявлен контент, который подстрекал к совершению акта насилия, такого как захват государственных властей в Бразилии, на основании информации, не имевшей под собой никаких эмпирических оснований, о том, что на выборах было мошенничество. Есть страны, в которых выборы воруют, а есть те, в которых этого не делают. Разница в доказательствах. В Венесуэле на данный момент есть доказательства того, что правительство проиграло выборы. В Бразилии, напротив, вся избирательная система работает. Тем не менее, были люди, которые утверждали, что выборы были украдены и что необходимо протестовать, даже захватывая государственные органы. Мы дали Meta ряд рекомендаций о том, как контролировать дезинформацию в избирательных контекстах, особенно когда она может привести к насилию, как в Капитолии в Соединенных Штатах или в Бразилиа.
Колумбийский адвокат Каталина Ботеро в Sofitel Mexico City 15 сентября 2024 года. Aggi Garduño
В: Как объяснить то, что определенный контент должен распространяться, даже если он является оскорбительным?
О: Информация может быть неприятной, тревожной и оскорбительной, но если она представляет общественный интерес, то она важнее для демократического общества, чем возможный ущерб, который информация может нанести. Например, журналистское расследование коррупционных преступлений может нанести репутационный ущерб вовлеченным политикам, но оно настолько важно для демократических обществ, что защищено правом на свободу выражения мнений. Если впоследствии вовлеченное лицо не согласно и, кроме того, считает, что информация является ложной, оно может потребовать исправления. Существует много способов a posteriori восстановить возможно нарушенное право, но необходимо защищать возможность распространения информации.
В: Как установить границы в этом цифровом контексте?
О: Цифровой контекст затрудняет установление границы. Однако не вся информация, которую распространяет человек, имеет одинаковый эффект. Человек в одиночестве в пустыне Сахара может кричать что угодно, и это не может причинить вреда. Но если два миллиона человек говорят, что в определенном доме, показывая его местоположение, живет кто-то, кто совершил сексуальное насилие над беззащитными детьми, даже если неизвестно, правдива эта информация или ложна, это может нанести огромный вред в реальной жизни. Мы видели это несколько недель назад в Англии. Это было совершенно несоразмерно, даже если бы новость была правдой.
В: Однажды вы сказали, что мир делится на две группы: очистителей Интернета и тех, кто думает, что ничего не нужно делать, как это кажется в X.
О: Илон Маск определяет себя как великого защитника свободы выражения мнений. Но на самом деле он является защитником свободы выражения мнений людей, которые думают так же, как и он. X перестала публиковать отчеты о прозрачности, но те, которые были опубликованы, позволили увидеть, что она была гораздо более снисходительной к запросам на удаление контента со стороны правительств, таких как Индия или Турция. Twitter сопротивлялся требованиям, которые предъявляли правительства с более авторитарной тенденцией; X – нет. Маск уступает требованиям авторитарных правительств, но подвергает сомнению судебные решения, которые могут быть хорошими или плохими и имеют внутренние ресурсы в демократических странах. Я бы не поставила X в крайность великих либертарианцев. Другое дело – Deep Web, где циркулирует все: порнография, жестокое обращение с животными, насилие над людьми, продажа оружия, наркотиков. Затем есть центр, который говорит, что информацию нельзя удалять, потому что она раздражает.
В: А с другой стороны спектра – очистители...
О: Некоторые люди думают, что необходимо более активно модерировать. Это трудно упростить, потому что там есть два течения: те, кто хочет, чтобы в Интернете были только котята и щенки, и, конечно, это устраняет все сообщения о коррупции и нарушениях прав человека, с чем я не согласен. И есть также люди, которые делают это потому, что хотят удалить или очистить свою собственную информацию, они не заинтересованы в ее распространении, как пытались сделать несколько политиков в Латинской Америке.
В: Мы видим в социальных сетях пространства для споров между главами государств и владельцами платформ, как это только что произошло с Николасом Мадуро в Венесуэле.
О: Чтобы заблокировать платформу, необходимо наличие чрезвычайно веских демократических причин, что в законе называется «строгим тестом на соразмерность». В случае Венесуэлы нет демократии, закрыто 500 средств массовой информации, и только в поствыборный период 12 журналистов были заключены в тюрьму. Нет никакой возможности выразить свое мнение, кроме как через социальные сети. В режиме Мадуро нет независимой судебной системы, ни надлежащей правовой процедуры, поэтому невозможно гарантировать это судебное решение о соразмерности.
В: С другой стороны – блокировка X в Бразилии по приказу судьи.
О: Бразилия, напротив, является демократическим государством с независимой судебной системой, уважающей надлежащую правовую процедуру, хотя, как и в любой демократии, она может ошибаться. Демократии гарантируют не то, что судьи не совершают ошибок, а то, что они применяют определенные гарантии. Илон Маск должен был обратиться к средствам правовой защиты, которые существуют для оспаривания решения, с которым он не согласен. Twitter попросили предоставить гарантии для предотвращения массовой дезинформации в Бразилии. Платформа приняла ее, но, когда Маск купил ее, он начал принимать решения, которые нарушают его собственную политику, и восстановил учетные записи людям, которые подстрекали к насилию и скрываются от правосудия. Ему выписали штраф, и он решил, что не будет его платить, вступая в непрерывное неповиновение.
В: Этот случай создает напряженность между свободой выражения мнений и необходимостью того, чтобы компании соблюдали решения.
О: Это решение имеет происхождение, которое необходимо изучить, и это неповиновение человека, который решает, потому что у него много денег, что он может не соблюдать законы страны. Это неправильно. Во-вторых, это решение принимается после того, как были приняты другие менее обременительные меры и в конце процедуры. В-третьих, я считаю, что это решение является несоразмерным, по крайней мере, в той части, которая запрещает пользователям заходить через VPN [виртуальную частную сеть], чтобы избежать блокировки, поскольку это касается людей, которые не подвергались надлежащей правовой процедуре. И, наконец, поскольку это затрагивает миллионы пользователей, оно также является несоразмерным. Самый большой вопрос заключается в том, что может сделать демократическое государство, когда владелец платформы решает вступить в неповиновение и не соблюдать правила своей собственной сети, а также демократические нормы страны.
В: Это как раз одна из девяти проблем, которые вы упомянули перед МКПЧ.
О: Самая большая проблема заключается в том, как создать механизмы контроля над платформами, чтобы они не стали инструментами политической власти, как это сегодня делает X в Индии, например; и чтобы они также не были инструментами, руководствующимися исключительно бизнес-моделью или репутационными или политическими интересами владельцев платформ, а международным правом прав человека.
В: Как достичь этой цели?
О: Европа создала очень важную нормативную систему для ориентации управления платформами, которая выходит за рамки Закона о цифровых услугах. Некоторые страны даже приняли меры для ограничения рыночной власти крупных платформ, защиты надежных источников информации, таких как профессиональная пресса, и содействия плюрализму. Я думаю, что необходимо предпринять важные усилия для повышения совместимости, прозрачности и гарантий надлежащей правовой процедуры для пользователей. Одной из мер, которые могут дать наилучшие результаты, является создание внешних аудитов с точки зрения прав человека, способных оценить влияние дизайнерских решений на права людей, например, на психическое здоровье девочек и мальчиков, на людей с расстройствами пищевого поведения или даже на саму демократическую систему.
В: Фактически, вы также упомянули другие проблемы, которые говорят о конкретном воздействии на права человека. Что вы считаете наиболее срочным?
О: Необходимо переосмыслить защиту данных. Какие данные собирают платформы? Кто их использует? Для чего и как их использует? Это должно быть прозрачным. Мы должны вернуться к разговору о праве на неприкосновенность частной жизни. С тем огромным количеством информации, которую мы предоставляем платформам, не только в социальных сетях, но и в сфере здравоохранения, транспорта или совместной работы, они могут составлять профили, исследовать или шпионить за людьми. Кто контролирует эти данные? Как ими управляют? Как ими администрируют?
В: Теперь, когда мы все говорим об ИИ, возникают вопросы о регулировании, создании дипфейков, предвзятостях...
О: Системы искусственного интеллекта способны создать текст, который выглядит как самый надежный научный текст, видео или аудио, которые, кажется, точно отражают что-то, что произошло. Большая проблема заключается в том, что эти системы, которые искажают реальность на основе фрагментированных и манипулируемых реальных данных, имеют по крайней мере два эффекта. Первый заключается в том, что они могут заставить людей ни во что не верить и укрыться в своей предвзятости подтверждения, чего и добиваются крупные кампании по дезинформации. Поскольку все снаружи – ложь, ничто не является правдой и все доказательства подозрительны, люди укрываются в своих собственных предубеждениях и разрушается доверие, не только к другим, но и к властям и традиционным источникам.
Доверие – это то, что создает социальную сплоченность, которая позволяет нам сотрудничать, чтобы двигаться вперед как общество. Когда доверие нарушается, общества могут вступить в огромные демократические кризисы. Это не означает, что я не могу сомневаться или задавать вопросы. Это означает, что если есть большие кампании по дезинформации, подпитываемые системами ИИ, которые делают невозможным отличить то, что является правдой или ложью, то мы говорим не о дебатах с рациональными вопросами, а о параллельных фактах и реальностях. Для демократии это граната.
В: И экзистенциальная тоска по неверию в то, что мы видим...
О: Эти системы развиваются быстрее, чем мы способны как вид. Как мы можем жить в мире, где мы не можем доверять тому, что видим или воспринимаем через органы чувств? Экзистенциальный кризис, который это может вызвать, огромен. Крайне важно маркировать всю информацию, созданную искусственным интеллектом, и идентифицировать ту, которая может не соответствовать действительности.
В: Это настоящее, но говорит о проблемах будущего, таких как нейроправа.
О: Это еще одна область развития, которая может фиксировать эмоциональные реакции, данные об умственной деятельности человека и все более мощно влиять на когнитивные процессы. С той скоростью, с которой развивается эта технология, рекомендуется, чтобы существовали форумы для сотрудничества между различными дисциплинами, чтобы совместно разрабатывать средства контроля над этими новыми технологическими разработками.
«Тенденции» – это проект Джерело новини, с помощью которого газета стремится открыть постоянный разговор о больших проблемах будущего, с которыми сталкивается наше общество. Инициатива спонсируется Abertis, Enagás, EY, GroupM, Iberdrola, Iberia, Mapfre, Организацией иберо-американских государств (OEI), Redeia и Santander, а стратегическим партнером является Oliver Wyman.
Вы можете подписаться здесь, чтобы получать еженедельную рассылку Джерело новини Tendencias, каждый вторник, из рук журналиста Хавьера Сампьедро.