Глава AEPD: ИИ создает новые группы риска

Глава AEPD: ИИ создает новые группы риска

В нескольких словах

Новый глава AEPD Лоренцо Котино сосредоточится на регулировании ИИ и защите данных. Он вводит понятие «цифровой уязвимости», указывая, что ИИ создает новые группы риска помимо традиционно уязвимых (дети, пожилые). Котино подчеркивает нехватку ресурсов агентства для выполнения новых надзорных функций в сфере ИИ и призывает к расширению штата. Он также выступает за прозрачность публичных алгоритмов и выражает обеспокоенность по поводу защиты данных европейцев в контексте американских технологических компаний и политики США.


Лоренцо Котино (Валенсия, 52 года) с 26 февраля занимает пост нового председателя Испанского агентства по защите данных (AEPD). Он сменил Мар Эспанью, покинувшую должность по выслуге лет после девяти лет руководства агентством — на четыре года дольше положенного из-за разногласий между Народной партией (PP) и Испанской социалистической рабочей партией (PSOE) по поводу кандидатуры преемника. Доктор и выпускник юридического факультета Университета Валенсии, где он является профессором конституционного права, Котино — автор 14 монографий и координатор еще 26 работ, посвященных приватности, защите данных и прозрачности.

Котино возглавил агентство в период внедрения норм для регулирования использования искусственного интеллекта (ИИ), которые наделяют AEPD новыми полномочиями в этой области. «Мы были, есть и будем оставаться органом, ответственным за любую обработку данных с помощью ИИ», — заявил Котино в интервью Джерело новини, первом после своего назначения.

Вопрос: Каковы будут основные направления вашей работы?

Ответ: Мы сосредоточимся на прорывных технологиях, в первую очередь на ИИ. Эта тема станет центральной, так как общество меняется под влиянием этой технологии. Данные уже давно называют «нефтью XXI века», но в Европе мы еще не до конца научились извлекать из них ценность, в том числе потому, что это нужно делать, защищая персональные данные. Мы постараемся продвинуться в этом направлении. Кроме того, есть тема, которая, как мы знаем, может «взорваться» — это квантовые технологии. Это не наша основная цель, но мы должны быть готовы. И, конечно, есть другие вопросы, в которых агентство добилось больших успехов, например, приватность и защита данных несовершеннолетних.

Вопрос: Как вы подходите к вопросу защиты несовершеннолетних, который был центральным для вашей предшественницы?

Ответ: Мы собираемся переориентировать фокус. Несовершеннолетние, безусловно, очень важны, но нам нужно расширить спектр, потому что уязвимыми сейчас являются не только они, пожилые люди или люди с ограниченными возможностями — ИИ создает новые группы пострадавших. Это то, что мы называем цифровой уязвимостью.

Вопрос: Что именно вы подразумеваете под цифровой уязвимостью?

Ответ: Это новый термин, который встречается 27 раз в Европейском регламенте по ИИ. Сегодня традиционно уязвимые группы населения — не единственные, кто может пострадать от воздействия ИИ на их права. Мы продолжим уделять им внимание, но также попытаемся выявить новые группы, страдающие от технологий, например, определенные профессиональные объединения, чтобы в рамках наших полномочий разработать превентивные механизмы. Есть сферы, такие как здравоохранение, социальная помощь или использование цифровых средств, которые могут быть особенно проблематичными. Нам придется прибегать к новым методам для гарантии прав, таким как системы оценки воздействия инструментов ИИ перед их выпуском на рынок.

Лоренцо Котино, новый председатель AEPD. Фото: Альваро Гарсия

Вопрос: В штате AEPD 228 сотрудников. Достаточно ли этого для выполнения задач по надзору за ИИ, возложенных на вас законопроектом об ИИ?

Ответ: Желания у нас хоть отбавляй, но возможности ограничены. Рост этих проблем наблюдается уже 30 лет. «Снежный ком» защиты данных в технологической среде продолжает расти. Если к этому добавятся новые полномочия, нам буквально потребуется расширение штата, иначе мы не сможем справиться со всем, что от нас требуют.

Вопрос: Удалось ли добиться каких-либо договоренностей о расширении штата?

Ответ: Я здесь всего месяц и могу сказать, что это ключевой вопрос, над которым мы работаем в соответствующих инстанциях. Мы пытаемся, пока стараемся, чтобы нас приняли во внимание.

Вопрос: Если штат не будет увеличен, считаете ли вы возможным выполнение обязанностей, возложенных на вас законопроектом?

Ответ: Желания нам не занимать. С тем, что есть, мы будем выполнять свои обязательства в меру наших возможностей.

«Очень сложно гражданину оспорить корректность обработки его данных с помощью ИИ, если он не знает о существовании таких систем».

Вопрос: Можете ли вы анонсировать какие-либо планируемые действия в области новых технологий?

Ответ: Мы являемся контролирующим органом в области обработки данных с помощью ИИ, и это остается нашим ядром. Мы должны действовать как и раньше: фокусироваться на профилактике, «евангелизации», донесении до общества того, что многие применения ИИ прекрасны, но у него есть и «обратная сторона», которую нужно учитывать. С практической точки зрения, стартапу или малому/среднему предприятию может быть непросто соблюдать Общий регламент по защите данных (GDPR) в части ИИ. Мы должны сопровождать их, выпуская руководства и технические записки.

Вопрос: Недавно группа общественных организаций призвала создать реестр публичных алгоритмов, которые могут влиять на жизнь граждан. Считаете ли вы это хорошей инициативой?

Ответ: Я опубликовал две книги о прозрачности алгоритмов и два руководства по внедрению реестров публичных алгоритмов. У нас есть первый опыт в Валенсийском сообществе, где был принят один из первых в Европе законов о реестрах публичных алгоритмов. Думаю, да, Закон об управлении искусственным интеллектом должен учитывать эти механизмы. Очень сложно гражданину оспорить корректность обработки его данных с помощью ИИ, если он не знает о существовании таких систем, используемых в здравоохранении, образовании, для распределения государственных субсидий или в вопросах безопасности.

Вопрос: Что вы думаете о проекте органического закона о защите несовершеннолетних в цифровой среде? Считаете ли вы, что права детей надежно защищены этой нормой?

Ответ: Агентство участвовало в редакционных комитетах этой нормы и готовило ряд предварительных отчетов. Я считаю, что в целом это улучшение.

Вопрос: Текст обязывает проверять возраст несовершеннолетних. Разработка инструмента верификации — не ваша компетенция, а Министерства цифровой трансформации и государственной службы, хотя агентство сотрудничает в этом процессе. Есть ли какие-либо подвижки?

Ответ: Я не могу говорить о разработке инструмента, так как этим занимаемся не мы. Но могу сказать, что Европейский комитет по защите данных в январе этого года высказал мнение о механизмах верификации возраста, которое совпадает с нашей идеей. Это европейское мнение, теперь уже для 27 государств-членов, по существу последовало критериям Испании.

Вопрос: Ваша предшественница, Мар Эспанья, в интервью этой газете заявила, что в школах не должно быть экранов для детей младше шести лет. Считаете ли вы эту «красную линию» правильной?

Ответ: Я считаю, что миссия агентства не заключается в определении вопросов, которые не сосредоточены непосредственно на приватности и защите данных. Тем не менее, похоже, сегодня доказывается, что использование экранов до шести лет действительно наносит вред, который, надеюсь, не будет необратимым. Однако задачей агентства является выявление того, использует ли какая-либо социальная сеть алгоритм, вызывающий аддиктивные паттерны. Это как раз очень связано с вредом, который экраны наносят несовершеннолетним.

«Есть обеспокоенность по поводу США. До нас доходит, что Белый дом следит за тем, что делается в Европе, в том числе в области защиты данных».

Вопрос: В прошлом году агентство представило отчет именно об аддиктивных паттернах некоторых приложений и объявило о расследовании в отношении некоторых компаний по этому поводу. Было ли какое-либо развитие в этом расследовании?

Ответ: Я не могу комментировать дела, которые ведет агентство в рамках своих инспекционных и санкционных функций.

Вопрос: Компания 23andme, в отношении которой AEPD в прошлом году открыло дело, только что объявила о банкротстве. Находятся ли генетические данные ее испанских клиентов в безопасности?

Ответ: Как вы сказали, дело открыто, поэтому мы не можем его комментировать. Но действительно, возникло определенное волнение, потому что это компания, оперирующая ни много ни мало генетическими данными. Мы попытаемся выяснить, какое реальное влияние это может иметь в Испании, о скольких людях идет речь, и, если компания действительно исчезнет, посмотрим, в каком положении окажутся их данные. Будет сделано все возможное для соблюдения европейских норм, которые включают в таких случаях удаление данных и контроль за их возможной передачей при правопреемстве компаний.

Вопрос: Компания американская. Насколько позиция нынешнего руководства США, временами конфронтационная по отношению к Европе, затрудняет эти действия?

Ответ: Есть обеспокоенность. Защита данных очень важна, но, возможно, она не находится в эпицентре текущей геостратегической и геополитической проблемы, которая больше сосредоточена на других нормах, таких как Закон о цифровых услугах, затрагивающий платформы. Тем не менее, до нас доходит информация, что правительство США, скажем так, «следит» за тем, что делается в Европе, в том числе в области защиты данных. В этом смысле мы очень маленькое агентство, но 27 органов по защите данных вместе — уже не такие маленькие. Мы должны быть едины как никогда, чтобы реагировать и пытаться обеспечить соблюдение европейских норм.

Автор текста: Максим Коваленко — Социальный обозреватель, пишет о жизни в разных странах, культуре, психологии и повседневных вопросах.

Read in other languages

Про автора

Социальный обозреватель, пишет о жизни в разных странах, культуре, психологии и повседневных вопросах.