Правительство Испании утвердило закон об ИИ: контент, созданный с помощью нейросетей, необходимо маркировать

Правительство Испании утвердило закон об ИИ: контент, созданный с помощью нейросетей, необходимо маркировать

В нескольких словах

Испанское правительство утвердило законопроект, регулирующий использование ИИ, в соответствии с европейским регламентом. Ключевой момент – обязательная маркировка контента, созданного с помощью ИИ, включая дипфейки. Однако, конкретные механизмы маркировки пока не определены и будут разработаны Испанским агентством по надзору за ИИ (Aesia). Нарушителям грозят крупные штрафы. Закон также классифицирует различные приложения ИИ в зависимости от степени риска и устанавливает разные требования.


Совет министров Испании утвердил законопроект об этичном, инклюзивном и полезном использовании искусственного интеллекта (ИИ)

Совет министров Испании утвердил законопроект об этичном, инклюзивном и полезном использовании искусственного интеллекта (ИИ), направленный на упорядочение практического применения этой технологии. Законопроект адаптирует к испанскому законодательству положения Европейского регламента об искусственном интеллекте, согласованного институтами ЕС 8 декабря 2023 года и одобренного Европейским парламентом 13 марта прошлого года. «ИИ – очень мощный инструмент, который может служить улучшению нашей жизни или распространению фейков и атак на демократию», – заявил на пресс-конференции министр цифровой трансформации и государственной службы Оскар Лопес.

Как напомнил министр, европейское законодательство «защищает наши цифровые права, определяя запрещенные практики». Например, серьезным нарушением считается несоблюдение требований к маркировке текстов, видео или аудио, созданных с помощью ИИ. «Все мы можем стать объектом подобной атаки. Это называется «дипфейки», и это запрещено», – предупредил Лопес.

Однако министр не уточнил, как именно должна осуществляться эта маркировка. «Когда нормативные акты будут разработаны, Испанское агентство по надзору за искусственным интеллектом (Aesia) установит правила», – сказал он. Кто будет контролировать их соблюдение? Управление и обработка биометрических данных будет осуществляться Испанским агентством по защите данных (AEPD); системы ИИ, которые могут повлиять на демократию, будут находиться в компетенции Центральной избирательной комиссии; а вопросы, касающиеся применения правосудия, – в компетенции Генерального совета судебной власти.

Остальные случаи будет рассматривать Aesia. Организация, созданная в прошлом году и базирующаяся в Ла-Корунье, возглавляется Игнаси Белдой и планирует нанять к 2026 году не менее 80 экспертов из различных дисциплин, которые должны будут проверять соответствие различных приложений ИИ нормативным требованиям.

Лопес напомнил, что, как установлено Европейским регламентом об ИИ, нарушителям грозят штрафы в размере до 35 миллионов евро и/или от 5% до 7% мирового оборота.

Адаптация европейской базы

Европейский регламент об ИИ, считающийся самым передовым в мире по этому вопросу, имеет новаторский подход. Чтобы не устареть, регламент классифицирует различные приложения ИИ в зависимости от их риска и, в зависимости от этого, устанавливает различные требования и обязательства. Они варьируются от использования без ограничений, например, фильтр спама или рекомендатель контента, до полного запрета. Эти более серьезные случаи касаются тех приложений, «которые превосходят сознание человека или используют намеренно манипулятивные методы», которые эксплуатируют его уязвимости или которые делают выводы об эмоциях, расе или политических взглядах людей.

Между этими двумя крайностями находятся так называемые технологии «высокого риска», подлежащие постоянному надзору. В эту категорию входят системы удаленной биометрической идентификации, которые широкая группа парламента хотела полностью запретить; системы биометрической категоризации или распознавания эмоций. Сюда же относятся системы, влияющие на безопасность критической инфраструктуры, и системы, связанные с образованием (оценка поведения, системы приема и экзамены), занятостью (подбор персонала) и предоставлением основных государственных услуг, правоохранительной деятельностью или управлением миграцией.

Регламент также устанавливает, что должны проводиться периодические отчеты для обновления этой классификации, чтобы, когда появятся новые приложения, не предусмотренные в документе, можно было определить, к какой категории они относятся (использование без ограничений, использование с ограничениями или запрет).

То же самое произошло, например, с генеративным ИИ, технологией, лежащей в основе таких инструментов, как ChatGPT: его появление произошло, когда переговоры по регламенту были уже на завершающей стадии. Обсуждалось, следует ли делать конкретное упоминание о нем или нет. В итоге он был включен, и было установлено, что так называемые фундаментальные модели должны будут соответствовать критериям прозрачности, таким как указание того, был ли текст, песня или фотография сгенерированы с помощью ИИ, а также гарантия того, что данные, использованные для обучения систем, уважают авторские права.

Однако в документе не было установлено, как следует осуществлять эту маркировку контента, созданного ИИ, и как гарантировать соблюдение авторских прав. Эти два ключевых вопроса также не были конкретизированы в представленном сегодня законопроекте.

Read in other languages

Про автора

Экономический обозреватель, пишет о финансах, инвестициях, заработке и бизнесе. Дает практичные советы.