В нескольких словах
Согласно докладу Агентства ЕС по фундаментальным правам, искусственный интеллект может подорвать такие основные права, как право на убежище, образование и работу в Европе, а действующие нормативные акты ЕС не обеспечивают достаточной защиты. Отмечается, что многие компании-разработчики ИИ не способны систематически оценивать и снижать связанные с этим риски.
Отчет Агентства Европейского Союза по фундаментальным правам (FRA) показал, что системы искусственного интеллекта (ИИ) могут подорвать важнейшие фундаментальные права в Европе, включая права, связанные с убежищем, образованием и трудоустройством. Выводы, опубликованные недавно, частично противоречат усилиям Европейской комиссии по стимулированию быстрой адаптации инструментов ИИ "высокого риска" к новым нормативным актам.
В докладе FRA указывается, что существующие механизмы контроля недостаточны для обеспечения соблюдения фундаментальных прав. Агентство проанализировало влияние ИИ в пяти ключевых областях: убежище, образование, рынок труда, правоприменение и социальные льготы.
Среди рассмотренных случаев — использование ИИ в процессах подачи заявлений на работу, в частности, инструментов для фильтрации и оценки резюме. Также были проанализированы автоматические механизмы определения права на получение пособия по инвалидности, а также инструменты для наблюдения за экзаменами или измерения навыков чтения у детей. "Эти системы должны быть надежными, поскольку они могут формировать важные решения, затрагивающие повседневную жизнь людей", — говорится в отчете.
Агентство пришло к выводу, что, хотя поставщики таких систем осознают проблемы, которые могут возникнуть в области защиты данных или гендерной дискриминации, они не учитывают должным образом риск нарушения фундаментальных прав. Например, инструменты, оценивающие навыки чтения у детей, не анализируют, как их вердикт может повлиять на право ребенка на образование.
Закон об ИИ, вступающий в силу с августа 2024 года, классифицирует системы искусственного интеллекта в зависимости от рисков, которые они несут для граждан, и устанавливает для них различные обязательства и требования. Системы "нулевого риска", такие как спам-фильтры, не имеют ограничений, в то время как системы "неприемлемого риска" (например, те, которые эксплуатируют человеческие уязвимости или выводят эмоции, расу или политические взгляды) напрямую запрещены.
Приложения "высокого риска", требующие постоянного надзора, включают системы удаленной биометрической идентификации, системы биометрической категоризации, те, которые влияют на безопасность критически важной инфраструктуры, а также связанные с образованием, занятостью, основными государственными услугами, правоприменением или управлением миграцией.
Отрасль сталкивается со значительной дезориентацией. Европейская комиссия решила отложить начало надзора за этими системами на 16 месяцев, аргументируя это тем, что стандарты того, что является и что не является приемлемым при использовании этих инструментов, еще не опубликованы. Отчет FRA, основанный на интервью с поставщиками, операторами и экспертами, показывает, что "многие из тех, кто разрабатывает, продает или использует системы ИИ высокого риска, не знают, как систематически оценивать или снижать риски", которые эти инструменты влекут за собой для фундаментальных прав. Агентство считает, что саморегуляция является актуальным, но "не систематически учитывает фундаментальные права".