
В нескольких словах
Профессор Хули Понсе обсуждает вопросы использования ИИ в государственном управлении, подчеркивая необходимость баланса между возможностями ИИ и человеческим фактором, особенно в принятии важных решений.
Хули Понсе Соле (Барселона, 57 лет)
Хули Понсе Соле (Барселона, 57 лет) — профессор административного права в Университете Барселоны. Он только что опубликовал руководство по надлежащему и разумному использованию искусственного интеллекта (ИИ) в государственных администрациях с очень длинным названием: «Регулирование искусственного интеллекта Европейского Союза 2024 года, право на надлежащее цифровое администрирование и его судебный контроль в Испании». Как и во многих других профессиях, государственные служащие будут использовать ИИ и страдать от него. Но из-за деликатного характера их работы требования к машинам более строгие. Понсе Соле считает, что их «отсутствие эмпатии и других эмоций не позволяет им принимать решения, затрагивающие людей».
Вопрос. Как профессор административного права использует ChatGPT?
Ответ. Я использую его и призываю своих студентов использовать его, потому что знаю, что они будут использовать его в любом случае. Я даю им рекомендации о его возможностях и ограничениях. Для юристов важна юриспруденция. ChatGPT либо выдумывает ее, либо более честно говорит, что у него нет доступа к базам данных юриспруденции, что является серьезным пробелом. Это очень полезно, особенно для того, чтобы сориентироваться.
В. Не кажется таким уж полезным.
О. Один юридический журнал, в редакционный совет которого я вхожу, уже сделал нам один конфиденциальный запрос о том, как мы используем его в университетах, потому что они находят все больше и больше научных исследовательских статей, написанных с помощью ИИ. Я не знаю процент, но это то, что существует и вызывает беспокойство.
Подробнее
Кто следит за сторожем? Новый испанский закон об ИИ почти не наказывает администрацию
В. Чиновники тоже используют эти инструменты?
О. Мы находимся в моменте Дикого Запада. В своем университете я спросил, есть ли какие-либо критерии, какой-либо этический протокол для использования ИИ, и мне ответили, что нет. Я думаю, это что-то общее. Я не знаю, есть ли какие-либо руководства или указания. Каждый делает то, что считает нужным. Это остается на усмотрение каждого государственного служащего.
В. Вы опасаетесь этого отсутствия контроля над ИИ в государственном управлении?
О. Не нужно бояться искусственного интеллекта, нужно уважать его и проявлять осторожность. ИИ нуждается в огромном количестве данных, и государственные администрации должны очень внимательно относиться к законодательству о защите данных. Еще одна мера предосторожности — текущие ограничения искусственного интеллекта, который является узким или слабым. У него есть ограничения, и если бы высокопоставленные чиновники использовали его при принятии решений, это было бы ошибкой и было бы незаконно.
В. Чиновники тоже совершают ошибки, но это не делает их незаконными.
О. Это правда, люди совершают ошибки и имеют специфическую проблему когнитивных искажений. Это исключительно человеческие предубеждения, потому что только у нас есть мозг. У машин не может быть этих предубеждений, но у них есть другие, такие как галлюцинации. И люди, и машины совершают ошибки. Но искусственный интеллект способен повторять свою ошибку тысячи или сотни тысяч раз. Это вопрос масштабируемости. Искусственный интеллект, если он работает хорошо, ускорит управление. Но, в свою очередь, придется заплатить пошлину, если он работает плохо: последствия могут быть более масштабными. Хули Понсе, в этот четверг в Сан-Кугат-дель-Вальес. Массимилиано Минокри
В. Вы говорите, что эмоции важны для принятия решений. Поскольку у ИИ их нет, являются ли его решения незаконными?
О. Я не знаю, будут ли у него когда-нибудь эмоции. Конечно, сейчас нет; в среднесрочной перспективе тоже нет, а в долгосрочной перспективе мы увидим.
В. Но он имитирует эмоции.
О. Но очевидно, что искусственный интеллект не имеет эмоций, не имеет мозга, а среди эмоций у него нет эмпатии, потому что у него нет зеркальных нейронов. 100% машин с ИИ — психопаты, потому что им не хватает эмпатии. Люди, действительно, совершают ошибки: но только 1% из них психопаты. Здесь мы входим в интересную область, которая выходит далеко за рамки права и затрагивает всех нас. Решение машины может отправить нас в тюрьму, что было бы наиболее заметно для среднего гражданина. Это дискуссия, которую мы вели с людьми еще до появления искусственного интеллекта. Обама выбрал в Верховный суд судью Соню Сотомайор и сказал, что назначает ее, потому что ценит ее способность проявлять эмпатию в своих решениях. Здесь произошел раскол. Юристов обучают тому, чтобы право было связано с холодной рациональностью. Это наследие, которое мы унаследовали от эпохи Просвещения. Эта модель подвергается сомнению в течение многих лет. Традиционно считалось, что для принятия хороших решений необходимо изолировать эмоции. Но нейробиолог Антонио Дамасио утверждает обратное: невозможно принимать хорошие решения без эмоций. Должен быть баланс. Он также объясняет, что эмоции связаны с существованием у людей физического тела, которого нет у машин. Я не уверен, что хочу, чтобы машина, неспособная испытывать какие-либо эмоции, проявлять эмпатию и, следовательно, неспособная проявлять справедливость, принимала решения обо мне. Справедливость уже много лет существует в нашем Гражданском кодексе, нормы должны быть смягчены, они должны быть скорректированы в соответствии с обстоятельствами. Я бы не был очень спокоен.
В. Это логично.
О. С технологиями, которые у нас есть сегодня, просто незаконно использовать машины для принятия решений, которые влекут за собой пределы усмотрения, которые должны учитывать интересы и права людей.
В. Но часто бывают жалобы на судей, чьи вердикты всегда предвзяты в одном и том же направлении или которые плохо обращаются с жертвами.
О. Нам не нужно выбирать. Мы должны быть достаточно умны, чтобы объединить лучшее из обоих миров. Идеальным вариантом было бы сотрудничество между машинами в качестве помощников и людьми в качестве лиц, принимающих окончательное решение. Регламент ЕС по ИИ делает важную ставку: искусственный интеллект не может выносить приговоры. Он может только помогать судье. И добавляет, что функция вынесения суждений является сугубо человеческой. Это не означает, что нельзя использовать ИИ, а лишь то, что последнее слово не может быть за машиной.
В. Это было бы важным изменением.
О. Это звучит очень разумно, потому что золотая середина всегда разумна. Но я буду адвокатом дьявола для самого себя. Наличие человека в конце успокаивает совесть. Но мы страдаем от предвзятости, называемой автоматизацией: мы склонны слишком доверять машинам. И есть еще один важный человеческий элемент: думать утомительно. Вместо того чтобы человек контролировал и принимал решения, в конечном итоге может случиться так, что человек будет просто подписывать то, что ему сказал ИИ. Если судья должен вынести, например, 30 приговоров в месяц, в первом он, возможно, будет очень осторожен, во втором, возможно, тоже; но когда он увидит, что ИИ работает относительно хорошо в качестве помощника, при вынесении 300-го приговора он, вероятно, поставит свою подпись и займется чем-то другим. Это риск, о котором мы должны знать.
В. Может ли случиться так, что люди будут прикрываться решениями ИИ, чтобы избежать ответственности?
О. Это риск в контексте, когда происходит феномен, называемый оборонительной бюрократией, боязнь подписывать. Возникла определенная боязнь ставить свою подпись, чтобы не было проблем с бухгалтерским органом или в уголовной сфере. Использование ИИ может усугубить эту проблему, потому что, если я боюсь, проще всего, чтобы решение приняла машина. Мы склонны защищать себя и избегать проблем. И так не должно быть. Должна быть совершенно ясна ответственность того, кто принимает решение.
В. Если все будет двигаться так, как в частном секторе, нам может понадобиться меньше чиновников.
О. Очень вероятно, что чиновников потребуется меньше.
В. Чиновники не освобождены от этого прогресса.
Хули Понсе, в Сан-Кугат-дель-Вальес в этот четверг. Массимилиано Минокри
О. В государственном и частном секторах будут происходить аналогичные эволюции. В книге я раскрываю концепцию резерва человечности. Я продвигал ее несколько лет назад. Создатель Eliza [одного из первых чат-ботов] еще в шестидесятые годы сказал, что есть вещи, которые нельзя оставлять машинам. Эта интуиция по-прежнему верна. Резерв человечности — это не место для спасения последних высокопоставленных чиновников государственного сектора. У меня были эти разговоры со специалистами в частном секторе и в советах директоров. Существует определенный консенсус в отношении того, что необходимо создать резерв человечности для ряда функций и задач, которые затрагивают очень чувствительные права и интересы граждан: уголовное право, предоставление кредитов, крупные штрафы.
Европейское регулирование искусственного интеллекта — хороший пример нормы, которая не хочет быть жесткой. Оно полно дверей и проходов для адаптации. Неправильное использование искусственного интеллекта, неадекватное использование приведет нас к обратному тому, чего мы хотим. Я не технопессимист и не против технологий, совсем наоборот. Нужно найти баланс. Делать громкие заявления о том, что ИИ решит все наши проблемы или вызовет эпические катастрофы, — это просто и то, что дает заголовок. Но реальность — это тихая работа, которую предстоит проделать в ближайшие годы. В судах, как используется искусственный интеллект? Для каких дел? Какую роль будет играть судья? Или в плане городского развития, какую роль он может играть? Кто будет принимать окончательное решение?
В. Кажется, на это нелегко ответить.
О. Есть очень большие темы, которые мы обсуждали до ИИ, мы обсуждаем их сейчас и будем обсуждать их в будущем. Когда мы говорим об ИИ, по контрасту, мы говорим о том, что значит быть человеком, что значит принимать хорошее решение: какой плюс приносит человек по сравнению с машиной и какой плюс приносит машина по сравнению с человеком? Я уже читал предвыборные предложения, в которых говорилось, что они собираются автоматизировать, чтобы сэкономить 15 миллиардов евро. Искусственный интеллект не устает, не просит отпуск по болезни, не берет отпуск, не объединяется в профсоюзы, не создает проблем. Очень привлекательно сказать, что вы собираетесь избежать этих ленивых чиновников. Но давайте постараемся избежать антиутопий.
Искусственный интеллект необходимо внедрять, и мы уже опаздываем. Государственные администрации должны гораздо больше использовать ИИ для предоставления персонализированных и проактивных услуг. Точно так же, как в частном секторе, они идентифицируют вас и предсказывают, что вам может понадобиться, очевидно, в целях получения прибыли. То же самое могли бы сделать государственные администрации: выявить, каким детям в школьных столовых нужна стипендия, и не ждать, пока родители подадут заявку, потому что, возможно, они не знают, что есть стипендия, или им трудно подать заявку.