
В нескольких словах
В статье рассматривается дилемма искусственного интеллекта и его влияние на демократию и общество. Автор, философ Даниэль Иннерити, анализирует три основных подхода к решению этой проблемы: мораторий, этика и политическая критика, подчеркивая необходимость критического осмысления развития ИИ и его последствий.
Политическая организация обществ всегда стремилась к автоматизму.
Преодолев простоту семьи или племени, человеческие организации нуждаются в данных и процедурах для управления возникающей сложностью. С этой точки зрения, алгоритмическая рациональность, скорее, не представляет собой абсолютного разрыва с прошлым, а может быть проанализирована в соответствии с исторической преемственностью, то есть всякий раз, когда необходимо было установить порядок в среде сложности и неоднородности. Как бюрократия для современного государства, искусственный интеллект, похоже, призван стать логикой легитимации организаций и правительств в цифровых обществах. Три элемента, которые изменят политику этого века, — это все более умные системы, более интегрированная технология и более квантифицированное общество. Если политика в течение ХХ века вращалась вокруг дебатов о том, как сбалансировать государство и рынок (сколько власти должно быть предоставлено государству и сколько свободы должно быть оставлено в руках рынка), то сегодня главный вопрос заключается в том, должны ли наши жизни регулироваться алгоритмическими процедурами и в какой степени, как согласовать преимущества роботизации, автоматизации и оцифровки с теми принципами самоуправления, которые составляют нормативное ядро демократической организации обществ. То, как мы настроим управление этими технологиями, будет решающим для будущего демократии; это может подразумевать ее разрушение или ее укрепление.
Люди всегда стремились к тому, чтобы какая-то механическая процедура сделала нас менее зависимыми от воли других. Алгоритмическая рациональность, кажется, обещает это, но так ли это на самом деле? Фундаментальная проблема искусственного интеллекта — это растущая внешняя передача ему человеческих решений. Повсеместная автоматизация ставит проблему того, какое место соответствует человеческому решению, является ли оно просто дополнением, модификацией или заменой. Ответы на все эти вопросы позволили бы превратить информатику в политическую дисциплину. В конечном счете, кто принимает решение, когда, по-видимому, никто не принимает решения?
Дополнительная информация
Уверенность для людей в эпоху алгоритмов
Есть три возможных ответа на этот набор проблем, поставленных растущей ролью алгоритмического разума из-за делегирования решений искусственному интеллекту: мораторий, этика и политическая критика, то есть предложение остановить технологию, по крайней мере, на некоторое время, подвергнуть ее этическим кодексам или изучить ее с точки зрения политической критики. Идея моратория свидетельствует о непонимании природы технологии, ее связи с людьми и, в частности, потенциала искусственного интеллекта по отношению к человеческому интеллекту, который, на мой взгляд, менее уязвим, чем предполагают те, кто боится цифрового превосходства. Конечно, мы сталкиваемся со все более тревожным разрывом между скоростью развития технологий и медлительностью их регулирования. Политические дебаты или законодательство в основном являются реактивными. Мораторий имел бы то преимущество, что нормативно-правовая база могла бы быть принята заранее, прежде чем исследования продолжат развиваться. Но вещи не работают таким образом, тем более с таким типом сложных технологий. Запрос о моратории описывает вымышленный мир, потому что, с одной стороны, он считает возможной победу искусственного интеллекта над человеческим, а с другой — предполагает, что искусственному интеллекту потребуется лишь несколько технических обновлений в течение шести месяцев замораживания его развития. На чем мы остановимся? Как так получилось, что угроза настолько серьезна, и в то же время достаточно шести месяцев моратория, чтобы ее нейтрализовать?
Другим средством, используемым для попытки повлиять на технологическое развитие, является обращение к этическим критериям. В этом случае речь идет не о сдерживании развития, а о его ориентации в определенном направлении. Именно к этому стремилось множество институтов, которые в последние годы выступили со своими увещеваниями во все возрастающем числе, обратно пропорциональном новизне предложений. Будучи очень необходимой ссылкой на нормативный горизонт, это обращение не исчерпывает всех возможностей критики. Если мораторий сдерживал слишком сильно, можно сказать, что этика сдерживает слишком слабо и может в конечном итоге превратиться в безобидное сопровождение бездумного технологического развития. Мы не можем ожидать решения проблемы взаимодействия между искусственным интеллектом и демократией от нынешнего распространения этических кодексов, потому что, хотя они стремятся защитить основные ценности демократии, они концептуально не развивают проблему того, в какой степени повсеместная автоматизация изменяет демократическое условие. Перед нами стоит не нормативная задача, а концептуальная. Только политическое прочтение цифрового созвездия позволит нам изучить демократическое качество оцифровки.
Критическая теория — это нечто очень отличное от этики искусственного интеллекта; критика начинается именно там, где заканчиваются призывы к развитию ответственного и гуманистического искусственного интеллекта. Критика — это не увещевание делать хорошо, а исследование структурных условий, которые делают это возможным или невозможным. Что привносит перспектива философской критики в тему алгоритмической рациональности? В основном вопрос, почти никогда полностью не удовлетворенный, о предположениях, которые мы склонны считать достаточно аккредитованными. Идеология алгоритмического разума — это не столько преднамеренное сокрытие, сколько нерефлексивность. Его натурализация состоит в том, чтобы перестать спрашивать себя, какому виду рациональности соответствует алгоритмическая рациональность, думать, что нет альтернативной рациональности или, по крайней мере, разнообразия возможностей относительно того, что делать с этой рациональностью. То, что я предлагаю в этой книге, — это что означает демократическое самоуправление и какой смысл имеет свободное политическое решение в этом новом созвездии. Моя цель — разработать теорию демократического решения в среде, опосредованной искусственным интеллектом, разработать критическую теорию автоматического и алгоритмического разума. Нам нужна политическая философия искусственного интеллекта, подход, который не может быть охвачен ни технологическим размышлением, ни этическими кодексами.
Необходимо обдумать идею контроля, которая в то же время отвечает ожиданиям управляемости цифрового мира, который мы не можем исключить из какого-либо человеческого понимания, масштаба и ориентации, но мы также не должны осуществлять над ним форму подчинения, которая разрушила бы его производительность. Мы еще не нашли надлежащего баланса между человеческим контролем и преимуществами автоматизации, но эта трудность также говорит нам об открытом, исследовательском и изобретательном характере человеческой истории, а не столько об окончательной неудаче. Утешительно думать, что в другие моменты истории люди тоже не добивались успеха с первого раза, когда речь шла об ограничении рисков неизвестных технологий. Вспомним тот самый Закон о красном флаге, провозглашенный в Англии в 1865 году с целью предотвращения несчастных случаев в связи с увеличением количества автомобилей, которые накладывали максимальную скорость в четыре мили в час в сельской местности и две в городах. Кроме того, каждому из них должен был предшествовать человек, идущий пешком с красным флагом, чтобы предупреждать население. Потребовалось несколько лет, чтобы мы осознали природу рисков и преимуществ быстрых перемещений, и, прежде всего, что человеческий контроль над транспортными средствами не зависел от ограничения скорости параметрами ходьбы. Вполне возможно, что то, что мы делаем сейчас с искусственным интеллектом, покажется нам в будущем избыточным или недостаточным, но то, что отличает нас как людей, — это не успех того, что мы делаем, а старание, с которым мы это делаем.
Даниэль Иннерити (Бильбао, 1959 г.) — философ. Этот текст — издательский анонс его книги «Критическая теория искусственного интеллекта» издательства Galaxia Gutenberg, который публикуется 19 марта.