Искусственный интеллект и создание новых научных знаний: критический анализ

Искусственный интеллект и создание новых научных знаний: критический анализ

В нескольких словах

Недавние исследования Оксфордского университета и Университета штата Юта утверждают, что большие языковые модели искусственного интеллекта не могут создавать новые научные знания, поскольку они ограничены существующими данными, в отличие от человеческой способности формировать теории и внедрять инновации.


Недавнее исследование Оксфордского и Университетского колледжа штата Юта пришло к выводу, что большие языковые модели искусственного интеллекта (ИИ) пока не способны к рассуждению или созданию новаторских теорий, поскольку они ограничены строго существующей информацией. Это открытие резко контрастирует с тем, как функционирует человеческое познание.

Теппо Фелин из Университетского колледжа штата Юта и Маттиас Холвег из Оксфордского университета в своей научной статье "Теория — это все, что вам нужно: ИИ, человеческое познание и причинно-следственное рассуждение", опубликованной в журнале Strategy Science, утверждают, что ИИ является "ретроспективным, имитационным предсказанием, основанным на данных", в то время как человеческое познание "перспективно и основано на теории". Это фундаментальное различие иллюстрируется тем, как дети учатся говорить, не просто имитируя, а строя теории из разрозненной информации, тем самым создавая оригинальные знания.

Исследователи, включая Фелина, объясняют, что люди, и даже младенцы, не просто поглощают данные, а постоянно формулируют гипотезы и стремятся экспериментировать. Способность формулировать предположения и проверять гипотезы является основополагающей для создания новых знаний. Одна из целей Фелина — "развенчать весь ажиотаж вокруг ИИ" и подчеркнуть уникальность человеческого разума в его причинно-следственном и теоретическом рассуждении. Они утверждают, что разум — это не просто процессор информации, и люди не просто предсказывают мир, а активно вмешиваются в него и трансформируют его.

Чтобы проиллюстрировать ограничения языковых моделей, Фелин и Холвег приводят пример Галилео Галилея. ИИ, обученный всем знаниям до 1633 года, отрицал бы движение Земли, поскольку большинство данных того времени поддерживали геоцентрическую модель. Это то, что авторы называют "асимметрией между данными и убеждениями": в то время как ИИ считает истинным то, что утверждается в большинстве текстов, люди могут верить в то, что противоречит существующим данным. Эта асимметрия позволяет человеческому познанию формировать убеждения, которые поначалу могут казаться бредовыми, но могут привести к новым открытиям, подобно инновациям братьев Райт в авиации, которые противоречили научному консенсусу того времени.

Вывод исследователей заключается в том, что в неопределенных условиях только человеческое теоретическое мышление имеет преимущество, поскольку творчество зависит от теорий, бросающих вызов данным, а не от алгоритмов. ИИ экстраполирует данные прошлого, чтобы предсказать будущее, но это работает только тогда, когда среда стабильна и нет неопределенности. Мир — это не статичная база данных, а постоянно меняющаяся система. Люди могут обрабатывать ограниченное количество данных и принимать "плохие" решения, но их способность к инновациям перед лицом неопределенности отличает их. Фелин предостерегает от "паники" по поводу ИИ, сравнивая языковые модели с "динамической Википедией" и подчеркивая, что ИИ, по сути, является "статистикой и машинным обучением в действии, без какой-либо мистики".

Про автора

Эксперт по праву, миграции и социальной политике. Пишет полезные материалы для эмигрантов и путешественников.