«ИИ — не Бог»: почему нейросети систематически врут и как с этим жить

Пока мир разделился на восторженных энтузиастов и ярых противников искусственного интеллекта, профессор Джеймс Макграт из Университета Батлера предлагает трезвый и необходимый взгляд на технологию. В своей новой книге и лекциях он утверждает: «ИИ — это не Бог. И даже не человек».

Иллюзии, рожденные научной фантастикой

По мнению Макграта, одна из главных проблем восприятия ИИ заключается в том, что мы смотрим на него через призму научной фантастики. Фильмы и книги приучили нас к идее мыслящих, самосознательных машин, и мы ошибочно проецируем эти ожидания на современные технологии. Нынешний ИИ — это нечто совершенно иное.

Большие языковые модели (LLM), такие как ChatGPT, — это, по сути, «имитаторы речи». У них нет встроенного механизма для распознавания или оценки фактов. Они выдают информацию «случайно», просто воспроизводя паттерны человеческой речи, на которых их обучали.

Представьте, что компьютер на «Энтерпрайзе» постоянно врет

Чтобы проиллюстрировать фундаментальный недостаток LLM — их склонность к «галлюцинациям» — Макграт предлагает остроумную аналогию из вселенной «Звездного пути».

Представьте, что в 5 из каждых 10 эпизодов сериала экипаж корабля «Энтерпрайз» отправляется на бессмысленное и опасное задание только потому, что бортовой компьютер уверенно выдал им информацию, не имеющую под собой никаких оснований.

Да, в сериале компьютер иногда давал сбои или его захватывали инопланетяне. Но это были именно неисправности. В случае с LLM, «галлюцинации» — это не баг, а неотъемлемая особенность их работы. Даже самые продвинутые модели будут выдумывать факты как минимум в 0,5% случаев, просто потому что так они устроены. Захотели бы вы служить на звездолете, где компьютер, работая в штатном режиме, систематически вас обманывает?

Не интеллект, а инструмент

Термин «искусственный интеллект», по мнению профессора, вводит в заблуждение. Он был придуман как амбициозная цель, но его преждевременно применили к технологиям, которые искусственны, но не обладают тем, что мы обычно называем интеллектом.

Тем не менее, для экспертов, которые могут отличить банальность от чепухи и от действительно полезной идеи, ИИ может быть мощным инструментом. Макграт приводит пример: он задал чат-боту вопрос по лингвистике и показал ответ другу-лингвисту. Вердикт был таков: часть ответа была верной и очевидной, часть — полным бредом, но одна из идей оказалась действительно интересной и неочевидной.

В этом и заключается суть: у нынешнего ИИ нет способности генерировать и осознавать значимость новых идей. Эту функцию по-прежнему выполняет человек.

От галлюцинаций до увольнений: реальные проблемы

Проблема галлюцинаций — не просто теоретическая. Библиотекари по всему миру уже сталкиваются с читателями, которые ищут несуществующие книги и статьи, на которые сослался чат-бот.

Одновременно с этим некоторые компании, поддавшись хайпу, увольняют компетентных программистов, чтобы заменить их ИИ, а затем вынуждены снова нанимать людей, чтобы исправлять сгенерированный машиной код.

Вывод Макграта прост: ИИ — это не волшебная палочка и не всезнающий оракул. Это мощный, но несовершенный инструмент, который требует от пользователя глубоких знаний, критического мышления и постоянной проверки. И пока мы этого не поймем, мы будем продолжать обманываться его «искусственной», но не «реальной» интеллектуальностью.

Оставьте комментарий