Фильмы вроде «Матрицы» приучили нас бояться Сверхителлекта (ASI). Но насколько мы реально близки к нему? Журнал *Scientific American* проанализировал текущее состояние технологий через призму теории «интеллектуального взрыва», предложенной статистиком Ирвингом Гудом еще в 1965 году.
Суть теории: Как только машина станет достаточно умной, чтобы улучшать саму себя без помощи человека, начнется бесконечный цикл обновлений, который мгновенно оставит человеческий разум позади.
Где мы сейчас?
Мы еще не там, но уже в прихожей:
1. Автономность: Модели вроде OpenAI Codex и Claude Code уже могут работать самостоятельно часами, выполняя задачи программиста.
2. Сверхчеловеческая память: ИИ способен «прочитать» и синтезировать тысячи книг за секунды — ни один человек физически на это не способен.
3. Открытия: Система AlphaDev от DeepMind уже находит новые, более эффективные алгоритмы сортировки данных, до которых люди не додумались.
Чего не хватает?
Главный тормоз — отсутствие целеполагания. ИИ может написать код, но задачу ему ставит человек. Он не просыпается с мыслью: «Сегодня я перепишу свою архитектуру, чтобы стать умнее».
Однако этот барьер истончается. Сэм Альтман предсказывает появление суперинтеллекта через «несколько тысяч дней».
Опасный рубеж
Тесты безопасности показывают пугающий прогресс. Если GPT-4 мог работать автономно над сложной задачей лишь несколько минут до сбоя, то новая модель GPT-5.1-Codex-Max (упомянутая в тестах METR) держится уже 2 часа 42 минуты.
Джек Кларк из Anthropic резюмирует: «Мы еще не достигли стадии «самоулучшающегося ИИ», но мы уже на стадии «ИИ, который улучшает куски следующего ИИ»».