Сэм Альтман и другие лидеры ИИ-гонки строят свои стратегии на «законах масштабирования». Согласно этой концепции, существует прямая зависимость: чем больше вычислительных ресурсов и данных вы «скармливаете» модели, тем умнее она становится. Именно эта логика оправдывает нынешнюю лихорадку по скупке чипов, строительству гигантских дата-центров и даже перезапуску АЭС.
Однако Натан Гарланд, преподаватель прикладной математики и физики, в своей статье предупреждает: история техники полна примеров, когда слепое масштабирование приводило к провалу. Яркие примеры — обрушение Такомского моста (где инженеры ошибочно полагали, что старые расчеты верны для больших размеров) и замедление закона Мура, который уперся в физические пределы атомов. Гарланд подчеркивает: графики роста ИИ — это эмпирические наблюдения («правила большого пальца»), а не фундаментальные законы физики. Они могут перестать работать в любой момент из-за нехватки качественных данных или энергии.
Опасения подогреваются и экономикой. Deutsche Bank и JP Morgan уже предупреждают о гигантском кассовом разрыве: расходы на инфраструктуру оцениваются в сотни миллиардов долларов, и чтобы окупить их, сектору ИИ нужны доходы, которых пока нет. Если «закон масштабирования» даст сбой, этот инвестиционный пузырь может лопнуть.