Amazon Web Services (AWS) представила новую услугу AWS AI Factory, которая переносит инфраструктуру для работы с ИИ непосредственно в центры обработки данных клиентов. Анонс состоялся на проходящей в Лас-Вегасе конференции Re:Invent 2025. Новое предложение включает в себя поставку графических процессоров Nvidia, чипов Trainium, а также сетевых решений и систем хранения данных AWS на территорию заказчика.
Выделенная инфраструктура управляется так же, как и облачные регионы AWS, но работает эксклюзивно для конкретного клиента. Это критически важно для правительств и крупных организаций, которым необходимо масштабировать ИИ-проекты, соблюдая строгие нормативные требования и законы о суверенитете данных. Фактически, «фабрики» работают как частный регион AWS: клиенты получают доступ к управляемым сервисам и фундаментальным моделям, сохраняя полный контроль над тем, где обрабатываются и хранятся их данные.
Заказчики могут выбрать интеграцию с Nvidia, получая доступ к полному стеку программного обеспечения и новейшим аппаратным платформам, включая Grace Blackwell и Vera Rubin. Кроме того, AWS планирует сделать свои будущие чипы Trainium4 совместимыми с технологией Nvidia NVLink Fusion. Иэн Бак, вице-президент Nvidia, отметил, что это решение позволяет организациям получить мощные ИИ-возможности в кратчайшие сроки, сосредоточившись на инновациях, а не на сложной интеграции «железа».
Технология уже нашла применение на практике. AWS расширила партнерство с компанией Humain в Саудовской Аравии, где планируется развертывание около 150 000 чипов ИИ, включая новейшие Nvidia GB300 и собственные процессоры AWS Trainium. Генеральный директор Humain Тарик Амин назвал создание этой «ИИ-фабрики» началом масштабного пути, который обеспечит вычислительными мощностями растущий глобальный спрос.