Калифорния стала первым штатом в США, который законодательно обязал разработчиков самых мощных систем искусственного интеллекта публично раскрывать информацию о мерах безопасности. Губернатор Гэвин Ньюсом подписал «Закон о прозрачности в области передового искусственного интеллекта» (TFAIA), который устанавливает новые стандарты для отрасли и может стать образцом для всей страны и мира.
В отсутствие комплексного федерального законодательства Калифорния, наряду с Колорадо и Техасом, берет на себя роль лидера в регулировании ИИ. Новый закон — это компромиссная версия прошлогоднего, более жесткого законопроекта, который был заблокирован из-за опасений, что он задушит инновации. Финальная версия фокусируется на прозрачности и подотчетности, а не на предварительных разрешениях и прямом контроле над моделями.
Кого и как будет регулировать новый закон?
Закон, вступающий в силу в январе 2026 года, нацелен на разработчиков так называемых «передовых моделей» ИИ.
- Кого это касается? Разработчиков фундаментальных моделей, на обучение которых было затрачено более 10^26 FLOPs (операций с плавающей запятой) — порог, соответствующий указу президента США об ИИ. На сегодняшний день лишь несколько крупнейших компаний, таких как OpenAI, Google и Anthropic, публично признали, что их модели достигают этого уровня, но ожидается, что их число будет расти.
- Что требуется? Крупные разработчики (с годовой выручкой более $500 млн) обязаны публиковать общую концепцию безопасности. В ней они должны описать, как оценивают и снижают катастрофические риски (например, угрозы массового вреда или потери контроля над системой), как обеспечивают кибербезопасность для защиты весов модели и какие стандарты (национальные, международные) используют.
- Прозрачность при выпуске: При каждом запуске новой или значительно измененной модели разработчики должны публиковать отчет о прозрачности, в котором указываются дата выпуска, модальности (текст, изображение, аудио), предполагаемое использование и ограничения.
- Сообщения об инцидентах: Разработчики обязаны в течение 15 дней уведомлять Управление по чрезвычайным ситуациям Калифорнии о любых «критических инцидентах безопасности», то есть о поведении модели, которое привело или могло привести к смерти, серьезным травмам или потере контроля над системой.
- Защита информаторов: Закон вводит строгие меры защиты для сотрудников компаний, сообщающих о нарушениях, и обязывает создавать анонимные каналы для таких сообщений.
За нарушение закона предусмотрены гражданские штрафы до 1 000 000 долларов за каждый случай.
Что дальше? «CalCompute» и гонка штатов
Закон также предусматривает создание консорциума для разработки государственного облачного вычислительного кластера «CalCompute». Его цель — предоставить исследователям и университетам доступ к передовым вычислительным мощностям для поддержки безопасных и справедливых инноваций в области ИИ в общественных интересах.
Кроме того, закон признает, что технологии ИИ постоянно развиваются, и требует ежегодного пересмотра определений «передовой модели», чтобы законодательство оставалось актуальным.
Принятие TFAIA знаменует важный этап в гонке за регулирование ИИ. В то время как на федеральном уровне идут дебаты о возможном моратории на законы штатов, Калифорния задает высокую планку. Другие штаты, вероятно, последуют ее примеру, создавая сложный и фрагментированный ландшафт правил, с которым придется считаться всей мировой ИИ-индустрии.