Прошло всего два месяца с момента публичного запуска видео-генераторов Sora (OpenAI) и Veo (Google), а соцсети уже захлебнулись в потоке лжи. The New York Times сообщает, что существующие методы защиты (водяные знаки и метаданные) оказались бесполезными перед наплывом синтетического контента.
Хроника хаоса
Издание приводит пугающие примеры того, как ИИ обманывает миллионы:
1. Позор Fox News: Крупнейший телеканал США принял сгенерированное видео за реальный репортаж о злоупотреблениях продовольственными талонами (SNAP) и выпустил гневную статью. Позже материал тихо удалили.
2. Трамп и Эпштейн: В TikTok завирусился ролик (3 млн просмотров), где голос Трампа якобы ругает кабинет министров из-за документов Эпштейна. Это была подделка, но большинство зрителей поверили.
3. Война: ИИ-видео активно используются в информационных кампаниях, разжигая ненависть в политических дебатах.
Почему защита не работает?
Компании вроде OpenAI ставят на видео водяные знаки и невидимые метки. Но злоумышленники легко их обходят:
- Кроп: Водяной знак просто обрезают или размывают.
- Игнорирование: Платформы (YouTube, TikTok) должны автоматически считывать метки и вешать плашку «Сгенерировано ИИ», но часто это происходит с задержкой, когда видео уже посмотрели миллионы.
Набиха Сайед из Mozilla Foundation резюмировала ситуацию: «Соцсети должны были быть готовы к этому, но они снова проспали».