Эпидемия дипфейков: Sora наводнила соцсети, и даже Fox News принимает ИИ-видео за чистую монету

Прошло всего два месяца с момента публичного запуска видео-генераторов Sora (OpenAI) и Veo (Google), а соцсети уже захлебнулись в потоке лжи. The New York Times сообщает, что существующие методы защиты (водяные знаки и метаданные) оказались бесполезными перед наплывом синтетического контента.

Хроника хаоса

Издание приводит пугающие примеры того, как ИИ обманывает миллионы:

1. Позор Fox News: Крупнейший телеканал США принял сгенерированное видео за реальный репортаж о злоупотреблениях продовольственными талонами (SNAP) и выпустил гневную статью. Позже материал тихо удалили.

2. Трамп и Эпштейн: В TikTok завирусился ролик (3 млн просмотров), где голос Трампа якобы ругает кабинет министров из-за документов Эпштейна. Это была подделка, но большинство зрителей поверили.

3. Война: ИИ-видео активно используются в информационных кампаниях, разжигая ненависть в политических дебатах.

Почему защита не работает?

Компании вроде OpenAI ставят на видео водяные знаки и невидимые метки. Но злоумышленники легко их обходят:

  • Кроп: Водяной знак просто обрезают или размывают.
  • Игнорирование: Платформы (YouTube, TikTok) должны автоматически считывать метки и вешать плашку «Сгенерировано ИИ», но часто это происходит с задержкой, когда видео уже посмотрели миллионы.

Набиха Сайед из Mozilla Foundation резюмировала ситуацию: «Соцсети должны были быть готовы к этому, но они снова проспали».

Оставьте комментарий