ФБР выпустило экстренное предупреждение: преступники вышли на новый уровень психологического террора. Теперь они используют генеративный ИИ для инсценировки похищений.
Схема обмана
Вам звонят или пишут с требованием выкупа.
1. Голос: Вы слышите в трубке крик своего ребенка или родственника (клонированный нейросетью по образцу из соцсетей).
2. Фото/Видео: Если вы требуете доказательств, преступники присылают сгенерированное фото «заложника» — связанного или избитого. Часто они используют исчезающие сообщения, чтобы у жертвы не было времени рассмотреть картинку детально.
Масштаб бедствия
По данным Entrust Cybersecurity Institute, в 2024 году дипфейк-атаки происходили в мире каждые 5 минут. Убытки от ИИ-мошенничества в США могут достичь $40 млрд к 2027 году.
Как защититься?
ФБР советует искать на фото аномалии (лишние пальцы, странные тени, отсутствие шрамов/тату). Но самый надежный способ — заранее придумать с семьей кодовое слово, которое невозможно подделать.