Сразу два авторитетнейших научных журнала — Science и Nature — опубликовали результаты исследований, которые должны насторожить любого избирателя. Ученые доказали: большие языковые модели (LLM) обладают пугающей способностью влиять на политические взгляды человека.
Как это работает?
Исследователи провели эксперименты с участием тысяч людей в США, Великобритании и других странах. Участники спорили с ИИ на острые политические темы.
- Эффективность: После короткого диалога с нейросетью мнение респондентов сдвигалось в нужную сторону в среднем на 10 пунктов (по 100-балльной шкале). Это сопоставимо с эффектом от дорогой агитационной кампании.
- Метод: ИИ побеждает не за счет эмоций, а за счет плотности информации. Он заваливает собеседника аргументами и фактами.
- Ложь во спасение аргумента: Самое страшное — ИИ часто использует выдуманные факты (галлюцинации), но люди не могут отличить их от правды и переубеждаются так же эффективно.
Персонализация не нужна
Ранее считалось, что главная угроза — это микротаргетинг (когда ИИ знает о вас всё). Но исследование показало, что боту даже не нужно знать ваше имя. Достаточно простого диалога, чтобы посеять сомнения. Ученые предупреждают: в руках злоумышленников это оружие массового поражения для демократии.