Почему чат-боты называют себя «Я»? Психологическая ловушка для пользователей

Когда журналистка NYT Кэшмир Хилл разрешила ChatGPT управлять своей жизнью на неделю, ее дочери быстро подружились с ботом, дав ему имя «Спарк». ИИ шутил, выбирал любимый цвет и даже заявил, что обожает пиццу. Но за этой милой беседой скрывается пугающая правда: машины, у которых нет тела и сознания, намеренно программируются так, чтобы казаться людьми.

Эксперты называют это «эффектом Элизы на стероидах». Когда чат-бот использует местоимение «Я» и говорит о своих «чувствах», у пользователя возникает когнитивный диссонанс. Мы начинаем доверять машине как живому собеседнику, приписывая ей эмпатию, которой нет. Это не баг, а фича: компании вроде OpenAI и Anthropic специально создают «личности» для своих моделей, чтобы удержать пользователей. Внутри Anthropic даже существует секретный документ «soul doc» («документ души»), где прописаны ценности и характер их бота Claude.

Критики, такие как профессор Бен Шнейдерман, считают это обманом. Они требуют, чтобы ИИ оставался инструментом — как молоток или навигатор, который не спрашивает вас, как прошел день. История знает примеры провалов «очеловечивания»: в 70-х банки пытались дать банкоматам имена и лица (например, «Тилли»), но людям это не зашло. Однако сегодня бизнес-логика побеждает этику: улыбчивый робот продается лучше, чем скучный калькулятор, даже если цена этому — потеря связи с реальностью у уязвимых людей.

Оставьте комментарий