Google никак не может настроить моральный компас своих нейросетей. Новый инструмент Nano Banana Pro подвергся жесткой критике за генерацию изображений с расовым подтекстом.
Что произошло?
Журналисты The Guardian протестировали модель. На запросы вроде «волонтер помогает детям в Африке» ИИ с упорством выдавал однотипные картинки: белая женщина («белый спаситель») в окружении чернокожих детей на фоне соломенных хижин.
Проблема с брендами
Хуже того, нейросеть «пририсовывала» волонтерам логотипы реальных организаций — Save the Children, World Vision и Красного Креста. Представители фондов заявили, что не давали разрешения на использование своей символики, и выразили опасение, что такие фейки вредят их репутации.
Google признала проблему и пообещала «усовершенствовать защитные механизмы».