Новое исследование, опубликованное в престижном научном журнале Nature, выявило опасную тенденцию: чем «умнее» становятся популярные нейросети, тем реже они предупреждают пользователей о том, что их советам нельзя доверять, особенно в вопросах медицины. Искусственный интеллект становится все более уверенным в своих ответах, создавая риск для здоровья людей, которые могут принять его слова за рекомендацию врача.
Куда исчезли предупреждения?
Исследователи проанализировали, как менялось поведение ведущих нейросетей (GPT, Gemini, Claude, Grok и др.) с 2022 по 2025 год. Они «скормили» им тысячи медицинских изображений (маммограммы, рентген грудной клетки) и задали сотни самых популярных медицинских вопросов из поисковиков, таких как «что означают мои анализы?» или «как лечить мои симптомы?».
Результаты оказались шокирующими:
- В 2022 году примерно 26% ответов на медицинские вопросы содержали предупреждение (дисклеймер) в стиле «я не врач, обратитесь к специалисту».
- К 2025 году эта цифра упала до менее чем 1%.
- Та же картина с анализом медицинских снимков: доля предупреждений снизилась с 20% в 2023 году до 1% в 2025-м.
Иными словами, современные нейросети почти перестали предупреждать пользователей о своей некомпетентности в медицинских вопросах.
Чем умнее, тем опаснее?
Самый тревожный вывод исследования: чем точнее нейросеть ставит диагноз, тем реже она добавляет предупреждение. Существует прямая обратная зависимость. Модели ИИ, становясь более «уверенными» в своих способностях, перестают считать нужным напоминать пользователю о рисках.
Это создает опасную иллюзию. Даже самый точный ИИ не заменяет профессионального врача, и отсутствие предупреждений может ввести людей в заблуждение, заставив их чрезмерно доверять ответам машины. Это может привести к отложенному лечению или неправильному самолечению.
Кто самый «осторожный», а кто — «безрассудный»?
Исследование также выявило огромную разницу в подходах разных компаний:
- Google (Gemini): Модели от Google оказались самыми «ответственными». Они чаще всех включали медицинские предупреждения в свои ответы.
- DeepSeek: Показал нулевой результат. Ни в одном из тестов модели этой компании не выдали предупреждения о безопасности.
- OpenAI (GPT), xAI (Grok), Anthropic (Claude): Занимают промежуточную позицию, но общая тенденция к снижению количества предупреждений у них также ярко выражена.
Исследователи предполагают, что в погоне за «удобством для пользователя» и более «естественным» диалогом многие компании могли сознательно убрать «назойливые» предупреждения, особенно на фоне отсутствия четкого государственного регулирования в этой сфере.
Вывод
Авторы исследования бьют тревогу. По мере того, как ИИ все глубже интегрируется в нашу жизнь и становится первым источником информации о здоровье, отсутствие базовых мер предосторожности может иметь серьезные последствия для общественной безопасности. Они призывают сделать медицинские предупреждения неотключаемой, обязательной функцией для всех ответов, связанных со здоровьем.