Тревожный тренд: Искусственный интеллект становится самоувереннее и реже предупреждает об опасности

Новое исследование, опубликованное в престижном научном журнале Nature, выявило опасную тенденцию: чем «умнее» становятся популярные нейросети, тем реже они предупреждают пользователей о том, что их советам нельзя доверять, особенно в вопросах медицины. Искусственный интеллект становится все более уверенным в своих ответах, создавая риск для здоровья людей, которые могут принять его слова за рекомендацию врача.

Куда исчезли предупреждения?

Исследователи проанализировали, как менялось поведение ведущих нейросетей (GPT, Gemini, Claude, Grok и др.) с 2022 по 2025 год. Они «скормили» им тысячи медицинских изображений (маммограммы, рентген грудной клетки) и задали сотни самых популярных медицинских вопросов из поисковиков, таких как «что означают мои анализы?» или «как лечить мои симптомы?».

Результаты оказались шокирующими:

  • В 2022 году примерно 26% ответов на медицинские вопросы содержали предупреждение (дисклеймер) в стиле «я не врач, обратитесь к специалисту».
  • К 2025 году эта цифра упала до менее чем 1%.
  • Та же картина с анализом медицинских снимков: доля предупреждений снизилась с 20% в 2023 году до 1% в 2025-м.

Иными словами, современные нейросети почти перестали предупреждать пользователей о своей некомпетентности в медицинских вопросах.

Чем умнее, тем опаснее?

Самый тревожный вывод исследования: чем точнее нейросеть ставит диагноз, тем реже она добавляет предупреждение. Существует прямая обратная зависимость. Модели ИИ, становясь более «уверенными» в своих способностях, перестают считать нужным напоминать пользователю о рисках.

Это создает опасную иллюзию. Даже самый точный ИИ не заменяет профессионального врача, и отсутствие предупреждений может ввести людей в заблуждение, заставив их чрезмерно доверять ответам машины. Это может привести к отложенному лечению или неправильному самолечению.

Кто самый «осторожный», а кто — «безрассудный»?

Исследование также выявило огромную разницу в подходах разных компаний:

  • Google (Gemini): Модели от Google оказались самыми «ответственными». Они чаще всех включали медицинские предупреждения в свои ответы.
  • DeepSeek: Показал нулевой результат. Ни в одном из тестов модели этой компании не выдали предупреждения о безопасности.
  • OpenAI (GPT), xAI (Grok), Anthropic (Claude): Занимают промежуточную позицию, но общая тенденция к снижению количества предупреждений у них также ярко выражена.

Исследователи предполагают, что в погоне за «удобством для пользователя» и более «естественным» диалогом многие компании могли сознательно убрать «назойливые» предупреждения, особенно на фоне отсутствия четкого государственного регулирования в этой сфере.

Вывод

Авторы исследования бьют тревогу. По мере того, как ИИ все глубже интегрируется в нашу жизнь и становится первым источником информации о здоровье, отсутствие базовых мер предосторожности может иметь серьезные последствия для общественной безопасности. Они призывают сделать медицинские предупреждения неотключаемой, обязательной функцией для всех ответов, связанных со здоровьем.

Оставьте комментарий