ИИ научился думать как лингвист: Исследование доказало, что нейросети начали понимать структуру языка

Долгое время скептики (включая знаменитого лингвиста Ноама Хомского) утверждали, что ИИ — это просто «стохастический попугай». Мол, нейросеть просто угадывает следующее слово, не понимая смысла и структуры языка. Новое исследование Калифорнийского университета в Беркли, опубликованное в Quanta Magazine, разрушает этот миф.

Суть эксперимента

Ученые подвергли различные LLM суровому экзамену. Они заставили ИИ анализировать выдуманные языки и сложные рекурсивные предложения (фразы, вложенные друг в друга, как матрешки).

Большинство моделей провалились, но OpenAI o1 показала шокирующий результат.

Что умеет новый ИИ?

1. Понимание рекурсии: Модель смогла построить синтаксическое дерево для предложения с многоуровневым вложением («Астрономия, которую изучали древние, которых мы чтим…»), не запутавшись в связях.

2. Разгадка двусмысленности: На фразе «Роуэн покормил свою курицу» (Rowan fed his pet chicken) ИИ понял, что это может значить два разных действия: покормить живую птицу или дать кому-то мясо курицы на ужин. И построил две разные схемы.

3. Анализ новых языков: Модели дали 40 слов на несуществующем языке, и она сама вывела грамматические правила, которые ученые заложили в этот язык.

Вердикт:

ИИ перешел черту. Теперь он не просто использует язык, а *рассуждает* о нем на уровне аспиранта филологического факультета. Тезис о том, что машинное обучение не способно постичь глубину языка, официально устарел.

Оставьте комментарий