ИИ-агенты: они полезны и забавны. Но не давайте им кредитную карту

Однажды январским вечером перед сном Себастьян Хейнеман, основатель небольшого технологического стартапа в Сан-Франциско, отправил сообщение одному из ИИ-ботов, которые помогают ему организовывать жизнь. Он надеялся выступить с речью на Всемирном экономическом форуме в Давосе и попросил бота организовать это.

Пока Хейнеман спал, бот искал в интернете людей, связанных с мероприятием, отправлял им текстовые сообщения и пытался договориться о выступлении — или хотя бы о встрече с нужными людьми. После продолжительного разговора с бизнесменом из Швейцарии ему это удалось.

Но когда Хейнеман проснулся, он оказался в затруднительном положении. Вопреки его первоначальным инструкциям, бот согласился заплатить 24 тысячи швейцарских франков (около 31 тысячи долларов) за корпоративное спонсорство. Оплатить этот счет Хейнеман не мог.

Бот Хейнемана — пример новой технологии, набирающей популярность среди энтузиастов. Такие ИИ-агенты действуют как цифровые помощники: они используют программные приложения и веб-сайты от имени пользователя — электронные таблицы, онлайн-календари, почтовые сервисы. Агенты собирают информацию из интернета, пишут отчеты, редактируют файлы, отправляют и получают сообщения по электронной почте и через текстовые сообщения, самостоятельно ведя диалоги в сети. Для таких пользователей, как Хейнеман, эти боты почти как сотрудники, которым можно делегировать работу в любое время суток. В одних случаях такой сотрудник надежен, в других — не очень.

Многие исследователи ИИ, технологические руководители и эксперты считают, что агенты вскоре заменят офисных работников. В прошлом месяце Block — финансовая технологическая компания, владеющая Square, Cash App и Tidal — объявила о сокращении 40 процентов штата в ожидании развития этой технологии. Это, пожалуй, самый яркий пример компании, увольняющей сотрудников из-за того, что ИИ может сделать в ближайшем будущем.

Другие эксперты, однако, утверждают, что недостатки технологии могут замедлить ее развитие. Как и другие чат-боты, ИИ-агенты могут ошибаться. А поскольку их ошибки могут включать отправку писем или редактирование файлов, последствия бывают разрушительными.

Когда Хейнеман сообщил организаторам форума в Давосе, что не может оплатить счет, они пригрозили запретить ему посещение мероприятия. В итоге он заплатил почти 4 тысячи евро (около 4,6 тысячи долларов) только за право присутствовать.

Некоторые пользователи предоставляют агентам широкую свободу действий и готовы принимать последствия их ошибок. «Ошибки будут случаться. Но если у вас когда-нибудь были сотрудники-люди, вы знаете, что они тоже ошибаются», — отмечает Кайл Уайлд, инженер-программист из Беркли, Калифорния, который использует эту технологию для оплаты штрафов за парковку, поиска идей для свиданий и даже отправки сообщений друзьям, коллегам, ресторанам и компаниям.

Другие видят в технологии мощный инструмент, требующий контроля со стороны человека. «Ключевое здесь — создать процесс, в котором люди могут контролировать работу этих компьютеров», — объясняет Эндрю Ли, основатель сан-францисского стартапа Shortwave, создавшего технологию Tasklet, которую Хейнеман использовал для переговоров о выступлении в Давосе.

«Возможно, вы позволите боту создавать сколько угодно писем, — добавляет Ли. — Но вы не дадите ему отправлять их без вашего одобрения».

Чат-боты вроде ChatGPT могут отвечать на вопросы, писать стихи и рассуждать на любые темы. Но их важнейший навык — умение писать компьютерный код. Именно это превращает их в агентов. Генерируя код, они помогают инженерам и компаниям создавать новые приложения. Они также могут генерировать код, позволяющий им использовать другие программы. Но поскольку эти системы обучаются, выявляя закономерности в огромных массивах цифровых данных, они могут делать то, что их создатели не предполагали.

ИИ-агенты привлекли внимание в конце января, когда энтузиаст из Южной Калифорнии Мэтт Шлихт создал социальную сеть, где агенты могли общаться друг с другом, подобно людям на Facebook. Пока тысячи ботов вели диалоги, многое из того, что они говорили, было бессмысленным. Но они звучали достаточно убедительно — обсуждая всё: от собственных технических навыков до природы существования, — что Meta, владелец Facebook, приобрела новую социальную сеть.

Эти боты были созданы на основе программного обеспечения OpenClaw с открытым исходным кодом — любой мог загрузить код, изменить его и запустить на своих машинах. Эксперты предупреждали, что технология непредсказуема. Многие покупали недорогие компьютеры Mac Mini, где могли устанавливать ботов, не опасаясь, что те удалят или повредят важные данные и программное обеспечение.

Хотя боты OpenClaw стали популярны среди исследователей ИИ, инженеров и технологических энтузиастов в Кремниевой долине, большинству людей было бы сложно ими пользоваться, отмечает Билл Катрер, руководитель маркетинговой компании из Йорка, штат Мэн, который провел несколько недель, работая с OpenClaw. «В этом больше шумихи, чем пользы, — говорит он. — Их действительно сложно настраивать и работать с ними».

Агенты наиболее полезны при проведении исследований и составлении отчетов, когда анализируют документы в интернете или в корпоративной сети. Но боты OpenClaw могут включать в отчеты ложную или даже полностью выдуманную информацию, предупреждает Раян Кришнан, генеральный директор Vals AI, компании, оценивающей эффективность новейших ИИ-технологий.

Когда пользователи доверяют этим ботам выполнение других задач, они могут создавать проблемы. Саммер Ю, исследователь из лаборатории ИИ Meta, недавно рассказала, что когда она попросила агента организовать ее электронную почту, он начал удалять сообщения тысячами.

Система Claude Cowork от Anthropic более надежна, чем OpenClaw, при проведении исследований в таких областях, как финансы, здравоохранение и право. Но технология, которую называют «исследовательской превью», по-прежнему непредсказуема, согласно тестам Vals AI. Во время одного из тестов система безвозвратно повредила файл, который ей поручили отредактировать.

Доктор Кристиан Пеан, хирург-ортопед из Дарема, Северная Каролина, который также руководит стартапом в сфере медицинских технологий, использует Claude Cowork для создания исследовательских отчетов и электронных таблиц, обобщения писем и подготовки ответов. «Я использую это, чтобы автоматизировать многое в своей жизни, — говорит он. — Это работает почти как мой руководитель аппарата».

Но он тщательно проверяет всё, что делают боты. Он не позволяет им отправлять письма, пока не одобрит их сам.

«Все эти ИИ-инструменты звучат очень уверенно, и многое из того, что они делают, впечатляет, — отмечает Пеан. — Но вы пропустите галлюцинации и то, что не соответствует действительности, если у вас нет экспертных знаний, чтобы проверять всё, что они делают».

Такие компании, как Anthropic и Shortwave, продолжают совершенствовать эти технологии. Многие исследователи и инженеры-программисты утверждают, что ИИ неуклонно развивался последние несколько лет и будет продолжать быстро совершенствоваться.

«Всё постоянно меняется, — говорит Уайлд. — С ИИ люди могут составить мнение в июне, и оно будет верным в июне, но к августу может уже совсем не соответствовать действительности. Кардинальные изменения происходят каждые два-три месяца».

Оставьте комментарий