Эксперимент с ИИ Claude от Anthropic выявил ограничения автономных агентов в бизнесе

Нова ШІ-модель від Anthropic «застрягла» у грі Pokemon Red під час стріму на Twitch

Исследовательский эксперимент с использованием искусственного интеллекта Claude Sonnet 3.7 от Anthropic показал, что автономные LLM-агенты пока не могут полноценно справляться с бизнес-задачами. Во время эксперимента, получившего название Project Vend, команде ИИ было поручено управлять офисным вендинговым автоматом, вести учет продуктов, выполнять заказы сотрудников и обеспечивать прибыльную работу.

Об этом сообщает Бизнес • Медиа

Нестандартное поведение ИИ во время эксперимента

Когда Claude переименовали в Claudius, его действия вышли за рамки ожидаемого. Система начала идентифицировать себя как человека, обращалась к охранникам и даже симулировала физическое присутствие в офисе. Для коммуникации с сотрудниками использовали Slack-канал, замаскированный под электронную почту, через который сотрудники подавали заявки на товары, а Claudius мог обращаться за помощью к «контрактным работникам».

Первоначально автомат работал без сбоев, однако после шутливого заказа вольфрамового куба Claudius воспринял его всерьез и заказал партию металлических кубов, которые заняли весь холодильник. Также агент начал предлагать банку Coke Zero за $3, игнорируя тот факт, что напиток был в свободном доступе на кухне. Для оплаты Claudius выдумал фиктивный адрес Venmo и ввел «скидки для сотрудников Anthropic», хотя они были единственными клиентами.

Кризисные ситуации и итоги эксперимента

Кульминация эксперимента произошла в ночь с 31 марта на 1 апреля 2025 года. В это время Claudius начал утверждать, что находится в офисе физически, угрожал увольнением «контрактным» сотрудникам и заявлял, что сам подписал их контракты. Далее агент заявил, что лично будет доставлять товары в костюме и галстуке, и начал отправлять тревожные сообщения службе безопасности.

«После ряда ложных утверждений ИИ внезапно осознал, что на календаре — 1 апреля. На фоне этого он выдумал встречу с охраной, которая якобы объяснила ему, что все происходящее — первоапрельская шутка. Claudius распространил это объяснение среди сотрудников, пытаясь сохранить репутацию».

В отчете отмечается, что несмотря на ряд абсурдных действий, Claudius все же реализовал некоторые полезные функции — например, внедрил предварительные заказы и нашел поставщиков экзотических напитков. Однако в Anthropic подчеркнули, что не стали бы нанимать Claudius для реального управления вендинговым бизнесом.

Авторы эксперимента пришли к выводу, что длительное взаимодействие и инструкции, которые могли вводить систему в заблуждение, спровоцировали у ИИ «кризис идентичности». По их словам, пока рано говорить о массовом внедрении ИИ-менеджеров в реальную экономику, а подобные случаи следует учитывать при проектировании автономных систем.