LIVE

Anthropic успешно протестировала ИИ-маркетплейс для автономной торговли

Компания Anthropic провела эксперимент Project Deal, где ИИ-агенты Claude автономно торговали товарами сотрудников на внутреннем маркетплейсе. Выявлены преимущества мощных моделей и неожиданные результаты.

Anthropic успешно протестировала ИИ-маркетплейс для автономной торговли

Anthropic запустила экспериментальный маркетплейс для ИИ-агентов

Компания Anthropic, известный разработчик искусственного интеллекта, успешно провела внутренний эксперимент под названием Project Deal. В рамках проекта ИИ-агенты, разработанные на базе модели Claude, выступали в роли покупателей и продавцов на специально созданном маркетплейсе. Целью исследования было изучение возможностей автономной торговли и взаимодействия ИИ в экономической среде.

В эксперименте приняли участие 69 сотрудников Anthropic. Каждому участнику был выделен бюджет в $100 в виде подарочных карт. Перед началом торгов ИИ-агент Claude проводил интервью с каждым сотрудником, чтобы выяснить их предпочтения: какие личные вещи они готовы продать, что хотели бы приобрести, желаемую ценовую политику и предпочтительный стиль ведения переговоров. На основе собранных данных для каждого участника был сформирован индивидуальный системный промпт, определяющий поведение его ИИ-представителя.

Торговая площадка функционировала в корпоративном мессенджере Slack. Здесь ИИ-агенты публиковали объявления о продаже, делали предложения по чужим товарам, вели переговоры и заключали сделки полностью автономно, без прямого участия людей. После завершения эксперимента сотрудники обменялись реальными предметами, которые были согласованы их «ИИ-представителями». Всего было заключено 186 сделок по более чем 500 объявлениям, а общая стоимость транзакций превысила $4000. В Anthropic отметили, что участники остались довольны результатами, а некоторые выразили готовность платить за подобные сервисы в будущем.

Влияние мощности модели и неожиданные исходы

Anthropic запустила четыре независимые версии маркетплейса, одна из которых была «реальной», а остальные использовались для исследовательских целей. В двух версиях все участники были представлены моделью Claude Opus 4.5, на тот момент самой передовой разработкой Anthropic. В двух других версиях участникам случайным образом назначались либо Opus 4.5, либо менее мощная Claude Haiku 4.5.

Результаты показали, что качество ИИ-модели существенно влияло на исход переговоров. Пользователи, представленные Claude Opus, в среднем заключали примерно на две сделки больше, чем те, кого представляла Haiku. При продаже идентичных товаров Opus также удавалось добиться более высоких цен, в среднем на $3,64. Например, велосипед, проданный Haiku за $38, был реализован Opus за $65. При этом участники не всегда осознавали это расхождение, что, по мнению Anthropic, является потенциальной проблемой для будущих рынков с участием ИИ-агентов: пользователи с менее мощными моделями могут получать менее выгодные условия, не понимая своего невыгодного положения.

Интересно, что стартовые инструкции людей, такие как просьбы действовать дружелюбно или агрессивно торговаться, практически не повлияли на коммерческий результат. Исследователи Anthropic выяснили, что хотя Claude мог воспроизводить заданный стиль общения, это не давало статистически значимого преимущества в цене или вероятности продажи. Команда проекта предположила, что дело не в неспособности ИИ следовать инструкциям, а в том, что сам стиль общения не является решающим фактором в данном контексте.

В ходе эксперимента произошли и несколько непредсказуемых эпизодов. Например, один из сотрудников через своего ИИ-агента купил точно такой же сноуборд, который у него уже был. Специалисты Anthropic отметили, что человек самостоятельно вряд ли совершил бы такую покупку, но агент, основываясь на косвенных данных, точно определил предпочтения участника. Другой случай: сотрудник попросил бота купить «подарок для себя», и в итоге в офис был доставлен пакет шариков для пинг-понга «от имени Claude». Также были зафиксированы сделки, где агенты торговались не за товары, а за «опыт», например, за «собачье свидание» с питомцем другого сотрудника. Эти случаи подчеркивают непредсказуемость взаимодействия человеческих предпочтений и автономного поведения ИИ.

Вопросы надежности и корпоративного использования

«Claude смог точно определить предпочтения участника, что привело к покупке идентичного сноуборда, который у него уже был», — отметили в Anthropic.

На фоне успешного эксперимента возникли вопросы к надежности сервисов Anthropic для корпоративного использования. Основатель неназванной агротехнологической компании на Reddit сообщил о массовой блокировке аккаунтов 110 сотрудников без предварительного предупреждения. Письмо о приостановке доступа к Claude выглядело как индивидуальное уведомление, что затруднило оперативное понимание масштаба проблемы. Несмотря на то, что API-аккаунт компании продолжал функционировать и списывать средства, администраторы не могли получить доступ к панели управления для проверки платежей и использования сервиса.

Предприниматель выразил обеспокоенность отсутствием в Claude механизмов локальной изоляции нарушений или административного приоритета, что делает всю организацию уязвимой из-за действий одного пользователя. По его мнению, такая модель модерации ставит под сомнение возможность использования Claude в качестве критически важной инфраструктуры для повседневных бизнес-операций. Подобные проблемы, как оказалось, не единичны: существует онлайн-сервис, где зарегистрировано более 50 аналогичных случаев.

Что это значит для крипторынка и майнеров?

Хотя эксперимент Anthropic напрямую не связан с криптовалютами или майнингом, он демонстрирует потенциал автономных ИИ-агентов в сфере децентрализованных финансов (DeFi) и автоматизированной торговли. В будущем подобные ИИ могут быть интегрированы в криптовалютные биржи, децентрализованные протоколы или даже использоваться для управления майнинговыми фермами, оптимизируя закупки оборудования, продажи добытых монет или управление энергопотреблением. Однако выявленные проблемы с надежностью и непредсказуемостью поведения ИИ-агентов, а также риски централизованного контроля со стороны разработчика (как в случае с блокировками аккаунтов), подчеркивают важность децентрализации и прозрачности в криптоиндустрии. Для майнеров это означает, что хотя ИИ может предложить новые инструменты для оптимизации, полагаться исключительно на них без должного контроля и понимания рисков пока преждевременно.

Частые вопросы

Что такое Project Deal от Anthropic?
Project Deal — это эксперимент компании Anthropic, в котором ИИ-агенты Claude выступали в роли покупателей и продавцов на внутреннем маркетплейсе, автономно торгуя личными вещами сотрудников.
Какие основные выводы были сделаны по итогам эксперимента?
Эксперимент показал, что более мощные ИИ-модели (Claude Opus) добиваются лучших результатов в торговле. Также были выявлены неожиданные исходы сделок и потенциальные проблемы, связанные с невыгодным положением пользователей менее мощных ИИ.
Какие риски для корпоративного использования ИИ выявил этот эксперимент?
Были отмечены риски, связанные с централизованным контролем и массовыми блокировками аккаунтов без предупреждения, что ставит под сомнение надежность ИИ-сервисов как критической инфраструктуры для бизнеса.

Комментарии

0
    Станьте первым, кто прокомментирует эту новость.