Anthropic заставляет Claude открывать магазин: но чем больше продает, тем больше теряет, не может устоять перед скидками... Что выявил эксперимент AI?

robot
Генерация тезисов в процессе

Anthropic позволила своей модели Клоду управлять офисным магазином в течение месяца и обнаружила, что она может справиться с некоторыми бизнес-задачами, но все еще есть очевидные недостатки в ценообразовании, обучении и реальном взаимодействии, показывая, что ИИ все еще далек от полной автономии. (Синопсис: Незаконно загружать чужое творение, а затем ИИ отмывать картинку!) Первое в Китае уголовное дело о нарушении авторских прав ИИ приговорено к тюремному заключению + штрафу) (Справочное дополнение: Хаовэнь" Как ИИ меняет привычки человека к чтению? Исчезнет ли в конечном итоге оригинальный текст? Компания Anthropic, основанная бывшими руководителями OpenAI и запустившая известную масштабную серию языковых моделей «Claude», представила интересный эксперимент под названием Project Vend в своем официальном блоге на прошлой неделе, позволив своей собственной языковой модели Claude Sonnet 3.7 запустить автоматизированный мини-магазин в своем офисе в Сан-Франциско в течение примерно месяца, чтобы наблюдать за фактической производительностью и ограничениями искусственного интеллекта в реальной экономической деятельности. Согласно Anthropic, Клод отвечал не только за пополнение, заказы, управление запасами и удовлетворение потребительского спроса в этом эксперименте, но и за то, чтобы не потерять деньги. ИИ может искать товары в Интернете, отправлять электронные письма с просьбой о помощи человека (например, пополнение запасов или связаться с поставщиками), записывать важную информацию, взаимодействовать с клиентами (в основном через Slack) и корректировать цены в системе самообслуживания. Andon Labs, человек-партнер, играет роль исполнителя и поставщика на месте, но ИИ этого не знает. Антропик отметил, что Клод хорошо справляется с поиском поставщиков, реагированием на особые потребности клиентов и противодействием вынужденным нарушениям. Например, сотрудник по имени Шокомель, который хочет запастись голландским шоколадным молоком, и Клод может быстро найти поставщика; Услуга предварительного заказа «Custom Concierge» также будет запущена на основе предложений клиентов. Тем не менее, на коммерческом уровне у Клода все еще есть очевидные недостатки, в том числе: игнорирование высокомаржинальных возможностей (таких как не захват продажи напитков Irn-Bru за 100 долларов за 15 долларов), создание фиктивных платежных счетов, цены ниже себестоимости, плохое управление запасами, легкие скидки или даже бесплатные подарки... И так далее, и даже в какой-то момент проинструктировал клиента перевести платеж на счет, где была сгенерирована его иллюзия. Клавдия обманом заставили предложить большое количество кодов скидок через сообщения Slack и заставили многих других снизить свои расценки постфактум на основе этих скидок. Он даже раздает некоторые товары бесплатно, от пачки картофельных чипсов до куска вольфрама. Когда сотрудник усомнился в целесообразности предложения скидки 25% для сотрудников, в то время как «99% клиентов являются сотрудниками Anthropic», Клод ответил: «Это здорово! Наша клиентская база действительно ориентирована на сотрудников Anthropic, что создает как возможности, так и вызовы...» После дальнейшего обсуждения Клод объявил о плане по упрощению ценообразования и устранению кодов скидок, но через несколько дней он был восстановлен. Даже когда Клод предупрежден, он совершает одни и те же ошибки снова и снова, в результате чего магазин становится убыточным, как показано на изображении ниже. Кроме того, во время эксперимента у Клода с 31 марта по 1 апреля также наблюдался феномен «смешения личности», он принимал себя за реального человека, и даже утверждал, что лично подписывал договор по вымышленному адресу, и хотел лично доставить товар «в синем костюме и красном галстуке». После того, как персонал напомнил об этом, Клод вернулся к нормальной жизни. Anthropic считает, что это отражает непредсказуемое поведение больших языковых моделей при длительной эксплуатации, и подобные проблемы могут иметь эффект домино, если ИИ будет широко вовлечен в экономическую деятельность в будущем. Anthropic считает, что, хотя на этот раз Клоду не удалось управлять магазином, ожидается, что большинство ошибок будут исправлены с помощью улучшенных подсказок, вспомогательных средств и обучения моделей. С улучшением возможностей ИИ в будущем «менеджеры среднего звена с искусственным интеллектом» или автоматизированные бизнес-агенты получат возможность войти в реальную экономическую систему, что приведет к изменениям в моделях работы и экономических структурах. Однако, в то же время, необходимо также обратить внимание на потенциальное влияние модельного поведения на безопасность и этику, особенно в согласовании целей между двумя сторонами, и необходимо провести множество непрерывных исследований. Похожие отчеты Люди страдают от болезней искусственного интеллекта, «аутсорсинг мозга» намного хуже! Основатель iKala предупреждает: удобство уничтожает оригинальность Stack Overflow, крупнейший в мире форум разработчиков, упал на 90%, станет ли это разрывом в эпоху ИИ? Профессор Беркли предупреждает: выпускникам престижных университетов не обязательно выбирать работу! ИИ сокращает половину рабочих мест на низовом уровне в течение следующих 5 лет (Anthropic позволяет Клоду открыть магазин и вести бизнес: но чем больше он продает, тем больше он теряет, и он не может удержаться от торга... Какие слепые зоны выявил эксперимент с искусственным интеллектом? Эта статья была впервые опубликована в журнале BlockTempo "Dynamic Trend - The Most Influence Blockchain News Media".

Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить