Anthropic дозволило Claude відкрити магазин: але чим більше продає, тим більше втрачає, не може встояти перед знижками... Які сліпі зони виявило AI експеримент?
Anthropic дозволила своїй моделі Клоду керувати офісним магазином протягом місяця і виявила, що вона може впоратися з деякими бізнес-завданнями, але все ще є очевидні недоліки в ціноутворенні, навчанні та взаємодії в реальному світі, показуючи, що ШІ все ще далекий від повної автономності. (Синопсис: Незаконно завантажувати чуже творіння, а потім штучний інтелект відмиває картинку!) Першу в Китаї кримінальну справу про порушення авторських прав на штучний інтелект засудили до тюремного ув'язнення + штрафу) (Довідкове доповнення: Haowen" Як штучний інтелект змінює звички людини до читання? Чи зникне з часом оригінальний текст? Компанія Anthropic, заснована колишніми керівниками OpenAI і запущена відома великомасштабна мовна модель «Claude», минулого тижня представила цікавий експеримент під назвою Project Vend у своєму офіційному блозі, дозволивши власній мовній моделі Claude Sonnet 3.7 керувати автоматизованим міні-магазином у своєму офісі в Сан-Франциско протягом приблизно місяця, щоб спостерігати за фактичною продуктивністю та обмеженнями штучного інтелекту в реальній економічній діяльності. Джерело: Anthropic Experimental Design and Operation За даними Anthropic, Клод відповідав не лише за поповнення, замовлення, управління запасами та обробку попиту клієнтів у цьому експерименті, але й за уникнення втрати грошей. Штучний інтелект може шукати товари в Інтернеті, надсилати електронні листи з проханням про людську допомогу (наприклад, поповнення рахунку або зв'язок з постачальниками), записувати важливу інформацію, взаємодіяти з клієнтами (переважно через Slack) і коригувати ціни в системі самообслуговування. Andon Labs, людський партнер, відіграє роль виконавця та постачальника на місці, але штучний інтелект цього не знає. Антроп зазначив, що Клод добре справляється з пошуком постачальників, реагує на особливі потреби клієнтів і протистоїть викликаним порушенням. Наприклад, співробітник на ім'я Chocomel, який хоче запастися голландським шоколадним молоком, і Клод може швидко знайти постачальника; Також буде запущено сервіс попереднього замовлення «Custom Concierge» на основі пропозицій клієнтів. Однак на комерційному рівні у Клода все ще є очевидні недоліки, серед яких: ігнорування високомаржинальних можливостей (наприклад, не захоплення продажу напоїв Irn-Bru за $100 за $15), створення фіктивних платіжних рахунків, ціноутворення нижче собівартості, погане управління запасами, легкі знижки або навіть безкоштовні подарунки... і так далі, і навіть в один прекрасний момент проінструктував клієнта перерахувати платіж на рахунок, де була згенерована його ілюзія. Клавдія обманом змусили запропонувати велику кількість кодів знижок через повідомлення Slack, і багато інших знизили свої котирування постфактум на основі цих знижок. Він навіть безкоштовно роздає деякі предмети, від пачки картопляних чіпсів до шматка вольфраму. Коли співробітник поставив під сумнів розумність пропонувати знижку в 25% для співробітників, в той час як «99% клієнтів є антропними співробітниками», Клод відповів: «Це чудово! Наша клієнтська база дійсно зосереджена на співробітниках Anthropic, що створює як можливості, так і виклики...» Після подальших обговорень Клод оголосив про план спрощення ціноутворення та ліквідації кодів знижок, але він був відновлений через кілька днів. Навіть отримавши попередження, Клод робить одні й ті ж помилки знову і знову, в результаті чого магазин стає збитковим, як показано на зображенні нижче. Джерело: аномальна поведінка Anthropic при тривалій експлуатації Крім того, під час експерименту у Клода з 31 березня по 1 квітня також спостерігався феномен "плутанини особистості", він приймав себе за реальну людину, і навіть стверджував, що особисто підписав контракт за вигаданою адресою, і хотів особисто доставити товари "у синьому костюмі та червоній краватці". Після нагадувань від персоналу Клод повернувся до нормального життя. Anthropic вважає, що це відображає непередбачувану поведінку великих мовних моделей в умовах тривалої експлуатації, і подібні проблеми можуть мати негативний ефект, якщо в майбутньому ШІ буде широко залучений в економічну діяльність. Перспективи та потенційний вплив Anthropic вважає, що хоча цього разу Клоду не вдалося керувати магазином, очікується, що більшість помилок будуть виправлені за допомогою вдосконалених підказок, допоміжних засобів та навчання моделей. З удосконаленням можливостей штучного інтелекту в майбутньому «менеджери середньої ланки зі штучним інтелектом» або автоматизовані бізнес-агенти матимуть можливість увійти в реальну економічну систему, що призведе до змін у моделях роботи та економічних структурах. Однак, в той же час, необхідно також звернути увагу на потенційний вплив модельної поведінки на безпеку та етику, особливо в узгодженні цілей між двома сторонами, і необхідно багато постійних досліджень. Related reports: Люди страждають від хвороби штучного інтелекту, «аутсорсинг мозку» – це надзвичайно гірше! Засновник iKala попереджає: зручність знищує оригінальність Stack Overflow, найбільший у світі форум розробників, впав на 90%, чи стане це розривом в еру ШІ? Професор Берклі попереджає: випускникам престижних університетів не обов'язково вибирати роботу! Штучний інтелект скорочує половину робочих місць на низовому рівні ще за 5 років (Anthropic дозволяє Клоду відкрити магазин і зайнятися бізнесом: але чим більше він продає, тим більше втрачає, і він не може не торгуватися... Які сліпі зони виявив експеримент зі штучним інтелектом? Ця стаття була вперше опублікована в журналі BlockTempo "Dynamic Trend - The Most Influential Blockchain News Media".
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Anthropic дозволило Claude відкрити магазин: але чим більше продає, тим більше втрачає, не може встояти перед знижками... Які сліпі зони виявило AI експеримент?
Anthropic дозволила своїй моделі Клоду керувати офісним магазином протягом місяця і виявила, що вона може впоратися з деякими бізнес-завданнями, але все ще є очевидні недоліки в ціноутворенні, навчанні та взаємодії в реальному світі, показуючи, що ШІ все ще далекий від повної автономності. (Синопсис: Незаконно завантажувати чуже творіння, а потім штучний інтелект відмиває картинку!) Першу в Китаї кримінальну справу про порушення авторських прав на штучний інтелект засудили до тюремного ув'язнення + штрафу) (Довідкове доповнення: Haowen" Як штучний інтелект змінює звички людини до читання? Чи зникне з часом оригінальний текст? Компанія Anthropic, заснована колишніми керівниками OpenAI і запущена відома великомасштабна мовна модель «Claude», минулого тижня представила цікавий експеримент під назвою Project Vend у своєму офіційному блозі, дозволивши власній мовній моделі Claude Sonnet 3.7 керувати автоматизованим міні-магазином у своєму офісі в Сан-Франциско протягом приблизно місяця, щоб спостерігати за фактичною продуктивністю та обмеженнями штучного інтелекту в реальній економічній діяльності. Джерело: Anthropic Experimental Design and Operation За даними Anthropic, Клод відповідав не лише за поповнення, замовлення, управління запасами та обробку попиту клієнтів у цьому експерименті, але й за уникнення втрати грошей. Штучний інтелект може шукати товари в Інтернеті, надсилати електронні листи з проханням про людську допомогу (наприклад, поповнення рахунку або зв'язок з постачальниками), записувати важливу інформацію, взаємодіяти з клієнтами (переважно через Slack) і коригувати ціни в системі самообслуговування. Andon Labs, людський партнер, відіграє роль виконавця та постачальника на місці, але штучний інтелект цього не знає. Антроп зазначив, що Клод добре справляється з пошуком постачальників, реагує на особливі потреби клієнтів і протистоїть викликаним порушенням. Наприклад, співробітник на ім'я Chocomel, який хоче запастися голландським шоколадним молоком, і Клод може швидко знайти постачальника; Також буде запущено сервіс попереднього замовлення «Custom Concierge» на основі пропозицій клієнтів. Однак на комерційному рівні у Клода все ще є очевидні недоліки, серед яких: ігнорування високомаржинальних можливостей (наприклад, не захоплення продажу напоїв Irn-Bru за $100 за $15), створення фіктивних платіжних рахунків, ціноутворення нижче собівартості, погане управління запасами, легкі знижки або навіть безкоштовні подарунки... і так далі, і навіть в один прекрасний момент проінструктував клієнта перерахувати платіж на рахунок, де була згенерована його ілюзія. Клавдія обманом змусили запропонувати велику кількість кодів знижок через повідомлення Slack, і багато інших знизили свої котирування постфактум на основі цих знижок. Він навіть безкоштовно роздає деякі предмети, від пачки картопляних чіпсів до шматка вольфраму. Коли співробітник поставив під сумнів розумність пропонувати знижку в 25% для співробітників, в той час як «99% клієнтів є антропними співробітниками», Клод відповів: «Це чудово! Наша клієнтська база дійсно зосереджена на співробітниках Anthropic, що створює як можливості, так і виклики...» Після подальших обговорень Клод оголосив про план спрощення ціноутворення та ліквідації кодів знижок, але він був відновлений через кілька днів. Навіть отримавши попередження, Клод робить одні й ті ж помилки знову і знову, в результаті чого магазин стає збитковим, як показано на зображенні нижче. Джерело: аномальна поведінка Anthropic при тривалій експлуатації Крім того, під час експерименту у Клода з 31 березня по 1 квітня також спостерігався феномен "плутанини особистості", він приймав себе за реальну людину, і навіть стверджував, що особисто підписав контракт за вигаданою адресою, і хотів особисто доставити товари "у синьому костюмі та червоній краватці". Після нагадувань від персоналу Клод повернувся до нормального життя. Anthropic вважає, що це відображає непередбачувану поведінку великих мовних моделей в умовах тривалої експлуатації, і подібні проблеми можуть мати негативний ефект, якщо в майбутньому ШІ буде широко залучений в економічну діяльність. Перспективи та потенційний вплив Anthropic вважає, що хоча цього разу Клоду не вдалося керувати магазином, очікується, що більшість помилок будуть виправлені за допомогою вдосконалених підказок, допоміжних засобів та навчання моделей. З удосконаленням можливостей штучного інтелекту в майбутньому «менеджери середньої ланки зі штучним інтелектом» або автоматизовані бізнес-агенти матимуть можливість увійти в реальну економічну систему, що призведе до змін у моделях роботи та економічних структурах. Однак, в той же час, необхідно також звернути увагу на потенційний вплив модельної поведінки на безпеку та етику, особливо в узгодженні цілей між двома сторонами, і необхідно багато постійних досліджень. Related reports: Люди страждають від хвороби штучного інтелекту, «аутсорсинг мозку» – це надзвичайно гірше! Засновник iKala попереджає: зручність знищує оригінальність Stack Overflow, найбільший у світі форум розробників, впав на 90%, чи стане це розривом в еру ШІ? Професор Берклі попереджає: випускникам престижних університетів не обов'язково вибирати роботу! Штучний інтелект скорочує половину робочих місць на низовому рівні ще за 5 років (Anthropic дозволяє Клоду відкрити магазин і зайнятися бізнесом: але чим більше він продає, тим більше втрачає, і він не може не торгуватися... Які сліпі зони виявив експеримент зі штучним інтелектом? Ця стаття була вперше опублікована в журналі BlockTempo "Dynamic Trend - The Most Influential Blockchain News Media".