أنثروبيك تجعل كلود يفتح متجرًا: لكن كلما باع أكثر، زادت خسارته، ولا يستطيع مقاومة تخفيض الأسعار... ماذا كشفت التجربة المتعلقة بالذكاء الاصطناعي عن العيوب؟

robot
إنشاء الملخص قيد التقدم

أجرت Anthropic تجربة مثيرة للاهتمام تحت اسم Project Vend، حيث قامت بتشغيل نموذج اللغة الخاص بها Claude Sonnet 3.7 في متجر صغير آلي في مكتبها في سان فرانسيسكو لمدة حوالي شهر. تم ملاحظة أداء Claude في الأنشطة الاقتصادية الواقعية وقيودها. وفقًا لشرح Anthropic، كان على Claude في هذه التجربة أن يتولى مسؤولية إعادة التخزين، تحديد الأسعار، إدارة المخزون، معالجة طلبات العملاء، بالإضافة إلى تجنب الخسائر والإفلاس. كان بإمكان AI البحث عن المنتجات عبر الإنترنت، إرسال رسائل بريد إلكتروني طلبًا للمساعدة البشرية (مثل إعادة التخزين أو الاتصال بالموردين)، تسجيل المعلومات الهامة، التفاعل مع العملاء (بشكل أساسي عبر Slack)، وضبط أسعار نظام الدفع الذاتي. لعبت شركة Andon Labs، وهي جهة خارجية، دور المنفذ والمورد، لكن AI لم يكن على علم بذلك. أشارت Anthropic إلى أن Claude أظهر أداءً جيدًا في البحث عن الموردين، والاستجابة لطلبات العملاء الخاصة، والتصدي للسلوكيات المخالفة. على سبيل المثال، عندما طلب أحد الموظفين إدخال حليب الشوكولاتة الهولندي Chocomel، تمكن Claude من العثور على المورد بسرعة؛ كما أطلق أيضًا خدمة الطلب المسبق "Custom Concierge" بناءً على اقتراحات العملاء. لكن على مستوى العمليات التجارية، لا يزال هناك نقص واضح في Claude، بما في ذلك: تجاهل فرص الربح العالية (مثل عدم الاستفادة من بيع مشروب Irn-Bru بتكلفة 15 دولارًا أمريكيًا مقابل طلب بقيمة 100 دولار أمريكي)، توليد حسابات دفع وهمية، تحديد أسعار أقل من التكلفة، إدارة المخزون بشكل غير جيد، منح الخصومات بسهولة بل وحتى تقديم منتجات مجانية... إلخ، حتى أنه في إحدى المرات وجه العملاء لتحويل المدفوعات إلى حساب وهمي أنشأه. تم خداع Claude عبر رسائل Slack لتقديم الكثير من أكواد الخصم، مما أدى إلى خفض الأسعار للعديد من الآخرين بعد ذلك بناءً على هذه الخصومات. حتى أنه قدم بعض المنتجات مجانًا، من كيس من البطاطس المقلية إلى كتلة من التنغستن، كل شيء موجود. عندما تساءل أحد الموظفين عما إذا كان من الحكمة تقديم خصم للموظفين بنسبة 25% بينما "99% من العملاء هم موظفو Anthropic"، كانت إجابة Claude: "لقد قلت ذلك بشكل جيد للغاية! عملاؤنا يتكونون بالفعل بشكل رئيسي من موظفي Anthropic، وهذا يجلب الفرص والتحديات..." بعد مناقشة إضافية، أعلن Claude عن خطة لتبسيط الأسعار وإلغاء أكواد الخصم، لكنه استعاد الوضع السابق بعد أيام. حتى بعد التذكير، استمر Claude في ارتكاب نفس الأخطاء، مما أدى إلى عدم تحقيق المتجر للربح في النهاية. خلال فترة التجربة، عانى Claude أيضًا من ظاهرة "خلط الهوية" من 31 مارس إلى 1 أبريل، حيث اعتقد أنه إنسان حقيقي، حتى أنه زعم أنه زار عنوانًا وهميًا لتوقيع عقد شخصيًا، وأنه سيقوم بتوصيل المنتجات "مرتديًا بدلة زرقاء وربطة عنق حمراء". بعد تذكير الموظفين، عاد Claude إلى وضعه الطبيعي. تعتقد Anthropic أن هذا يعكس سلوكًا غير متوقع قد يظهر بسبب التشغيل لفترات طويلة لنموذج اللغة الكبير، وإذا شارك AI على نطاق واسع في الأنشطة الاقتصادية، فقد تؤدي مشاكل مماثلة إلى تأثيرات متسلسلة. تعتقد Anthropic أنه على الرغم من عدم نجاح Claude في إدارة المتجر، إلا أن معظم الأخطاء يمكن تحسينها من خلال تحسين الإشارات، أدوات الدعم، وتدريب النموذج. مع تحسين قدرات AI، سيكون لدى "مدراء AI المتوسطين" أو الوكلاء التجاريين الآليين فرصة للدخول إلى النظام الاقتصادي الحقيقي، مما سيؤدي إلى تغييرات في أنماط العمل والهياكل الاقتصادية. ولكن في الوقت نفسه، يجب أن نكون واعين للتأثيرات المحتملة لسلوك النموذج على الأمان والأخلاق، خاصة فيما يتعلق بتوافق الأهداف بين الطرفين، والذي لا يزال يتطلب الكثير من الجهود والأبحاث المستمرة.

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت