السيناتور لومييس يكشف عن قانون RISE، ويضع قواعد جديدة للشفافية في الذكاء الاصطناعي

الرئيسيةالأخبار* السيناتور سينثيا لوميس قدمت قانون RISE لعام 2025 لتوضيح المسؤوليات القانونية للمهنيين الذين يستخدمون أدوات الذكاء الاصطناعي (AI).

  • يتطلب مشروع القانون من مطوري الذكاء الاصطناعي تقديم "بطاقات نموذجية" مفصلة تصف بيانات النظام والاستخدامات والقيود، ولكن لا يجبر على نشر نماذج الذكاء الاصطناعي كمصدر مفتوح.
  • سيظل المحترفون مثل الأطباء والمحاميين والمهندسين والمستشارين الماليين مسؤولين قانونياً عن النصائح المقدمة باستخدام أنظمة الذكاء الاصطناعي.
  • يمكن لمطوري الذكاء الاصطناعي تقليل مسؤوليتهم المدنية من خلال إصدار هذه بطاقات النماذج علنًا، ولكن يجب عليهم تحديث الوثائق بشكل متكرر وشرح أي معلومات تم حجبها.
  • لن تنطبق الحماية على مطوري الذكاء الاصطناعي في حالات الإهمال أو الاحتيال أو إساءة الاستخدام خارج الإعدادات المهنية المحددة. السيناتور سينثيا لوميس (R-WY) قد قدمت مشروع قانون الابتكار المسؤول والخبرة الآمنة (RISE) لعام 2025. يهدف مشروع القانون إلى وضع قواعد مسؤولية واضحة للمهنيين الذين يستخدمون الذكاء الاصطناعي (AI) في مجالات مثل الطب والقانون والهندسة والمالية.
  • إعلان - بموجب القانون المقترح، سيظل المحترفون - بما في ذلك الأطباء والمحامين ومستشاري المالية - مسؤولين قانونياً عن أي نصيحة أو خدمات تُقدم، بغض النظر عما إذا كانت أنظمة الذكاء الاصطناعي قد ساهمت في القرار. سيتطلب مشروع القانون من مطوري الذكاء الاصطناعي نشر "بطاقات نماذج" توضح بيانات تدريب كل نظام، والاستخدامات المقصودة، والقيود، ومؤشرات الأداء، ونقاط الفشل المحتملة. يجب تحديث هذه الوثائق في غضون 30 يوماً كلما تم تغيير نموذج الذكاء الاصطناعي أو تم اكتشاف مشكلات جديدة.

وفقًا لبيان صحفي، صرحت لوميس: "تقدّر وايومنج كل من الابتكار والمساءلة؛ فإن قانون RISE يخلق معايير يمكن التنبؤ بها تشجع على تطوير الذكاء الاصطناعي بشكل أكثر أمانًا مع الحفاظ على الاستقلالية المهنية." وأضافت، "هذه التشريعات لا تمنح حصانة شاملة للذكاء الاصطناعي." متطلبات "بطاقة النموذج" لا تصل إلى حد إجبار المطورين على الكشف عن كامل شفرة المصدر الخاصة بهم.

تشمل الفاتورة أيضًا استثناءً من الحصانة لمطوري الذكاء الاصطناعي في الحالات التي تتعلق بالإهمال أو السلوك المتعمد أو الاحتيال، أو إذا قام المطورون بتقديم معلومات مضللة عن نماذجهم أو استخدامهم خارج سياقهم المهني المقصود. يجب تبرير أي omissions في بطاقات النموذج كتابيًا، ولا يمكن حذف سوى المعلومات المتعلقة بالأسرار التجارية غير المتعلقة بالسلامة.

تصل التشريعات في الوقت الذي يحذر فيه الخبراء من المخاطر الناتجة عن نماذج الذكاء الاصطناعي المغلقة المصدر، والتي توفر القليل من الرؤية حول كيفية اتخاذ القرارات. في مقابلة سابقة، حذر سيمون كيم، الرئيس التنفيذي لشركة هاشيد الكورية، قائلاً: "OpenAI ليست مفتوحة، وتتحكم بها قلة من الناس، لذا فهي خطيرة جداً. صنع هذا النوع من [المصدر المغلق] النموذج الأساسي يشبه صنع 'إله'، لكننا لا نعرف كيف يعمل"، كما تم مشاركته مع كوين ديسك.

يهدف قانون RISE إلى تحقيق التوازن بين الابتكار والمسؤولية الاحترافية، حيث يتطلب الشفافية من مطوري الذكاء الاصطناعي ولكنه يسمح لهم بالاحتفاظ بأسرار التجارة إذا لم تؤثر على سلامة المستخدم. القانون قيد الدراسة حاليًا ولم يصبح قانونًا بعد. لمزيد من المعلومات، النص الكامل لقانون RISE متوفر على الإنترنت.

مقالات سابقة:

  • لجنة الأوراق المالية والبورصات تؤجل قراراتها بشأن ملفات صناديق الاستثمار المتداولة لدوغكوين، HBAR، سولانا، كاردانو *Tencent تنظر في الاستحواذ على مطور MapleStory Nexon
  • مدير MicroStrategy كارل ريكرتسن يبيع جميع الأسهم مقابل 10 مليون دولار
  • شوبفاي تضيف مدفوعات USDC للتجار عبر شبكة كوينباس بيز
  • سونيك لابز تستثمر 400,000 S في هاي آنون، الذكاء الاصطناعي على السلسلة للتمويل اللامركزي
  • إعلان -
شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت