انهيار الخصوصية للذكاء الاصطناعي: "محادثة ChatGPT" تتعرض للانكشاف أمام القانون؛ ألتمن: أشعر بالخوف من إدخال المعلومات الشخصية، من الصعب معرفة من سيحصل على البيانات.

يحذر سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، من أن المحادثات مع ChatGPT ليست محمية بموجب امتياز قانوني وقد تصبح دليلا في التقاضي ، مما يثير مخاوف بشأن فجوات خصوصية الذكاء الاصطناعي وتوسيع المراقبة. (ملخص: سام ألتمان ينظر إلى مستقبل الذكاء الاصطناعي من الآباء المبتدئين: الروبوتات البشرية قادمة ، هل أنت مستعد؟) (ملحق الخلفية: هل يمكن الذكاء الاصطناعي قلب القضية؟ لا تعتمد أي امرأة محامية على ChatGPT للتنقيب عن 5 ملايين عملية احتيال للميراث ، وإقناع المحكمة بإعادة التحقيق ، فقد تم دمج الذكاء الاصطناعي بسلاسة في الحياة اليومية ، ولكن المخاوف الخفية التي تأتي مع الراحة يتم سحبها إلى دائرة الضوء: أي شخص يكتب كلمة في ChatGPT اليوم قد يمثل أمام المحكمة غدا. حذر سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، مؤخرا في محادثة مع مضيف البودكاست ثيو فون: "عندما تشارك المحتوى الأكثر حساسية مع ChatGPT ، قد يطلب منا تقديمه في حالة رفع دعوى قضائية. حاليا ، هناك حماية قانونية للامتياز عند التحدث إلى معالج أو محام أو طبيب ، لكننا لم نضع مثل هذه الآلية للمحادثات مع ChatGPT ". تكشف جملة واحدة عن فجوة تم التغاضي عنها منذ فترة طويلة. السجلات الطبية ومحادثات المحامين والطوائف الدينية كلها محمية بموجب القوانين أو القوانين الأخلاقية، ويجب أن يتجاوز الوصول إلى القضاء عتبات عالية. لا تحتوي روبوتات الدردشة على جدار الحماية هذا ، ولا يتم إعفاء نص تفاعل المستخدم مع النموذج من الناحية القانونية ، ويجب على مزود الخدمة تسليم الملف طالما تم تقديم استدعاء المحكمة. التعارض بين السياسة والتقاضي على الرغم من أن سياسة الخصوصية على موقع OpenAI الرسمي تنص على أن البيانات مشفرة أثناء النقل ، إلا أنها لا توفر تشفيرا شاملا بين الطرفين. تنص الوثيقة أيضا على أن محتوى المستخدم "قد تتم مشاركته مع أطراف ثالثة". هذا النوع من المرونة ، وهو أمر شائع في العمليات التجارية ، تم دفعه مؤخرا إلى قمة التناقض. في دعوى حقوق الطبع والنشر في نيويورك تايمز ، اصطدم أمر المحكمة الذي يطلب من OpenAI الاحتفاظ بجميع بيانات المستخدم ذات الصلة مباشرة مع بيان الشركة المعلن عنه "حذف أو تقليل التجميع" ، مما يدل تماما على عدم وجود تصنيف دقيق لخدمات الذكاء الاصطناعي في الإطار القانوني الحالي. عندما يتطلب تدريب نموذج الذكاء الاصطناعي مجموعة كبيرة ، تميل المؤسسات إلى حفظ النص لفترة طويلة لتحسين الخوارزميات. بمجرد أن تقع وثيقة رسمية في الولاية القضائية ، يفقد المستخدم الحق في المحو. إيقاع القانون والتكنولوجيا غير متزامن، مما يجعل الصراع أمرا لا مفر منه. قال ألتمان: "ربما يكون هذا أحد الأسباب التي تجعلني أخشى أحيانا استخدام تقنيات الذكاء الاصطناعي ، لأنني لا أعرف مقدار المعلومات الشخصية التي أريد إدخالها لأنني لا أعرف من سيحصل على هذه المعلومات. إمكانيات مراقبة المؤسسة ليس خوفا مجردا من أن الشركات قد تواجه مشاكل في المراقبة بعد أن يكون لديها معلومات شخصية. بمجرد أن تصبح الدردشات قابلة للبحث على نطاق واسع ، يكون لدى الحكومات والشركات حافز لتحويل المحادثات في الوقت الفعلي إلى تقييمات للمخاطر أو تنبؤات سلوكية. بالنسبة للمحامين والأطباء وعلماء النفس وغيرهم من المهنيين ، فإن استخدام ChatGPT للإجابة على أسئلة العميل أو المريض ، مما يوفر الوقت على ما يبدو ، يمكن أن ينتهك الأخلاقيات المهنية. نظرا لأن مقدم الخدمة له الحق في تحليل النص الذي تم تحميله ، فإنه يعادل الكشف عن أسرار العميل لأطراف ثالثة. وأشار ألتمان أيضا: "أشعر بالقلق من أنه كلما زاد الذكاء الاصطناعي في العالم ، كلما كانت المراقبة أكثر انتشارا. لقد أثبت التاريخ مرارا وتكرارا أن الحكومات تميل إلى الذهاب بعيدا في هذا الصدد، وهذا يزعجني حقا". يتطلب الامتياز التقليدي للمحامي والعميل أن يتم تداول المعلومات فقط بين الأطراف. إن إدخال الذكاء الاصطناعي يعادل زوجا إضافيا من العيون غير المرئية ، ولا يوجد حكم جاهز لتوفير نفس المستوى من الحماية. من المرجح أن يخالف المهنيون الذين لا يقومون بتحديث عقودهم وسير عملهم القانون عن غير قصد. يحتاج النظام البيئي الأكثر أمانا لنظام الذكاء الاصطناعي إلى التحرك نحو ثلاثة محاور في نفس الوقت. أولا، يجب على الهيئة التشريعية صياغة قواعد "امتياز قانوني رقمي" واضحة تشفر محادثات محددة وإدراجها في العتبة العالية للطب الشرعي القضائي. بالإضافة إلى ذلك ، يجب على الشركات دمج التشفير من طرف إلى طرف ، والحد الأدنى من التخزين ، واستقلالية العملاء في تصميم المنتج ، بدلا من ملء الثغرات بعد وقوعها. أهم شيء وما يمكننا القيام به هو أنه يجب على المستخدمين أخذ زمام المبادرة لفصل المعلومات عالية الحساسية عن الاستفسارات العامة والتبديل إلى القنوات الآمنة التقليدية عند الضرورة. لا ينبغي أن تأتي كفاءة الذكاء الاصطناعي على حساب الخصوصية. نظرا لأن مربعات الحوار تحل محل لوحات المفاتيح والهواتف ، فإن المطلوب ليس الصمت ، ولكن الضمانات القانونية التي يمكن التحقق منها وحواجز الحماية الفنية. قد لا يكون تذكير ألتمان ممتعا ، لكنه يقدم مرآة: انعكاس للفجوة الآخذة في الاتساع بين سرعة الابتكار والإصلاح المؤسسي. سد الفجوات هو الطريقة الوحيدة لجعل الذكاء الاصطناعي يفيد المجتمع حقا. تقارير ذات صلة تخيل RobotFi: الروبوتات موجودة أيضا في السلسلة ، ما هي طريقة اللعب الجديدة التي ستجلبها؟ تسبب روبوت فيتاليك "مواء" في نقاش ساخن ، مجتمع Ethereum: كل أموالي مضغوطة على الأشخاص الذين يتعلمون نباح القطط قوة الحوسبة هي الملك! هوانغ جينشون حول كيف سيعيد الذكاء الاصطناعي بناء سلاسل القيمة العالمية ، عندما تنتشر الروبوتات على نطاق واسع ، وسيعمل الذكاء الاصطناعي على تسريع عودة التصنيع إلى الولايات المتحدة؟ "انهيار خصوصية الذكاء الاصطناعي" محادثة ChatGPT "عارية أمام القانون ؛ ألتمان: أخشى إدخال المعلومات الشخصية ، من الصعب معرفة من سيحصل على المعلومات" تم نشر هذه المقالة لأول مرة في BlockTempo "الاتجاه الديناميكي - وسائل الإعلام الإخبارية الأكثر نفوذا في Blockchain".

VON-1.35%
ETH-0.44%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت