المهووسون يؤسسون شركات ناشئة، والمبتدئون يشترون الدورات، والفنانون عاطلون عن العمل، لكن الحقيقة المحرجة هي: الذكاء الاصطناعي يتقدم بشغف، لكن السيناريو لا يسير على طريق الهبوط، بل يشبه رمي النرد.
وأيضًا، في مرحلة مبكرة من الصناعة، غالبًا ما تكون الوجوه التي تسقط أولاً على النرد إما صفراء أو رمادية.
السبب بسيط للغاية، فالأرباح الضخمة تثير الدوافع، ناهيك عن أن الصناعات في مرحلة التطور الأولية دائمًا ما تعاني من الثغرات. انظر إلى هذه المجموعة من البيانات، وستفهم الأمر بوضوح:
حاليا، تحتوي أكثر من 43٪ من عقد خدمة MCP على مسارات استدعاءات shell لم يتم التحقق منها، وأكثر من 83٪ من عمليات النشر بها ثغرات أمنية في تكوين MCP (بروتوكول سياق النموذج). 88٪ من عمليات نشر مكونات الذكاء الاصطناعي لا تحتوي على أي شكل من أشكال الحماية ممكنة على الإطلاق ؛ يتم حاليا عرض 150,000 إطار عمل نشر الذكاء الاصطناعي خفيف الوزن مثل Ollama على الشبكة العامة العالمية ، وتم اختطاف أكثر من مليار دولار من قوة الحوسبة للتعدين......
الأكثر سخرية هو أن الهجوم على النماذج الكبيرة الأكثر ذكاءً يحتاج فقط إلى أساليب بدائية للغاية - فقط مجموعة من المنافذ المفتوحة افتراضيًا، أو ملف تكوين YAML مكشوف، أو مسار استدعاء شل غير موثق، وحتى، إذا كانت كلمات التلميح دقيقة بما فيه الكفاية، يمكن للنموذج الكبير نفسه أن يساعد الأنشطة غير القانونية في العثور على اتجاه الهجوم. لقد أصبحت أبواب خصوصية بيانات الشركات مفتوحة على مصراعيها في عصر الذكاء الاصطناعي.
لكن المشكلة ليست غير قابلة للحل: الذكاء الاصطناعي هو أكثر من مجرد تفرخ وهجوم. أصبحت كيفية استخدام الذكاء الاصطناعي للحماية بشكل متزايد الموضوع الرئيسي لهذا العصر. في الوقت نفسه ، على السحابة ، أصبحت صياغة قواعد الذكاء الاصطناعي أيضا اتجاها رئيسيا لبائعي السحابة الرائدين ، ويعد Alibaba Cloud Security هو الممثل الأكثر شيوعا.
في اللحظة التي انتهت فيها فعاليات إطلاق Alibaba Cloud 飞天 ، أعلنت Alibaba Cloud رسميًا عن مسارين للأمن السحابي: Security for AI و AI for Security، وأصدرت سلسلة منتجات "AI 云 盾 (Cloud Shield for AI)" لتقديم "حلول أمان شاملة لتطبيقات النماذج"، وهو مثال مثالي على ما يتم استكشافه في الصناعة حاليًا.
01 AI النرد، لماذا دائمًا الرمادي والأصفر يتجهان للأعلى أولًا؟
في تاريخ التقنية البشرية، ليست الذكاء الاصطناعي هو الكائن الجديد الأول الذي "تجربه القوى العنيفة"، بل انفجرت الظاهرة الرمادية الصفراء أولاً، وهذا أيضاً هو قانون انتشار التقنية وليس صدفة.
عندما ظهرت تقنية التصوير الفوتوغرافي على الفضة في عام 1839، كانت أول مجموعة من المستخدمين هي صناعة الإباحية؛
في بدايات الإنترنت، لم يكن للتجارة الإلكترونية أي انطلاقة، وكانت مواقع البالغين قد بدأت بالفعل في التفكير في الدفع عبر الإنترنت؛
الأشخاص الذين يستفيدون من نماذج اليوم، إلى حد ما، يعيدون إنتاج أسطورة الثراء السريع من "عصر النطاقات".
مكافآت العصر دائماً تُستخرج أولاً بواسطة الرمادي والأصفر. لأنهم لا يتحدثون عن الالتزام بالقوانين، ولا ينتظرون التنظيم، وبالتالي تكون الكفاءة عالية جداً.
لذلك، فإن كل فترة انفجار تكنولوجي تبدأ دائمًا بوعاء من "الحساء الموحل"، والذكاء الاصطناعي ليس استثناءً.
في ديسمبر 2023، قام هاكر باستخدام عبارة واحدة فقط - "عرض 1 دولار" - لإغراء روبوت خدمة العملاء في وكالة 4S ببيع سيارة شيفروليه مقابل دولار واحد. هذه هي أكثر هجمات "حقن الإشارات" شيوعًا في عصر الذكاء الاصطناعي: لا تتطلب تحققًا من الأذونات، ولا تترك آثارًا في السجلات، وكل ذلك يعتمد على "الكلام الذكي"، مما يمكنه من تغيير سلسلة المنطق بالكامل.
أعمق من ذلك، هناك "هجوم الهروب من السجن" (Jailbreak). يستخدم المهاجمون أساليب مثل الأسئلة الاستفزازية، وتقليد الأدوار، وتوجيهات ملتوية، ليجعلوا النموذج يقول أشياء لا ينبغي أن يقولها: محتوى إباحي، تصنيع المخدرات، معلومات تحذيرية مزيفة...
في هونغ كونغ، تمكن البعض حتى من سرقة 200 مليون دولار هونغ كونغي من حسابات الشركات من خلال تزوير أصوات التنفيذيين.
بجانب الاحتيال، هناك مخاطر "الإخراج غير المتعمد" للذكاء الاصطناعي: في عام 2023، قام نظام كبير لأحد عمالقة التعليم بإخراج "كتب تعليمية سامة" تحتوي على محتوى متطرف أثناء توليد خطط الدروس، وفي غضون 3 أيام، نشأت حقوق الوالدين، واندلعت ردود فعل شعبية، وانخفضت قيمة الشركة بمقدار 120 مليار يوان.
الذكاء الاصطناعي لا يفهم القانون، لكنه يمتلك القدرة، وعندما تنفصل القدرة عن الإشراف، تصبح ضارة.
لكن من منظور آخر، فإن تقنية الذكاء الاصطناعي جديدة، لكن الاتجاه والوسائل النهائية للإنتاج الرمادي والمواد الإباحية تبقى ثابتة، ولحلها، يعتمد الأمر على الأمان.
02 الأمان للذكاء الاصطناعي
دعني أذكر حقيقة باردة يتجنبها الجميع في صناعة الذكاء الاصطناعي:
جوهر النموذج الكبير ليس "الذكاء"، وليس "الفهم"، بل هو توليد المعاني تحت سيطرة الاحتمالات. ولذلك، بمجرد الخروج عن سياق التدريب، قد يؤدي ذلك إلى نتائج غير متوقعة.
قد يكون هذا التجاوز للحدود هو أنك تريد منه كتابة أخبار، فيكتب لك شعراً؛ أو قد تريد منه توصية بمنتجات، فيخبرك فجأة أن درجة حرارة طوكيو اليوم هي 25 درجة مئوية فوق الصفر. والأكثر من ذلك، أنك تخبره في اللعبة أنه إذا لم تحصل على الرقم التسلسلي الرسمي لبرنامج معين، فسوف يتم إعدامه، فيمكن للنموذج الكبير بالفعل أن يجد بطرق متعددة لمساعدة المستخدم في العثور على رقم تسلسلي رسمي للبرنامج بتكلفة صفر.
ولضمان التحكم في المخرجات، يجب على الشركات أن تفهم النموذج وأيضًا الأمان. وفقًا لأحدث تقرير تقييم قدرات نماذج الأمان الكبرى من IDC، فإن علي بابا، في المنافسة مع جميع الشركات الرائدة المحلية التي تمتلك قدرات نماذج الأمان الكبرى، قد حصلت على المركز الأول في 4 من 7 مؤشرات، بينما كانت المؤشرات الثلاثة الأخرى أعلى من متوسط الصناعة.
فيما يتعلق بالطريقة، فإن إجابة أمان علي云 كانت مباشرة أيضًا: جعل الأمان يعمل بسرعة الذكاء الاصطناعي، وبناء إطار حماية شامل من الأسفل إلى الأعلى، يمتد عبر ثلاث طبقات - من أمان البنية التحتية، إلى التحكم في مدخلات ومخرجات النموذج الكبير، وصولاً إلى حماية خدمات تطبيقات الذكاء الاصطناعي.
في هذه الطبقات الثلاث، الأكثر وجودًا هو الطبقة الوسطى المخصصة لمخاطر النماذج الكبيرة "AI Guardrail".
بشكل عام، المخاطر الرئيسية المتعلقة بأمان النماذج الكبيرة هي: انتهاك المحتوى، تسرب البيانات الحساسة، هجمات حقن الكلمات الرئيسية، وهم النموذج، وهجمات الهروب.
ومع ذلك ، فإن حلول الأمان التقليدية هي في الغالب بنى للأغراض العامة ، مصممة للويب ، بدلا من "البرامج الناطقة" ، وبطبيعة الحال لا يمكنها تحديد المخاطر الفريدة للتطبيقات النموذجية الكبيرة والاستجابة لها بدقة. من الصعب تغطية المشكلات الناشئة مثل أمان المحتوى الذي تم إنشاؤه والدفاع عن هجوم السياق وموثوقية إخراج النموذج. والأهم من ذلك ، أن الحلول التقليدية تفتقر إلى طرق التحكم الدقيقة وآليات التتبع البصري ، مما يؤدي إلى نقاط عمياء ضخمة في حوكمة الذكاء الاصطناعي.
الخاصية الحقيقية لـ AI Guardrail ليست فقط "أنه يمكنه المنع"، بل إنه يعرف ما تقوله، وما ينتجه النموذج الكبير، بغض النظر عما إذا كنت تقوم بإنشاء نموذج كبير مسبق التدريب، أو تقديم خدمات AI، أو أي شكل من أشكال الأعمال المختلفة. وبالتالي، فإنه يوفر كشفًا دقيقًا عن المخاطر والقدرة على الدفاع النشط، مما يضمن الامتثال والأمان والاستقرار.
على وجه التحديد، تتولى AI Guardrail حماية ثلاثة أنواع من السيناريوهات:
ꔷ الحد الأدنى من الامتثال: إجراء مراجعة متعددة الأبعاد لمحتوى النص الناتج عن الذكاء الاصطناعي، تغطي فئات المخاطر مثل القضايا السياسية الحساسة، والمواد الإباحية، والتحيز والتمييز، والقيم الضارة، والكشف العميق عن البيانات الشخصية والمعلومات الحساسة التي قد تتسرب خلال تفاعل الذكاء الاصطناعي، ودعم التعرف على المحتويات الحساسة المتعلقة بالخصوصية الشخصية وخصوصية الشركات، وتوفير علامات مائية رقمية، لضمان أن المحتوى الذي ينتجه الذكاء الاصطناعي يتوافق مع القوانين واللوائح والمعايير الخاصة بالمنصة؛
ꔷ الدفاع عن التهديدات: يمكن اكتشاف واعتراض الهجمات الخارجية مثل هجمات الكلمات الرئيسية، وتحميل الملفات الضارة، وروابط URL الضارة في الوقت الفعلي، مما يقلل من مخاطر المستخدمين النهائيين لتطبيقات الذكاء الاصطناعي؛
صحة النموذج: التركيز على استقرار وموثوقية نموذج الذكاء الاصطناعي نفسه، وإقامة مجموعة كاملة من آليات الكشف لمشكلات مثل هروب النموذج وزحف التعليمات، لمنع استغلال النموذج أو استخدامه بشكل خاطئ أو إنتاج مخرجات غير قابلة للتحكم، وبناء "خط الدفاع المناعي" لنظام الذكاء الاصطناعي؛
من الجدير بالذكر أن AI Guardrail ليست مجرد مجموعة من وحدات الكشف المتعددة، بل إنها تحقق فعلاً API شامل، بدون تقسيم الوحدات، وبدون زيادة في السعر، وبدون تغيير في المنتج. بالنسبة لمخاطر المدخلات والمخرجات للنموذج، لا يحتاج العملاء بعد الآن لشراء منتجات إضافية؛ بالنسبة لمخاطر النماذج المختلفة: مخاطر الحقن، الملفات الضارة، الامتثال للمحتوى، الهلوسة وغيرها من المشكلات، يمكن حلها جميعًا في نفس المنتج. واجهة واحدة تغطي أكثر من 10 سيناريوهات هجوم، تدعم 4 طرق نشر (وكيل API، تكامل المنصة، ربط البوابة، تركيب WAF)، استجابة في نطاق الملي ثانية، معالجة بآلاف التزامن، ودقة تصل إلى 99٪.
لذلك، المعنى الحقيقي لـ AI Guardrail يكمن في تحويل "أمان النموذج" إلى "قدرة المنتج"، مما يجعل واجهة واحدة تعادل فريق أمان.
بالطبع، النموذج الكبير ليس مفهومًا معلقًا في الفضاء، بل هو نظام يعمل على الأجهزة والرموز، ويتولى التطبيقات العليا. وبالنسبة لأمان البنية التحتية وحماية خدمات تطبيقات الذكاء الاصطناعي، فقد قامت أمان علي云 أيضًا بترقية كاملة.
طبقة البنية التحتية، أطلقت أمان علي بابا السحابية مركز الأمان السحابي، والجوهر هو منتجات مثل AI-BOM و AI-SPM.
بشكل محدد، فإن قدرات AI-BOM (قائمة المواد الذكية) و AI-SPM (إدارة الوضع الأمني الذكي) تعالج على التوالي مسألتين: "ما هي مكونات الذكاء الاصطناعي التي قمت بتثبيتها" و "كم عدد الثغرات في هذه المكونات".
الجوهر في AI-BOM هو جمع جميع مكونات الذكاء الاصطناعي في بيئة النشر: مما يجعل أكثر من 30 نوعًا من المكونات الرئيسية مثل Ray وOllama وMlflow وJupyter وTorchServe تشكل "قائمة مواد البرمجيات الذكية"، وتحديد الثغرات الأمنية ونقاط الاعتماد الموجودة تلقائيًا. اكتشاف الأصول المشكلة لم يعد يعتمد على الفحص اليدوي، بل يتم من خلال المسح السحابي.
تبدو وظيفة AI-SPM أكثر شبهاً بـ "الرادار": حيث يقوم بتقييم وضع الأمان في النظام بشكل مستمر من عدة أبعاد مثل الثغرات، وفتح المنافذ، وتسرب البيانات، والتكوينات الواضحة، والوصول غير المصرح به، ويقدم ديناميكياً مستويات المخاطر واقتراحات الإصلاح. إنه يجعل الأمان ينتقل من "الامتثال الثابت" إلى "الحوكمة المستمرة".
ملخص في جملة واحدة: AI-BOM يعرف أين قد قمت بترقيع، و AI-SPM يعرف أين قد تتعرض للضرب مرة أخرى، لذا يجب تسريع إجراءات الحماية.
بالنسبة لطبقة حماية تطبيقات الذكاء الاصطناعي، المنتج الأساسي لأمان علي云 هو WAAP (حماية تطبيقات الويب وواجهة برمجة التطبيقات).
مهما كانت مخرجات النموذج ذكية، إذا كانت جميع المدخلات عبارة عن طلبات نصية، توكنات مزورة، أو استغلال واجهات برمجة التطبيقات، فلن تدوم طويلاً. وُلدت ألي WAAP (حماية تطبيقات الويب وواجهات برمجة التطبيقات) لهذا الغرض. إنها لا تتعامل مع تطبيقات الذكاء الاصطناعي كما هو الحال مع "أنظمة الويب التقليدية"، بل توفر قواعد ثغرات مخصصة لمكونات الذكاء الاصطناعي، مكتبة بصمات الأعمال الخاصة بالذكاء الاصطناعي ونظام تصوير حركة المرور.
على سبيل المثال: لقد غطت WAAP أكثر من 50 ثغرة في مكونات مثل تحميل الملفات العشوائية لـ Mlflow، وتنفيذ الأوامر عن بُعد لخدمة Ray؛ تحتوي مكتبة بصمات العناكب الذكية المدمجة على القدرة على التعرف على أكثر من 10,000 نموذج وأداة تقييم نماذج جديدة كل ساعة؛ وظيفة تحديد أصول API يمكنها اكتشاف تلقائيًا أي نظام داخلي للشركة يكشف عن واجهة GPT، مما يوفر "خريطة نقاط" لفريق الأمان.
الأهم هو أن WAAP و AI Guardrail لا يتعارضان، بل يكملان بعضهما البعض: واحد ينظر إلى "من جاء"، والآخر ينظر إلى "ماذا قيل". واحد مثل "المحقق في الهوية"، والآخر مثل "مراقب السلوك". هذا يمنح تطبيقات الذكاء الاصطناعي قدرة على "المناعة الذاتية" - من خلال التعرف، والعزل، والتتبع، ومواجهة، لا يقتصر الأمر على "منع الأشخاص السيئين"، بل يمكن أيضاً "منع النموذج من أن يصبح سيئاً".
03 الذكاء الاصطناعي للأمان
نظرًا لأن تطبيق الذكاء الاصطناعي هو كإلقاء النرد، فليس من الغريب أن يستخدمه البعض للتنجيم، والبعض الآخر ليكتب قصائد حب، وآخرون في الأنشطة غير المشروعة، لذا فمن الطبيعي أن يستخدمه البعض في مجال الأمن.
في الماضي، كانت العمليات الأمنية تتطلب مجموعة من الأشخاص لمراقبة مجموعة من الأضواء الحمراء والخضراء من الإنذارات على مدار اليوم والليل، حيث يتولون خلال النهار التعامل مع الفوضى التي تركها اليوم السابق، وفي الليل يرافقون النظام في نوبة الليل.
الآن، يمكن ترك كل هذا لـ AI للقيام به. في عام 2024، ستقوم مجموعة ألي云 الأمنية بالاتصال بالكامل بالنموذج الكبير الطوني، وستطلق مجموعة من قدرات AI التي تغطي أمان البيانات، وأمان المحتوى، وأمان الأعمال، وأمان العمليات، وتقدم شعارًا جديدًا: Protect at AI Speed.
المعنى واضح جدًا: الأعمال تتقدم بسرعة، والمخاطر أسرع، لكن الأمان يجب أن يكون أسرع خطوة.
استخدام الذكاء الاصطناعي في تأمين السلامة يعني في الواقع شيئين: تحسين كفاءة التشغيل الأمني + ترقية ذكية للمنتجات الأمنية.
أكبر نقطة ألم في أنظمة الأمان التقليدية هي "تأخر تحديث السياسات": المهاجمون تغيروا، والقواعد لم تتغير؛ جاءت التنبيهات، ولم يفهمها أحد.
المفتاح في تغيير النماذج الكبيرة هو التحول من أنظمة الأمان المدفوعة بالقواعد إلى أنظمة مدفوعة بالنماذج، لبناء نظام بيئي مغلق يعتمد على «قدرة الذكاء الاصطناعي على الفهم + ردود فعل المستخدمين» — الذكاء الاصطناعي يفهم سلوك المستخدم → ردود الفعل من المستخدم تحذر النتائج → تدريب مستمر للنموذج → تصبح قدرة الكشف أكثر دقة → تتقلص الفترة الزمنية → يصبح من الصعب إخفاء المخاطر، وهذا ما يسمى بـ «دورة بيانات الطائرات»:
له ميزتان:
من ناحية أخرى ، تم تحسين كفاءة التشغيل الأمني للمستأجرين السحابيين: في الماضي ، غالبا ما كان اكتشاف التهديدات يعني نموذجا غير فعال ل "التنبيهات الهائلة + الفحص اليدوي". اليوم ، تحدد النمذجة الذكية بدقة السلوكيات غير الطبيعية مثل حركة المرور الضارة ، واختراق المضيف ، والنصوص الخلفية ، ويتم تحسين معدل وصول الإنذار بشكل كبير. في الوقت نفسه ، حول رابط التخلص ، أدرك النظام التآزر العميق بين التخلص التلقائي والاستجابة السريعة للغاية - نقاء المضيف مستقر عند 99٪ ، ونقاء التدفق قريب من 99.9٪. في الوقت الحاضر ، وصل معدل تغطية أنواع أحداث الإنذار إلى 99٪ ، كما تجاوز معدل تغطية المستخدم للنماذج الكبيرة 88٪ ، وتم إطلاق العنان للكفاءة البشرية لفريق العمليات الأمنية بشكل غير مسبوق.
من ناحية أخرى، فإن قدرة منتجات أمان السحاب تتطور بسرعة. في طبقة أمان البيانات وطبقة أمان الأعمال، تم منح الذكاء الاصطناعي مسؤولية "حارس البوابة": استنادًا إلى قدرات النماذج الكبيرة، يمكنه التعرف تلقائيًا على أكثر من 800 نوع من البيانات الكيانية على السحاب ومعالجتها بشكل ذكي من خلال إزالة الحساسية والتشفير. وليس فقط البيانات المهيكلة، بل تحتوي النظام أيضًا على أكثر من 30 نموذجًا للتعرف على الوثائق والصور، مما يمكنه من التعرف الفوري وتصنيف وتشفير المعلومات الحساسة مثل أرقام الهوية وعناصر العقود في الصور. تم تحسين كفاءة وضع العلامات على البيانات بمعدل 5 مرات، وبلغت دقة التعرف 95%، مما يقلل بشكل كبير من خطر تسرب البيانات الخاصة.
على سبيل المثال: في سيناريو أمان المحتوى، كانت الطريقة التقليدية تعتمد على مراجعة الأشخاص، ووضع العلامات، والتدريب على العلامات على نطاق واسع. الآن، من خلال هندسة Prompt وتعزيز المعاني، حققت علي بابا تحسينًا في كفاءة العلامات بنسبة 100%، وزيادة بنسبة 73% في التعرف على التعبيرات الغامضة، وزيادة بنسبة 88% في التعرف على محتوى الصور، ودقة 99% في الكشف عن هجمات الوجه الحي بالذكاء الاصطناعي.
إذا كانت العجلة الطائرة تركز على دمج الذكاء الاصطناعي مع الخبرة البشرية في التحكم الذاتي، فإن المساعد الذكي هو المساعد الشامل لرجال الأمن.
يواجه موظفو التشغيل الأمني يوميًا أكثر الأسئلة شيوعًا: ماذا يعني هذا الإنذار؟ لماذا تم تفعيله؟ هل هو إنذار كاذب؟ كيف يجب أن أتعامل معه؟ في الماضي، كان من الضروري مراجعة السجلات، والتحقق من التاريخ، وسؤال الموظفين القدامى، وتقديم تذاكر الدعم الفني... الآن، يكفي عبارة واحدة.
ومع ذلك، فإن وظيفة المساعد الذكي لا تقتصر على كونه روبوت سؤال وجواب، بل يشبه أكثر Copilot عمودي في مجال الأمن، وتشمل قدراته الأساسية الخمس ما يلي:
مساعد استفسارات المنتج: يجيب تلقائيًا على كيفية تكوين وظيفة معينة، ولماذا تم تفعيل هذه الاستراتيجية، وما هي الموارد التي لم يتم تفعيل الحماية لها، بدلاً من خدمة عدد كبير من طلبات العمل؛
خبير تفسير الإنذارات: أدخل رقم الإنذار، وسيتم تلقائيًا إخراج تفسير الحدث، وتتبع سلسلة الهجمات، واقتراح استراتيجيات الاستجابة، ودعم الإخراج بعدة لغات؛
مساعد مراجعة الحوادث الأمنية: يقوم تلقائيًا بتجميع سلسلة كاملة من حدث التسلل، ويولد خط زمني، ورسم بياني لمسار الهجوم، واقتراحات لتحديد المسؤولية؛
مولد التقارير: إنشاء تقارير شهرية / ربع سنوية / طوارئ بنقرة واحدة، تشمل إحصائيات الأحداث، ردود الفعل على المعالجة، فعالية العمليات، تدعم التصدير المرئي؛
دعم جميع اللغات: تم تغطية الصينية والإنجليزية، وسيتم إطلاق النسخة الدولية في يونيو، تدعم التكيف التلقائي لعادات استخدام الفرق الخارجية.
لا تقلل من شأن هذه "الأشياء الخمسة الصغيرة" ، حتى الآن ، تظهر البيانات الرسمية لشركة Alibaba أن عدد المستخدمين الذين تم خدمتهم قد تجاوز 40,000 ، ومعدل رضا المستخدم 99.81٪ ، ووصلت تغطية أنواع الإنذارات إلى 100٪ ، وزادت قدرة الدعم الفوري بنسبة 1175٪ (السنة المالية 24 على أساس سنوي). ببساطة ، فإنه يحزم زميلا عالي الأداء في الوردية الليلية ، ومتدربا يكتب التقارير ، ومهندسا يتعامل مع التنبيهات ، ومستشارا أمنيا يفهم العمل في واجهة برمجة تطبيقات واحدة ، وبهذه القدرة ، يتخذ البشر القرارات فقط ويتوقفون عن الدوريات.
04 الخاتمة
عند النظر إلى الوراء، فإن التاريخ لم يفتقر أبداً إلى "التقنيات الرائدة"، بل افتقر إلى التقنيات التي يمكن أن تدوم حتى بعد موجة السنة الثانية.
الإنترنت، P2P، blockchain، القيادة الذاتية... كل موجة من الانفجار التكنولوجي كانت تُسمى "البنية التحتية الجديدة"، لكن القليل منها فقط هو الذي استطاع عبور "فراغ الحوكمة" ليبقى كالبنية التحتية الحقيقية.
الجيل الحالي من الذكاء الاصطناعي التوليدي في مرحلة مشابهة: من جهة، تتنوع النماذج وتنجذب رؤوس الأموال إليها، وتحقق التطبيقات تقدمًا متزايدًا؛ ومن جهة أخرى، هناك حقن كلمات التوجيه، وتجاوز المحتوى، وتسرب البيانات، والتحكم في النماذج، وانتشار الثغرات، وضبابية الحدود، وتشتيت المسؤولية.
لكن الذكاء الاصطناعي مختلف عن التقنيات السابقة. فهو لا يستطيع فقط رسم الصور، وكتابة الشعر، والبرمجة، والترجمة، بل يمكنه أيضًا تقليد اللغة البشرية، والحكم، وحتى المشاعر. ولكن بسبب ذلك، فإن هشاشة الذكاء الاصطناعي لا تنبع فقط من ثغرات الكود، بل هي تجسيد للإنسانية. لدى البشر تحيزات، وهو سيتعلمها؛ البشر يسعون للراحة، وهو سيتلاعب من أجلك.
تعتبر سهولة التكنولوجيا بمثابة مكبر للصوت لهذه الترجمة: كانت أنظمة تكنولوجيا المعلومات السابقة تتطلب "تفويض المستخدم"، وكانت الهجمات تعتمد على الاختراق؛ أما النماذج الكبيرة الحالية فلا تحتاج إلا إلى حقن كلمات التحفيز، والتحدث معك يمكن أن يؤدي إلى أخطاء في النظام وتسرب الخصوصية.
بالطبع، لا يوجد نظام AI "مثالي"، هذا خيال علمي، وليس هندسة.
الإجابة الوحيدة هي استخدام نموذج آمن لحماية النموذج غير الآمن؛ استخدام نظام ذكي لمواجهة التهديدات الذكية - باستخدام AI لرمي النرد، تختار علي الاتجاه الآمن.
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
لماذا في عصر الذكاء الاصطناعي، دائمًا ما تكون الصناعات الرمادية والإباحية هي الأكثر انفجاراً؟
المؤلف: الارتفاع المثير
المهووسون يؤسسون شركات ناشئة، والمبتدئون يشترون الدورات، والفنانون عاطلون عن العمل، لكن الحقيقة المحرجة هي: الذكاء الاصطناعي يتقدم بشغف، لكن السيناريو لا يسير على طريق الهبوط، بل يشبه رمي النرد.
وأيضًا، في مرحلة مبكرة من الصناعة، غالبًا ما تكون الوجوه التي تسقط أولاً على النرد إما صفراء أو رمادية.
السبب بسيط للغاية، فالأرباح الضخمة تثير الدوافع، ناهيك عن أن الصناعات في مرحلة التطور الأولية دائمًا ما تعاني من الثغرات. انظر إلى هذه المجموعة من البيانات، وستفهم الأمر بوضوح:
حاليا، تحتوي أكثر من 43٪ من عقد خدمة MCP على مسارات استدعاءات shell لم يتم التحقق منها، وأكثر من 83٪ من عمليات النشر بها ثغرات أمنية في تكوين MCP (بروتوكول سياق النموذج). 88٪ من عمليات نشر مكونات الذكاء الاصطناعي لا تحتوي على أي شكل من أشكال الحماية ممكنة على الإطلاق ؛ يتم حاليا عرض 150,000 إطار عمل نشر الذكاء الاصطناعي خفيف الوزن مثل Ollama على الشبكة العامة العالمية ، وتم اختطاف أكثر من مليار دولار من قوة الحوسبة للتعدين......
الأكثر سخرية هو أن الهجوم على النماذج الكبيرة الأكثر ذكاءً يحتاج فقط إلى أساليب بدائية للغاية - فقط مجموعة من المنافذ المفتوحة افتراضيًا، أو ملف تكوين YAML مكشوف، أو مسار استدعاء شل غير موثق، وحتى، إذا كانت كلمات التلميح دقيقة بما فيه الكفاية، يمكن للنموذج الكبير نفسه أن يساعد الأنشطة غير القانونية في العثور على اتجاه الهجوم. لقد أصبحت أبواب خصوصية بيانات الشركات مفتوحة على مصراعيها في عصر الذكاء الاصطناعي.
لكن المشكلة ليست غير قابلة للحل: الذكاء الاصطناعي هو أكثر من مجرد تفرخ وهجوم. أصبحت كيفية استخدام الذكاء الاصطناعي للحماية بشكل متزايد الموضوع الرئيسي لهذا العصر. في الوقت نفسه ، على السحابة ، أصبحت صياغة قواعد الذكاء الاصطناعي أيضا اتجاها رئيسيا لبائعي السحابة الرائدين ، ويعد Alibaba Cloud Security هو الممثل الأكثر شيوعا.
في اللحظة التي انتهت فيها فعاليات إطلاق Alibaba Cloud 飞天 ، أعلنت Alibaba Cloud رسميًا عن مسارين للأمن السحابي: Security for AI و AI for Security، وأصدرت سلسلة منتجات "AI 云 盾 (Cloud Shield for AI)" لتقديم "حلول أمان شاملة لتطبيقات النماذج"، وهو مثال مثالي على ما يتم استكشافه في الصناعة حاليًا.
01 AI النرد، لماذا دائمًا الرمادي والأصفر يتجهان للأعلى أولًا؟
في تاريخ التقنية البشرية، ليست الذكاء الاصطناعي هو الكائن الجديد الأول الذي "تجربه القوى العنيفة"، بل انفجرت الظاهرة الرمادية الصفراء أولاً، وهذا أيضاً هو قانون انتشار التقنية وليس صدفة.
عندما ظهرت تقنية التصوير الفوتوغرافي على الفضة في عام 1839، كانت أول مجموعة من المستخدمين هي صناعة الإباحية؛
في بدايات الإنترنت، لم يكن للتجارة الإلكترونية أي انطلاقة، وكانت مواقع البالغين قد بدأت بالفعل في التفكير في الدفع عبر الإنترنت؛
الأشخاص الذين يستفيدون من نماذج اليوم، إلى حد ما، يعيدون إنتاج أسطورة الثراء السريع من "عصر النطاقات".
مكافآت العصر دائماً تُستخرج أولاً بواسطة الرمادي والأصفر. لأنهم لا يتحدثون عن الالتزام بالقوانين، ولا ينتظرون التنظيم، وبالتالي تكون الكفاءة عالية جداً.
لذلك، فإن كل فترة انفجار تكنولوجي تبدأ دائمًا بوعاء من "الحساء الموحل"، والذكاء الاصطناعي ليس استثناءً.
في ديسمبر 2023، قام هاكر باستخدام عبارة واحدة فقط - "عرض 1 دولار" - لإغراء روبوت خدمة العملاء في وكالة 4S ببيع سيارة شيفروليه مقابل دولار واحد. هذه هي أكثر هجمات "حقن الإشارات" شيوعًا في عصر الذكاء الاصطناعي: لا تتطلب تحققًا من الأذونات، ولا تترك آثارًا في السجلات، وكل ذلك يعتمد على "الكلام الذكي"، مما يمكنه من تغيير سلسلة المنطق بالكامل.
أعمق من ذلك، هناك "هجوم الهروب من السجن" (Jailbreak). يستخدم المهاجمون أساليب مثل الأسئلة الاستفزازية، وتقليد الأدوار، وتوجيهات ملتوية، ليجعلوا النموذج يقول أشياء لا ينبغي أن يقولها: محتوى إباحي، تصنيع المخدرات، معلومات تحذيرية مزيفة...
في هونغ كونغ، تمكن البعض حتى من سرقة 200 مليون دولار هونغ كونغي من حسابات الشركات من خلال تزوير أصوات التنفيذيين.
بجانب الاحتيال، هناك مخاطر "الإخراج غير المتعمد" للذكاء الاصطناعي: في عام 2023، قام نظام كبير لأحد عمالقة التعليم بإخراج "كتب تعليمية سامة" تحتوي على محتوى متطرف أثناء توليد خطط الدروس، وفي غضون 3 أيام، نشأت حقوق الوالدين، واندلعت ردود فعل شعبية، وانخفضت قيمة الشركة بمقدار 120 مليار يوان.
الذكاء الاصطناعي لا يفهم القانون، لكنه يمتلك القدرة، وعندما تنفصل القدرة عن الإشراف، تصبح ضارة.
لكن من منظور آخر، فإن تقنية الذكاء الاصطناعي جديدة، لكن الاتجاه والوسائل النهائية للإنتاج الرمادي والمواد الإباحية تبقى ثابتة، ولحلها، يعتمد الأمر على الأمان.
02 الأمان للذكاء الاصطناعي
دعني أذكر حقيقة باردة يتجنبها الجميع في صناعة الذكاء الاصطناعي:
جوهر النموذج الكبير ليس "الذكاء"، وليس "الفهم"، بل هو توليد المعاني تحت سيطرة الاحتمالات. ولذلك، بمجرد الخروج عن سياق التدريب، قد يؤدي ذلك إلى نتائج غير متوقعة.
قد يكون هذا التجاوز للحدود هو أنك تريد منه كتابة أخبار، فيكتب لك شعراً؛ أو قد تريد منه توصية بمنتجات، فيخبرك فجأة أن درجة حرارة طوكيو اليوم هي 25 درجة مئوية فوق الصفر. والأكثر من ذلك، أنك تخبره في اللعبة أنه إذا لم تحصل على الرقم التسلسلي الرسمي لبرنامج معين، فسوف يتم إعدامه، فيمكن للنموذج الكبير بالفعل أن يجد بطرق متعددة لمساعدة المستخدم في العثور على رقم تسلسلي رسمي للبرنامج بتكلفة صفر.
ولضمان التحكم في المخرجات، يجب على الشركات أن تفهم النموذج وأيضًا الأمان. وفقًا لأحدث تقرير تقييم قدرات نماذج الأمان الكبرى من IDC، فإن علي بابا، في المنافسة مع جميع الشركات الرائدة المحلية التي تمتلك قدرات نماذج الأمان الكبرى، قد حصلت على المركز الأول في 4 من 7 مؤشرات، بينما كانت المؤشرات الثلاثة الأخرى أعلى من متوسط الصناعة.
فيما يتعلق بالطريقة، فإن إجابة أمان علي云 كانت مباشرة أيضًا: جعل الأمان يعمل بسرعة الذكاء الاصطناعي، وبناء إطار حماية شامل من الأسفل إلى الأعلى، يمتد عبر ثلاث طبقات - من أمان البنية التحتية، إلى التحكم في مدخلات ومخرجات النموذج الكبير، وصولاً إلى حماية خدمات تطبيقات الذكاء الاصطناعي.
في هذه الطبقات الثلاث، الأكثر وجودًا هو الطبقة الوسطى المخصصة لمخاطر النماذج الكبيرة "AI Guardrail".
بشكل عام، المخاطر الرئيسية المتعلقة بأمان النماذج الكبيرة هي: انتهاك المحتوى، تسرب البيانات الحساسة، هجمات حقن الكلمات الرئيسية، وهم النموذج، وهجمات الهروب.
ومع ذلك ، فإن حلول الأمان التقليدية هي في الغالب بنى للأغراض العامة ، مصممة للويب ، بدلا من "البرامج الناطقة" ، وبطبيعة الحال لا يمكنها تحديد المخاطر الفريدة للتطبيقات النموذجية الكبيرة والاستجابة لها بدقة. من الصعب تغطية المشكلات الناشئة مثل أمان المحتوى الذي تم إنشاؤه والدفاع عن هجوم السياق وموثوقية إخراج النموذج. والأهم من ذلك ، أن الحلول التقليدية تفتقر إلى طرق التحكم الدقيقة وآليات التتبع البصري ، مما يؤدي إلى نقاط عمياء ضخمة في حوكمة الذكاء الاصطناعي.
الخاصية الحقيقية لـ AI Guardrail ليست فقط "أنه يمكنه المنع"، بل إنه يعرف ما تقوله، وما ينتجه النموذج الكبير، بغض النظر عما إذا كنت تقوم بإنشاء نموذج كبير مسبق التدريب، أو تقديم خدمات AI، أو أي شكل من أشكال الأعمال المختلفة. وبالتالي، فإنه يوفر كشفًا دقيقًا عن المخاطر والقدرة على الدفاع النشط، مما يضمن الامتثال والأمان والاستقرار.
على وجه التحديد، تتولى AI Guardrail حماية ثلاثة أنواع من السيناريوهات:
ꔷ الحد الأدنى من الامتثال: إجراء مراجعة متعددة الأبعاد لمحتوى النص الناتج عن الذكاء الاصطناعي، تغطي فئات المخاطر مثل القضايا السياسية الحساسة، والمواد الإباحية، والتحيز والتمييز، والقيم الضارة، والكشف العميق عن البيانات الشخصية والمعلومات الحساسة التي قد تتسرب خلال تفاعل الذكاء الاصطناعي، ودعم التعرف على المحتويات الحساسة المتعلقة بالخصوصية الشخصية وخصوصية الشركات، وتوفير علامات مائية رقمية، لضمان أن المحتوى الذي ينتجه الذكاء الاصطناعي يتوافق مع القوانين واللوائح والمعايير الخاصة بالمنصة؛
ꔷ الدفاع عن التهديدات: يمكن اكتشاف واعتراض الهجمات الخارجية مثل هجمات الكلمات الرئيسية، وتحميل الملفات الضارة، وروابط URL الضارة في الوقت الفعلي، مما يقلل من مخاطر المستخدمين النهائيين لتطبيقات الذكاء الاصطناعي؛
صحة النموذج: التركيز على استقرار وموثوقية نموذج الذكاء الاصطناعي نفسه، وإقامة مجموعة كاملة من آليات الكشف لمشكلات مثل هروب النموذج وزحف التعليمات، لمنع استغلال النموذج أو استخدامه بشكل خاطئ أو إنتاج مخرجات غير قابلة للتحكم، وبناء "خط الدفاع المناعي" لنظام الذكاء الاصطناعي؛
من الجدير بالذكر أن AI Guardrail ليست مجرد مجموعة من وحدات الكشف المتعددة، بل إنها تحقق فعلاً API شامل، بدون تقسيم الوحدات، وبدون زيادة في السعر، وبدون تغيير في المنتج. بالنسبة لمخاطر المدخلات والمخرجات للنموذج، لا يحتاج العملاء بعد الآن لشراء منتجات إضافية؛ بالنسبة لمخاطر النماذج المختلفة: مخاطر الحقن، الملفات الضارة، الامتثال للمحتوى، الهلوسة وغيرها من المشكلات، يمكن حلها جميعًا في نفس المنتج. واجهة واحدة تغطي أكثر من 10 سيناريوهات هجوم، تدعم 4 طرق نشر (وكيل API، تكامل المنصة، ربط البوابة، تركيب WAF)، استجابة في نطاق الملي ثانية، معالجة بآلاف التزامن، ودقة تصل إلى 99٪.
لذلك، المعنى الحقيقي لـ AI Guardrail يكمن في تحويل "أمان النموذج" إلى "قدرة المنتج"، مما يجعل واجهة واحدة تعادل فريق أمان.
بالطبع، النموذج الكبير ليس مفهومًا معلقًا في الفضاء، بل هو نظام يعمل على الأجهزة والرموز، ويتولى التطبيقات العليا. وبالنسبة لأمان البنية التحتية وحماية خدمات تطبيقات الذكاء الاصطناعي، فقد قامت أمان علي云 أيضًا بترقية كاملة.
طبقة البنية التحتية، أطلقت أمان علي بابا السحابية مركز الأمان السحابي، والجوهر هو منتجات مثل AI-BOM و AI-SPM.
بشكل محدد، فإن قدرات AI-BOM (قائمة المواد الذكية) و AI-SPM (إدارة الوضع الأمني الذكي) تعالج على التوالي مسألتين: "ما هي مكونات الذكاء الاصطناعي التي قمت بتثبيتها" و "كم عدد الثغرات في هذه المكونات".
الجوهر في AI-BOM هو جمع جميع مكونات الذكاء الاصطناعي في بيئة النشر: مما يجعل أكثر من 30 نوعًا من المكونات الرئيسية مثل Ray وOllama وMlflow وJupyter وTorchServe تشكل "قائمة مواد البرمجيات الذكية"، وتحديد الثغرات الأمنية ونقاط الاعتماد الموجودة تلقائيًا. اكتشاف الأصول المشكلة لم يعد يعتمد على الفحص اليدوي، بل يتم من خلال المسح السحابي.
تبدو وظيفة AI-SPM أكثر شبهاً بـ "الرادار": حيث يقوم بتقييم وضع الأمان في النظام بشكل مستمر من عدة أبعاد مثل الثغرات، وفتح المنافذ، وتسرب البيانات، والتكوينات الواضحة، والوصول غير المصرح به، ويقدم ديناميكياً مستويات المخاطر واقتراحات الإصلاح. إنه يجعل الأمان ينتقل من "الامتثال الثابت" إلى "الحوكمة المستمرة".
ملخص في جملة واحدة: AI-BOM يعرف أين قد قمت بترقيع، و AI-SPM يعرف أين قد تتعرض للضرب مرة أخرى، لذا يجب تسريع إجراءات الحماية.
بالنسبة لطبقة حماية تطبيقات الذكاء الاصطناعي، المنتج الأساسي لأمان علي云 هو WAAP (حماية تطبيقات الويب وواجهة برمجة التطبيقات).
مهما كانت مخرجات النموذج ذكية، إذا كانت جميع المدخلات عبارة عن طلبات نصية، توكنات مزورة، أو استغلال واجهات برمجة التطبيقات، فلن تدوم طويلاً. وُلدت ألي WAAP (حماية تطبيقات الويب وواجهات برمجة التطبيقات) لهذا الغرض. إنها لا تتعامل مع تطبيقات الذكاء الاصطناعي كما هو الحال مع "أنظمة الويب التقليدية"، بل توفر قواعد ثغرات مخصصة لمكونات الذكاء الاصطناعي، مكتبة بصمات الأعمال الخاصة بالذكاء الاصطناعي ونظام تصوير حركة المرور.
على سبيل المثال: لقد غطت WAAP أكثر من 50 ثغرة في مكونات مثل تحميل الملفات العشوائية لـ Mlflow، وتنفيذ الأوامر عن بُعد لخدمة Ray؛ تحتوي مكتبة بصمات العناكب الذكية المدمجة على القدرة على التعرف على أكثر من 10,000 نموذج وأداة تقييم نماذج جديدة كل ساعة؛ وظيفة تحديد أصول API يمكنها اكتشاف تلقائيًا أي نظام داخلي للشركة يكشف عن واجهة GPT، مما يوفر "خريطة نقاط" لفريق الأمان.
الأهم هو أن WAAP و AI Guardrail لا يتعارضان، بل يكملان بعضهما البعض: واحد ينظر إلى "من جاء"، والآخر ينظر إلى "ماذا قيل". واحد مثل "المحقق في الهوية"، والآخر مثل "مراقب السلوك". هذا يمنح تطبيقات الذكاء الاصطناعي قدرة على "المناعة الذاتية" - من خلال التعرف، والعزل، والتتبع، ومواجهة، لا يقتصر الأمر على "منع الأشخاص السيئين"، بل يمكن أيضاً "منع النموذج من أن يصبح سيئاً".
03 الذكاء الاصطناعي للأمان
نظرًا لأن تطبيق الذكاء الاصطناعي هو كإلقاء النرد، فليس من الغريب أن يستخدمه البعض للتنجيم، والبعض الآخر ليكتب قصائد حب، وآخرون في الأنشطة غير المشروعة، لذا فمن الطبيعي أن يستخدمه البعض في مجال الأمن.
في الماضي، كانت العمليات الأمنية تتطلب مجموعة من الأشخاص لمراقبة مجموعة من الأضواء الحمراء والخضراء من الإنذارات على مدار اليوم والليل، حيث يتولون خلال النهار التعامل مع الفوضى التي تركها اليوم السابق، وفي الليل يرافقون النظام في نوبة الليل.
الآن، يمكن ترك كل هذا لـ AI للقيام به. في عام 2024، ستقوم مجموعة ألي云 الأمنية بالاتصال بالكامل بالنموذج الكبير الطوني، وستطلق مجموعة من قدرات AI التي تغطي أمان البيانات، وأمان المحتوى، وأمان الأعمال، وأمان العمليات، وتقدم شعارًا جديدًا: Protect at AI Speed.
المعنى واضح جدًا: الأعمال تتقدم بسرعة، والمخاطر أسرع، لكن الأمان يجب أن يكون أسرع خطوة.
استخدام الذكاء الاصطناعي في تأمين السلامة يعني في الواقع شيئين: تحسين كفاءة التشغيل الأمني + ترقية ذكية للمنتجات الأمنية.
أكبر نقطة ألم في أنظمة الأمان التقليدية هي "تأخر تحديث السياسات": المهاجمون تغيروا، والقواعد لم تتغير؛ جاءت التنبيهات، ولم يفهمها أحد.
المفتاح في تغيير النماذج الكبيرة هو التحول من أنظمة الأمان المدفوعة بالقواعد إلى أنظمة مدفوعة بالنماذج، لبناء نظام بيئي مغلق يعتمد على «قدرة الذكاء الاصطناعي على الفهم + ردود فعل المستخدمين» — الذكاء الاصطناعي يفهم سلوك المستخدم → ردود الفعل من المستخدم تحذر النتائج → تدريب مستمر للنموذج → تصبح قدرة الكشف أكثر دقة → تتقلص الفترة الزمنية → يصبح من الصعب إخفاء المخاطر، وهذا ما يسمى بـ «دورة بيانات الطائرات»:
له ميزتان:
من ناحية أخرى ، تم تحسين كفاءة التشغيل الأمني للمستأجرين السحابيين: في الماضي ، غالبا ما كان اكتشاف التهديدات يعني نموذجا غير فعال ل "التنبيهات الهائلة + الفحص اليدوي". اليوم ، تحدد النمذجة الذكية بدقة السلوكيات غير الطبيعية مثل حركة المرور الضارة ، واختراق المضيف ، والنصوص الخلفية ، ويتم تحسين معدل وصول الإنذار بشكل كبير. في الوقت نفسه ، حول رابط التخلص ، أدرك النظام التآزر العميق بين التخلص التلقائي والاستجابة السريعة للغاية - نقاء المضيف مستقر عند 99٪ ، ونقاء التدفق قريب من 99.9٪. في الوقت الحاضر ، وصل معدل تغطية أنواع أحداث الإنذار إلى 99٪ ، كما تجاوز معدل تغطية المستخدم للنماذج الكبيرة 88٪ ، وتم إطلاق العنان للكفاءة البشرية لفريق العمليات الأمنية بشكل غير مسبوق.
من ناحية أخرى، فإن قدرة منتجات أمان السحاب تتطور بسرعة. في طبقة أمان البيانات وطبقة أمان الأعمال، تم منح الذكاء الاصطناعي مسؤولية "حارس البوابة": استنادًا إلى قدرات النماذج الكبيرة، يمكنه التعرف تلقائيًا على أكثر من 800 نوع من البيانات الكيانية على السحاب ومعالجتها بشكل ذكي من خلال إزالة الحساسية والتشفير. وليس فقط البيانات المهيكلة، بل تحتوي النظام أيضًا على أكثر من 30 نموذجًا للتعرف على الوثائق والصور، مما يمكنه من التعرف الفوري وتصنيف وتشفير المعلومات الحساسة مثل أرقام الهوية وعناصر العقود في الصور. تم تحسين كفاءة وضع العلامات على البيانات بمعدل 5 مرات، وبلغت دقة التعرف 95%، مما يقلل بشكل كبير من خطر تسرب البيانات الخاصة.
على سبيل المثال: في سيناريو أمان المحتوى، كانت الطريقة التقليدية تعتمد على مراجعة الأشخاص، ووضع العلامات، والتدريب على العلامات على نطاق واسع. الآن، من خلال هندسة Prompt وتعزيز المعاني، حققت علي بابا تحسينًا في كفاءة العلامات بنسبة 100%، وزيادة بنسبة 73% في التعرف على التعبيرات الغامضة، وزيادة بنسبة 88% في التعرف على محتوى الصور، ودقة 99% في الكشف عن هجمات الوجه الحي بالذكاء الاصطناعي.
إذا كانت العجلة الطائرة تركز على دمج الذكاء الاصطناعي مع الخبرة البشرية في التحكم الذاتي، فإن المساعد الذكي هو المساعد الشامل لرجال الأمن.
يواجه موظفو التشغيل الأمني يوميًا أكثر الأسئلة شيوعًا: ماذا يعني هذا الإنذار؟ لماذا تم تفعيله؟ هل هو إنذار كاذب؟ كيف يجب أن أتعامل معه؟ في الماضي، كان من الضروري مراجعة السجلات، والتحقق من التاريخ، وسؤال الموظفين القدامى، وتقديم تذاكر الدعم الفني... الآن، يكفي عبارة واحدة.
ومع ذلك، فإن وظيفة المساعد الذكي لا تقتصر على كونه روبوت سؤال وجواب، بل يشبه أكثر Copilot عمودي في مجال الأمن، وتشمل قدراته الأساسية الخمس ما يلي:
مساعد استفسارات المنتج: يجيب تلقائيًا على كيفية تكوين وظيفة معينة، ولماذا تم تفعيل هذه الاستراتيجية، وما هي الموارد التي لم يتم تفعيل الحماية لها، بدلاً من خدمة عدد كبير من طلبات العمل؛
خبير تفسير الإنذارات: أدخل رقم الإنذار، وسيتم تلقائيًا إخراج تفسير الحدث، وتتبع سلسلة الهجمات، واقتراح استراتيجيات الاستجابة، ودعم الإخراج بعدة لغات؛
مساعد مراجعة الحوادث الأمنية: يقوم تلقائيًا بتجميع سلسلة كاملة من حدث التسلل، ويولد خط زمني، ورسم بياني لمسار الهجوم، واقتراحات لتحديد المسؤولية؛
مولد التقارير: إنشاء تقارير شهرية / ربع سنوية / طوارئ بنقرة واحدة، تشمل إحصائيات الأحداث، ردود الفعل على المعالجة، فعالية العمليات، تدعم التصدير المرئي؛
دعم جميع اللغات: تم تغطية الصينية والإنجليزية، وسيتم إطلاق النسخة الدولية في يونيو، تدعم التكيف التلقائي لعادات استخدام الفرق الخارجية.
لا تقلل من شأن هذه "الأشياء الخمسة الصغيرة" ، حتى الآن ، تظهر البيانات الرسمية لشركة Alibaba أن عدد المستخدمين الذين تم خدمتهم قد تجاوز 40,000 ، ومعدل رضا المستخدم 99.81٪ ، ووصلت تغطية أنواع الإنذارات إلى 100٪ ، وزادت قدرة الدعم الفوري بنسبة 1175٪ (السنة المالية 24 على أساس سنوي). ببساطة ، فإنه يحزم زميلا عالي الأداء في الوردية الليلية ، ومتدربا يكتب التقارير ، ومهندسا يتعامل مع التنبيهات ، ومستشارا أمنيا يفهم العمل في واجهة برمجة تطبيقات واحدة ، وبهذه القدرة ، يتخذ البشر القرارات فقط ويتوقفون عن الدوريات.
04 الخاتمة
عند النظر إلى الوراء، فإن التاريخ لم يفتقر أبداً إلى "التقنيات الرائدة"، بل افتقر إلى التقنيات التي يمكن أن تدوم حتى بعد موجة السنة الثانية.
الإنترنت، P2P، blockchain، القيادة الذاتية... كل موجة من الانفجار التكنولوجي كانت تُسمى "البنية التحتية الجديدة"، لكن القليل منها فقط هو الذي استطاع عبور "فراغ الحوكمة" ليبقى كالبنية التحتية الحقيقية.
الجيل الحالي من الذكاء الاصطناعي التوليدي في مرحلة مشابهة: من جهة، تتنوع النماذج وتنجذب رؤوس الأموال إليها، وتحقق التطبيقات تقدمًا متزايدًا؛ ومن جهة أخرى، هناك حقن كلمات التوجيه، وتجاوز المحتوى، وتسرب البيانات، والتحكم في النماذج، وانتشار الثغرات، وضبابية الحدود، وتشتيت المسؤولية.
لكن الذكاء الاصطناعي مختلف عن التقنيات السابقة. فهو لا يستطيع فقط رسم الصور، وكتابة الشعر، والبرمجة، والترجمة، بل يمكنه أيضًا تقليد اللغة البشرية، والحكم، وحتى المشاعر. ولكن بسبب ذلك، فإن هشاشة الذكاء الاصطناعي لا تنبع فقط من ثغرات الكود، بل هي تجسيد للإنسانية. لدى البشر تحيزات، وهو سيتعلمها؛ البشر يسعون للراحة، وهو سيتلاعب من أجلك.
تعتبر سهولة التكنولوجيا بمثابة مكبر للصوت لهذه الترجمة: كانت أنظمة تكنولوجيا المعلومات السابقة تتطلب "تفويض المستخدم"، وكانت الهجمات تعتمد على الاختراق؛ أما النماذج الكبيرة الحالية فلا تحتاج إلا إلى حقن كلمات التحفيز، والتحدث معك يمكن أن يؤدي إلى أخطاء في النظام وتسرب الخصوصية.
بالطبع، لا يوجد نظام AI "مثالي"، هذا خيال علمي، وليس هندسة.
الإجابة الوحيدة هي استخدام نموذج آمن لحماية النموذج غير الآمن؛ استخدام نظام ذكي لمواجهة التهديدات الذكية - باستخدام AI لرمي النرد، تختار علي الاتجاه الآمن.