أصدرت Meta مجموعة من الأدوات لتأمين وقياس نماذج الذكاء الاصطناعي التوليدي (AI) في 7 ديسمبر.
تم تصميم مجموعة الأدوات التي يطلق عليها اسم “Purple Llama” لمساعدة المطورين على البناء بأمان باستخدام أدوات الذكاء الاصطناعي التوليدية، مثل نموذج Meta مفتوح المصدر، Llama-2.
الإعلان عن Purple Llama — مشروع جديد للمساعدة في تحقيق تكافؤ الفرص لبناء تجارب ذكاء اصطناعي توليدية آمنة ومسؤولة.
يتضمن Purple Llama أدوات وتقييمات ونماذج مرخصة لتمكين كل من البحث والاستخدام التجاري.
مزيد من التفاصيل ➡️ https://t.co/k4ezDvhpHp pic.twitter.com/6BGZY36eM2
— الذكاء الاصطناعي في ميتا (@AIatMeta) 7 ديسمبر 2023
الذكاء الاصطناعي كفريق أرجواني
وفقًا لمنشور مدونة من Meta، يشير الجزء “الأرجواني” من “Purple Llama” إلى مزيج من “الفريق الأحمر” و”الفريق الأزرق”.
الفريق الأحمر هو نموذج يقوم فيه المطورون أو المختبرون الداخليون بمهاجمة نموذج الذكاء الاصطناعي عن قصد لمعرفة ما إذا كان بإمكانهم إنتاج أخطاء أو أخطاء أو مخرجات وتفاعلات غير مرغوب فيها. يتيح ذلك للمطورين إنشاء إستراتيجيات مرونة ضد الهجمات الضارة والحماية من أخطاء الأمان والسلامة.
من ناحية أخرى، فإن الفريق الأزرق هو العكس تمامًا. هنا، يستجيب المطورون أو المختبرون لهجمات الفريق الأحمر من أجل تحديد استراتيجيات التخفيف اللازمة لمكافحة التهديدات الفعلية في نماذج الإنتاج أو المستهلك أو التي تواجه العميل.
لكل ميتا:
“نحن نؤمن أنه للتخفيف من حدة التحديات التي يمثلها الذكاء الاصطناعي التوليدي، نحتاج إلى اتخاذ مواقف هجومية (الفريق الأحمر) ودفاعية (الفريق الأزرق). إن الفريق الأرجواني، الذي يتكون من مسؤوليات الفريق الأحمر والأزرق، هو نهج تعاوني لتقييم وتخفيف المخاطر المحتملة.
نماذج الحماية
يتضمن الإصدار، الذي تدعي شركة Meta أنه “أول مجموعة من تقييمات سلامة الأمن السيبراني على مستوى الصناعة لنماذج اللغات الكبيرة (LLMs)،” ما يلي:
- مقاييس لقياس مخاطر الأمن السيبراني LLM
- أدوات لتقييم تكرار اقتراحات التعليمات البرمجية غير الآمنة
- أدوات لتقييم LLMs لتجعل من الصعب إنشاء تعليمات برمجية ضارة أو المساعدة في تنفيذ الهجمات السيبرانية
تتمثل الفكرة الكبيرة في دمج النظام في خطوط الأنابيب النموذجية من أجل تقليل المخرجات غير المرغوب فيها والتعليمات البرمجية غير الآمنة مع الحد في الوقت نفسه من فائدة عمليات استغلال النماذج لمجرمي الإنترنت والجهات الفاعلة السيئة.
كتب فريق Meta AI: “مع هذا الإصدار الأولي، نهدف إلى توفير الأدوات التي ستساعد في معالجة المخاطر الموضحة في التزامات البيت الأبيض.”
متعلق ب: إدارة بايدن تصدر أمراً تنفيذياً بشأن معايير جديدة لسلامة الذكاء الاصطناعي













