اتهمت شركة الذكاء الاصطناعي أنثروبيك ثلاث شركات ذكاء اصطناعي باستخدام نموذجها اللغوي الكبير كلود بشكل غير قانوني لتحسين نماذجها الخاصة في تقنية تعرف باسم هجوم “التقطير”.
وفي منشور على مدونة يوم الأحد، قالت Anthropic إنها حددت هذه “الهجمات” من قبل DeepSeek وMoonshot وMiniMax، والتي تتضمن تدريب نموذج أقل قدرة على مخرجات نموذج أقوى.
واتهمت Anthropic الثلاثي بإنشاء “أكثر من 16 مليون عملية تبادل” جنبًا إلى جنب مع Claude AI التابع للشركة عبر “ما يقرب من 24000 حساب احتيالي”.
“التقطير هو طريقة تدريب مشروعة ومستخدمة على نطاق واسع. على سبيل المثال، تقوم مختبرات الذكاء الاصطناعي الحدودية بشكل روتيني بتقطير نماذجها الخاصة لإنشاء إصدارات أصغر وأرخص لعملائها،” كتب أنثروبيك، مضيفًا:
“ولكن يمكن أيضًا استخدام التقطير لأغراض غير مشروعة: حيث يمكن للمنافسين استخدامه للحصول على قدرات قوية من مختبرات أخرى في جزء صغير من الوقت، وبجزء صغير من التكلفة، التي قد يتطلبها تطويرها بشكل مستقل”.
وقالت أنثروبيك إن الهجمات ركزت على استخلاص كلود لمجموعة واسعة من الأغراض، بما في ذلك التفكير المنطقي، والترميز وتحليل البيانات، ومهام التصنيف القائمة على قواعد التقييم، ورؤية الكمبيوتر.
وقالت شركة الذكاء الاصطناعي التي تبلغ قيمتها مليارات الدولارات: “استهدفت كل حملة قدرات كلود الأكثر تميزًا: التفكير المنطقي، واستخدام الأدوات، والبرمجة”.
تقول Anthropic إنها تمكنت من التعرف على الثلاثي من خلال “ارتباط عنوان IP، وطلب البيانات الوصفية، ومؤشرات البنية التحتية، وفي بعض الحالات التأييد من شركاء الصناعة الذين لاحظوا نفس الممثلين والسلوكيات على منصاتهم”.
DeepSeek وMoonshot وMinimax كلها شركات تعمل بالذكاء الاصطناعي ومقرها الصين. وقد قدرت التقييمات الثلاثة جميعها بمليارات الدولارات، مع كون DeepSeek هو الأكثر شهرة دوليًا من بين الثلاثة.
وبعيداً عن الآثار المترتبة على الملكية الفكرية، زعمت أنثروبيك أن حملات التقطير التي يقوم بها المنافسون الأجانب تمثل مخاطر جيوسياسية حقيقية.
وقالت الشركة: “يمكن للمختبرات الأجنبية التي تقوم بتقطير النماذج الأمريكية أن تغذي هذه القدرات غير المحمية في الأنظمة العسكرية والاستخباراتية والمراقبة، مما يمكّن الحكومات الاستبدادية من نشر الذكاء الاصطناعي الحدودي للعمليات السيبرانية الهجومية وحملات التضليل والمراقبة الجماعية”.
للمضي قدمًا، قالت Anthropic إنها ستحمي نفسها من خلال تعزيز أنظمة الكشف للمساعدة في اكتشاف حركة المرور المشبوهة، ومشاركة معلومات التهديدات، وتشديد ضوابط الوصول، من بين أمور أخرى.
متعلق ب: يرى تقرير “Citrini’s AI Doom” أن البرمجيات، وتراجع أسهم الدفع
ودعت الشركة أيضًا إلى مزيد من التعاون من المشاركين في الصناعة المحلية والمشرعين للمساعدة في منع شركات الذكاء الاصطناعي الأجنبية من مهاجمة الشركات الأمريكية.
“لا يمكن لأي شركة حل هذه المشكلة بمفردها. وكما أشرنا أعلاه، تتطلب هجمات التقطير على هذا النطاق استجابة منسقة عبر صناعة الذكاء الاصطناعي، ومقدمي الخدمات السحابية، وصانعي السياسات. ونحن ننشر هذا لجعل الأدلة متاحة لكل شخص له مصلحة في النتيجة.”
مجلة: Crypto تحب Clawdbot/Moltbot، وتقييمات Uber لعملاء الذكاء الاصطناعي: AI Eye













