الرأي: جيسون جيانغ ، كبير المسؤولين في Certik
منذ إنشائها ، تم تعريف النظام البيئي للتمويل اللامركزي (DEFI) من خلال الابتكار ، من البورصات اللامركزية (DEXs) إلى بروتوكولات الإقراض والاقتراض ، والستابلاتين وأكثر من ذلك.
أحدث ابتكار هو Defai ، أو Defi مدعوم من الذكاء الاصطناعي. ضمن Defai ، يمكن أن تعمل الروبوتات المستقلة على مجموعات البيانات الكبيرة على تحسين الكفاءة بشكل كبير من خلال تنفيذ المهن وإدارة المخاطر والمشاركة في بروتوكولات الحوكمة.
كما هو الحال مع جميع الابتكارات القائمة على blockchain ، قد يقدم Defai أيضًا ناقلات هجوم جديدة يجب على مجتمع التشفير معالجتها لتحسين سلامة المستخدم. هذا يستلزم إلقاء نظرة معقدة على نقاط الضعف التي تأتي مع الابتكار لضمان الأمن.
وكلاء Defai هي خطوة تتجاوز العقود الذكية التقليدية
داخل blockchain ، تعمل معظم العقود الذكية تقليديًا على منطق بسيط. على سبيل المثال ، “إذا حدث X ، فسيتم تنفيذ Y”. بسبب شفافيةهم المتأصلة ، يمكن مراجعة هذه العقود الذكية والتحقق منها.
Defai ، من ناحية أخرى ، المحاور من هيكل العقد الذكي التقليدي ، لأن وكلاء الذكاء الاصطناعى لها بطبيعتها احتمالية. يتخذ وكلاء الذكاء الاصطناعى قرارات بناء على مجموعات البيانات المتطورة والمدخلات السابقة والسياق. يمكنهم تفسير الإشارات والتكيف بدلاً من الرد على حدث محدد مسبقًا. على الرغم من أن البعض قد يكون محقًا في القول بأن هذه العملية توفر ابتكارًا متطوراً ، إلا أنها تخلق أيضًا أرضًا تكاثر للأخطاء والمآثر من خلال عدم اليقين المتأصل.
حتى الآن ، أشارت التكرارات المبكرة من الروبوتات التجارية التي تعمل بالنيابة في البروتوكولات اللامركزية إلى التحول إلى DEFAI. على سبيل المثال ، يمكن للمستخدمين أو المؤسسات المستقلة اللامركزية (DAOS) تنفيذ روبوت للمسح الضوئي لأنماط السوق المحددة وتنفيذ التداولات في ثوانٍ. على الرغم من أن هذا قد يبدو مبتكرًا ، فإن معظم الروبوتات تعمل على البنية التحتية لـ Web2 ، مما يجعل على Web3 ضعف نقطة الفشل المركزية.
Defai يخلق أسطح هجوم جديدة
لا ينبغي أن تنشغل الصناعة بإثارة دمج الذكاء الاصطناعي في بروتوكولات لا مركزية عندما يمكن لهذا التحول إنشاء أسطح هجوم جديدة غير مستعدة. يمكن للجهات الفاعلة السيئة استغلال وكلاء الذكاء الاصطناعي من خلال معالجة النموذج أو تسمم البيانات أو هجمات المدخلات العدوانية.
يتضح ذلك من قبل وكيل الذكاء الاصطناعى المدربين على تحديد فرص التحكيم بين DEXs.
متعلق ب: العلم اللامركزي يلتقي AI – المؤسسات القديمة ليست جاهزة
يمكن أن يعبّر الجهات الفاعلة للتهديدات مع بيانات الإدخال الخاصة بها ، مما يجعل الوكيل ينفذ الصفقات غير المربحة أو حتى صرف صناديق من تجمع سيولة. علاوة على ذلك ، يمكن للوكيل المعرض للخطر مضللة بروتوكول كامل إلى تصديق معلومات خاطئة أو بمثابة نقطة انطلاق لهجمات أكبر.
تتفاقم هذه المخاطر من خلال حقيقة أن معظم وكلاء الذكاء الاصطناعى هم صناديق سوداء حاليًا. حتى للمطورين ، قد لا تكون قدرات اتخاذ القرارات لوكلاء الذكاء الاصطناعى الذين يخلقونها شفافة.
هذه الميزات هي عكس روح Web3 ، التي تم بناؤها على الشفافية والتحقق.
الأمن مسؤولية مشتركة
مع وضع هذه المخاطر في الاعتبار ، قد يتم التعبير عن المخاوف حول تداعيات Defai ، وربما تدعو إلى توقف عن هذا التطور تمامًا. ومع ذلك ، من المحتمل أن يستمر Defai في التطور ورؤية مستويات أكبر من التبني. ما هو مطلوب إذن هو تكييف نهج الصناعة مع الأمن وفقًا لذلك. من المحتمل أن تتطلب النظم الإيكولوجية التي تتضمن DEFAI نموذجًا أمانًا قياسيًا ، حيث يحدد المطورون والمستخدمون ومراجعو أطراف الطرف الثالث أفضل وسيلة للحفاظ على المخاطر الأمنية وتخفيفها.
يجب أن يعامل وكلاء الذكاء الاصطناعى مثل أي قطعة أخرى من البنية التحتية على Onchain: مع الشكوك والتدقيق. يستلزم ذلك تدقيقًا صارمًا للمنطق الكود الخاص بهم ، ومحاكاة سيناريوهات أسوأ الحالات وحتى استخدام تمارين الفريق الأحمر لفضح ناقلات الهجوم قبل أن يتمكن الممثلون الخبيثون من استغلالها. علاوة على ذلك ، يجب على الصناعة تطوير معايير للشفافية ، مثل نماذج أو وثائق المصدر المفتوح.
بغض النظر عن كيفية رؤية الصناعة هذا التحول ، تقدم Dafai أسئلة جديدة عندما يتعلق الأمر بثقة الأنظمة اللامركزية. عندما يتمكن وكلاء الذكاء الاصطناعى من الاحتفاظ بأصول مستقلة ، والتفاعل مع العقود الذكية والتصويت على مقترحات الحوكمة ، فإن الثقة لم تعد فقط تتعلق بالتحقق من المنطق ؛ إنه يتعلق بالتحقق من النية. هذا يدعو إلى استكشاف كيف يمكن للمستخدمين التأكد من أن أهداف الوكيل تتماشى مع أهداف قصيرة الأجل وطويلة الأجل.
نحو ذكاء آمن وشفاف
يجب أن يكون المسار إلى الأمام أحد الحلول المتعددة التخصصات. يمكن أن تساعد تقنيات التشفير مثل أدلة المعرفة الصفرية على التحقق من سلامة تصرفات الذكاء الاصطناعي ، ويمكن أن تساعد أطر التصديق على أونشين في تتبع أصول القرارات. أخيرًا ، يمكن لأدوات التدقيق التي تحتوي على عناصر من الذكاء الاصطناعي تقييم الوكلاء بشكل شامل مثل المطورين مراجعة رمز العقد الذكي حاليًا.
ومع ذلك ، يبقى الواقع أن الصناعة لم تكن موجودة بعد. في الوقت الحالي ، تظل التدقيق الصارم والشفافية واختبار الإجهاد أفضل دفاع. يجب على المستخدمين الذين يفكرون في المشاركة في بروتوكولات DEFAI التحقق من أن البروتوكولات تتبنى هذه المبادئ في منطق الذكاء الاصطناعي الذي يدفعها.
تأمين مستقبل ابتكار الذكاء الاصطناعي
Defai ليس غير آمن بطبيعته ولكنه يختلف عن معظم البنية التحتية الحالية لـ Web3. إن سرعة تبنيها تخاطر بتفوق أطر الأمان التي تعتمد عليها الصناعة حاليًا. مع استمرار صناعة التشفير في التعلم – غالبًا ما يكون الابتكار بدون أمن وصفة لكارثة.
بالنظر إلى أن وكلاء الذكاء الاصطناعى سيكونون قادرين على التصرف نيابة عن المستخدمين ، والاحتفاظ بأصولهم وبروتوكولات الشكل ، يجب على الصناعة مواجهة حقيقة أن كل سطر من منطق الذكاء الاصطناعى لا يزال رمزًا ، ويمكن استغلال كل سطر من الكود.
إذا كان اعتماد DEFAI سيحدث دون المساس بالسلامة ، فيجب تصميمه بالأمان والشفافية. أي شيء أقل يدعو إلى النتائج اللامركزية التي كانت تهدف إلى منعها.
الرأي: جيسون جيانغ ، كبير المسؤولين في Certik.
هذه المقالة مخصصة لأغراض المعلومات العامة ولا تهدف إلى أن تكون ولا ينبغي اعتبارها نصيحة قانونية أو استثمارية. إن الآراء والأفكار والآراء المعبر عنها هنا هي وحدها ولا تعكس بالضرورة أو تمثل آراء وآراء Cointelegraph.