الرأي: Avinash Lakshman ، مؤسس والرئيس التنفيذي لـ Weilliptic
تحب ثقافة التكنولوجيا اليوم حل الجزء المثير أولاً-النموذج الذكي ، وميزات إرضاء الحشود-ومعالجة المساءلة والأخلاقيات كإضافات إضافية في المستقبل. ولكن عندما تكون الهندسة المعمارية الأساسية لـ AI غير شفافة ، لا يمكن أن تضيء استكشاف الأخطاء وإصلاحها بعد الواجهة وتحسين كيفية توليد المخرجات أو معالجتها.
هذه هي الطريقة التي نحصل بها على حالات مثل Grok التي تشير إلى نفسها باسم “Elon Musk المزيفة” و Claude Opus 4 من الأنثروبور اللجوء إلى الأكاذيب والابتزاز بعد مسح قاعدة كود الشركة عن طريق الخطأ. منذ أن اندلعت هذه العناوين ، ألقى المعلقون باللوم على الهندسة السريعة وسياسات المحتوى وثقافة الشركات. وبينما تلعب كل هذه العوامل دورًا ، فإن العيب الأساسي هو المعماري.
نحن نطلب من الأنظمة التي لم تصمم أبدًا للتدقيق للتصرف كما لو كانت الشفافية ميزة أصلية. إذا كنا نريد أن يثق الناس في الذكاء الاصطناعي ، فيجب أن توفر البنية التحتية نفسها دليلًا ، وليس تأكيدات.
يتم تصميم شفافية اللحظة في طبقة قاعدة منظمة العفو الدولية ، وتصبح الثقة عاملًا تمكينًا وليس قيدًا.
لا يمكن أن تكون أخلاق الذكاء الاصطناعي فكرة لاحقة
فيما يتعلق بتكنولوجيا المستهلك ، غالبًا ما يتم التعامل مع الأسئلة الأخلاقية على أنها اعتبارات ما بعد الإطلاق التي يتعين معالجتها بعد تحجيم المنتج. يشبه هذا النهج بناء برج مكاتب من ثلاثة وثلاثين طابقًا قبل التعاقد مع مهندس لتأكيد الكود الذي يلتقي المؤسسة. قد تكون محظوظًا لفترة من الوقت ، لكن المخاطر الخفية تتراكم بهدوء حتى يعطي شيء ما.
أدوات الذكاء الاصطناعي المركزية اليوم لا تختلف. عندما يوافق النموذج على طلب ائتماني احتيالي أو يهلوس تشخيص طبي ، سيطلب أصحاب المصلحة ويستحقون مسار التدقيق. ما هي البيانات التي أنتجت هذه الإجابة؟ من الذي قام برفع النموذج وكيف؟ ما فاشل الدرابيل؟
معظم المنصات اليوم يمكن أن تتفوق فقط وينحرف اللوم. لم يتم تصميم حلول الذكاء الاصطناعي التي يعتمدون عليها أبدًا للحفاظ على مثل هذه السجلات ، لذلك لا توجد أي شيء أو يمكن إنشاؤه بأثر رجعي.
البنية التحتية لمنظمة العفو الدولية التي تثبت نفسها
والخبر السار هو أن الأدوات اللازمة لجعل منظمة العفو الدولية جديرة بالثقة وشفافة موجودة. تتمثل إحدى طرق فرض الثقة في أنظمة الذكاء الاصطناعي في البدء بصندوق رمل حتمي.
متعلق ب: Cypherpunk AI: دليل إلى الذكاء الاصطناعي غير الخاضع للرقابة ، غير المتحيز ، المجهول في عام 2025
يعمل كل عميل من AI داخل Webassembly ، لذلك إذا قدمت نفس المدخلات غدًا ، فستتلقى نفس المخرجات ، وهو أمر ضروري عندما يسأل المنظمون عن سبب اتخاذ قرار.
في كل مرة يتغير فيها صندوق الرمل ، فإن الحالة الجديدة هي تجزئة تشفير وتوقيعها من قبل نصاب صغير من المدققين. يتم تسجيل تلك التوقيعات وتجزئة في دفتر الأستاذ blockchain والتي لا يمكن لأي طرف إعادة كتابة. لذلك ، يصبح دفتر الأستاذ مجلة غير قابلة للتغيير: يمكن لأي شخص لديه إذن إعادة تشغيل السلسلة ويؤكد أن كل خطوة حدثت تمامًا كما هو مسجل.
نظرًا لأن الذاكرة العاملة للوكيل يتم تخزينها على نفس دفتر الأستاذ ، فإنها تنجو من الحوادث أو الترحيل السحابي دون قاعدة بيانات المعتادة على البراغي. يتم ارتكاب المصنوعات اليدوية مثل بصمات أصابع البيانات وأوزان النماذج والمعلمات الأخرى بشكل مشابه ، وبالتالي فإن النسب الدقيق لأي إصدار نموذج معين يمكن إثباته بدلاً من القصص. ثم ، عندما يحتاج الوكيل إلى استدعاء نظام خارجي مثل API المدفوعات أو خدمة السجلات الطبية ، فإنه يمر عبر محرك سياسة يعلق قسيمة تشفير بالطلب. تبقى بيانات الاعتماد مغلقة في قبو ، ويتم تسجيل القسيمة نفسها إلى جانب السياسة التي سمحت بذلك.
بموجب هذه البنية الموجهة نحو الإثبات ، يضمن دفتر الأستاذ blockchain الاستقرار والتحقق المستقل ، يزيل صندوق الرمل الحتمي السلوك غير القابل للتعليم ، ويقصر محرك السياسة الوكيل على الإجراءات المعتمدة. معا ، يقومون بتحويل المتطلبات الأخلاقية مثل التتبع والامتثال للسياسة إلى ضمانات يمكن التحقق منها تساعد على تحفيز ابتكار أسرع وأكثر أمانًا.
ضع في اعتبارك وكيل إدارة البيانات -Lifecycle الذي يلتقط قاعدة بيانات الإنتاج ، وتشفير وأرشيفه ، ويعالج طلب العميل يمينًا إلى – بعد أشهر مع هذا السياق في متناول اليد.
تتم كتابة كل لقطة تجزئة ، وموقع التخزين ، وتأكيد محو البيانات إلى دفتر الأستاذ في الوقت الفعلي. يمكن أن تتحقق فرق تكنولوجيا المعلومات والامتثال من أن النسخ الاحتياطية تعمل ، بقيت البيانات مشفرة ، وتم الانتهاء من عمليات حذف البيانات المناسبة عن طريق فحص تدفق سير عمل يمكن إثباته بدلاً من الغربلة من خلال سجلات متناثرة أو مروعة أو الاعتماد على لوحات معلومات البائعين.
هذه مجرد واحدة من الأمثلة التي لا حصر لها على مدى استقلالية البنية التحتية الموجه للثبات من الذكاء الاصطناعي يمكن أن تبسيط عمليات المؤسسات ، وحماية الأعمال وعملائها مع فتح نماذج وفورات جديدة تمامًا للتكاليف وإنشاء القيمة.
يجب بناء منظمة العفو الدولية على أدلة يمكن التحقق منها
لا تكشف إخفاقات العناوين الرئيسية في الذكاء الاصطناعي عن أوجه القصور في أي نموذج فردي. بدلاً من ذلك ، فهي نتيجة غير مقصودة ، ولكن لا مفر منها ، لنظام “الصندوق الأسود” لم تكن المساءلة فيها مبدأ توجيهي أساسي.
يحول النظام الذي يحمل أدلةه المحادثة من “Trust Me” إلى “التحقق من نفسك”. هذا التحول مهم بالنسبة للمنظمين ، والأشخاص الذين يستخدمون الذكاء الاصطناعى شخصيًا ومهنيًا والمديرين التنفيذيين الذين تنتهي أسمائهم في خطاب الامتثال.
سيتخذ الجيل القادم من البرامج الذكية قرارات تبعية بسرعة الماكينة.
إذا ظلت هذه القرارات غير شفافة ، فإن كل نموذج جديد هو مصدر جديد للمسؤولية.
إذا كانت الشفافية والمراجعة من الخصائص الأصلية والمصدة بالشطوبة ، فيمكن أن تتعايش الذكاء الذاتي والمساءلة بسلاسة بدلاً من العمل في التوتر.
الرأي: Avinash Lakshman ، مؤسس والرئيس التنفيذي لـ Weilliptic.
هذه المقالة مخصصة لأغراض المعلومات العامة ولا تهدف إلى أن تكون ولا ينبغي اعتبارها نصيحة قانونية أو استثمارية. إن الآراء والأفكار والآراء المعبر عنها هنا هي وحدها ولا تعكس بالضرورة أو تمثل آراء وآراء Cointelegraph.












