أصدرت مجموعة من أربعة من كبار القضاة في المملكة المتحدة توجيهات قضائية بشأن الذكاء الاصطناعي، والتي تتناول “الاستخدام المسؤول” للذكاء الاصطناعي في المحاكم.
التوجيهات، التي نُشرت في 12 ديسمبر/كانون الأول، موجهة إلى القضاة وأعضاء هيئة المحكمة والقضاة في إنجلترا وويلز، وتهدف إلى إعلام وتحذير مسؤولي المحكمة.
تشير الإرشادات إلى أمثلة مفيدة محتملة لاستخدام الذكاء الاصطناعي، خاصة في الجوانب الإدارية مثل تلخيص النصوص وكتابة العروض التقديمية وإنشاء رسائل البريد الإلكتروني.
وقال ثاني أكبر قاضٍ في إنجلترا، السير جيفري فوس، إن الذكاء الاصطناعي يوفر “فرصًا عظيمة لنظام العدالة، ولكن نظرًا لأنه جديد جدًا، فنحن بحاجة إلى التأكد من أن القضاة على جميع المستويات يفهمونه (بشكل صحيح)”.
ومع ذلك، تحذر معظم الإرشادات القضاة من توخي اليقظة بشأن استهلاك المعلومات الكاذبة التي يتم إنتاجها من خلال عمليات البحث والملخصات التي يقوم بها الذكاء الاصطناعي، وكذلك الحذر بشأن أي شيء كاذب ينتجه الذكاء الاصطناعي باسمهم. لا يُنصح بشكل خاص باستخدام الذكاء الاصطناعي للبحث والتحليل القانوني.
وقالت التوجيهات إن المعلومات التي توفرها أدوات الذكاء الاصطناعي “قد تكون غير دقيقة أو غير كاملة أو مضللة أو قديمة”. كما أشارت إلى أن قوانين الولايات المتحدة قد تؤثر على معظم أنظمة الذكاء الاصطناعي. “حتى لو كان يزعم أنه يمثل القانون الإنجليزي، فقد لا يفعل ذلك.”
وفي الوضع الحالي، فإن القضاة في إنجلترا وويلز ليسوا ملزمين بالكشف عن أي أعمال تحضيرية قبل إصدار الحكم.
وفقًا للقضاة الذين أصدروا هذه التوجيهات، فإن هذا التوجيه هو الخطوة الأولى في “مجموعة العمل المستقبلي” لدعم التفاعلات القضائية مع الذكاء الاصطناعي. في المستقبل، ستتاح للسلطة القضائية في كل من المحاكم والهيئات القضائية الفرصة لإجراء استبيان وتقديم أي أسئلة.
متعلق ب: تواجه Microsoft تحقيقًا لمكافحة الاحتكار في المملكة المتحدة بشأن هيكل صفقة OpenAI
ويأتي هذا التوجيه القضائي بعد وقت قصير من عقد المملكة المتحدة قمتها الافتتاحية لسلامة الذكاء الاصطناعي في بداية نوفمبر.
وجمع الحدث مسؤولين من دول في جميع أنحاء العالم، ورؤساء شركات التكنولوجيا البارزة التي تتطور في هذا المجال، وغيرهم من قادة الفكر لمناقشة مستقبل سلامة الذكاء الاصطناعي.
في 8 ديسمبر، توصل الاتحاد الأوروبي إلى اتفاق بشأن تنظيمه التاريخي للذكاء الاصطناعي، والذي يمس جوانب مختلفة لتنظيم التكنولوجيا، بما في ذلك الاستخدام الحكومي ومتطلبات الشفافية وتنظيم نماذج الذكاء الاصطناعي القوية مثل ChatGPT.
مجلة: حالات استخدام الذكاء الاصطناعي الحقيقي في العملات المشفرة: أسواق الذكاء الاصطناعي القائمة على التشفير، والتحليل المالي للذكاء الاصطناعي













