لا يقوم قانون المسؤولية المدنية في كثير من الأحيان بإجراء محادثة رائعة لحفلات العشاء ، ولكن يمكن أن يكون له تأثير هائل على الطريقة التي تتطور بها التقنيات الناشئة مثل الذكاء الاصطناعي.
إذا تم رسمها بشكل سيء ، يمكن أن تخلق قواعد المسؤولية حواجز أمام الابتكار المستقبلي من خلال تعريض رواد الأعمال – في هذه الحالة ، مطوري الذكاء الاصطناعي – إلى مخاطر قانونية غير ضرورية. أو هكذا يقول السناتور الأمريكي سينثيا لوميس ، الذي قدم الأسبوع الماضي قانون الابتكار والخبرة الآمنة (RISE) الأسبوع الماضي.
يسعى مشروع القانون هذا إلى حماية مطوري الذكاء الاصطناعى من مقاضاتهم في محكمة قانونية مدنية حتى يتمكن الأطباء والمحامون والمهندسون وغيرهم من المهنيين من فهم ما يمكن أن يفعله الذكاء الاصطناعى قبل الاعتماد عليه “.
كانت ردود الفعل المبكرة على قانون الصعود من مصادر التي اتصلت بها Cointelegraph إيجابية في الغالب ، على الرغم من أن البعض انتقد النطاق المحدود لمشروع القانون ، وأوجه قصوره فيما يتعلق بمعايير الشفافية والاستجواب التي تقدم لمطوري الذكاء الاصطناعى درع المسؤولية.
يتميز معظم الصعود بأنه عمل مستمر ، وليس وثيقة نهائية.
هل التصرف “هبة” لمطوري الذكاء الاصطناعي؟
وفقًا لهيد إيكبيا ، أستاذ في كلية المواطنة والشؤون العامة بجامعة سيراكيوز ، فإن مشروع قانون لوميس “في الوقت المناسب والمطلوب”. (أطلق عليها Lummis اسم “تشريع إصلاح المسؤولية المستهدف الأول في البلاد لمنظمة العفو الدولية من الدرجة المهنية”.)
لكن مشروع القانون يميل الرصيد إلى حد بعيد لصالح مطوري الذكاء الاصطناعى ، أخبر Ekbia Cointelegraph. يتطلب قانون الارتفاع منهم الكشف علنًا عن مواصفات النماذج حتى يتمكن المهنيون من اتخاذ قرارات مستنيرة بشأن أدوات الذكاء الاصطناعى التي يختارون استخدامها ، ولكن::
“إنه يضع الجزء الأكبر من عبء المخاطر على” المهنيين المستفقين “، ويطالب المطورين فقط” بالشفافية “في شكل مواصفات فنية – بطاقات النماذج والمواصفات – وتزويدهم بمناعة واسعة.”
ليس من المستغرب أن يكون البعض سريعًا في القفز على مشروع قانون Lummis باعتباره “هبة” لشركات الذكاء الاصطناعي. وأشار في أحد منتديات الديمقراطية ، التي تصف نفسها بأنها “يسار المجتمع السياسي” ، في أحد منتدياتها إلى أن “شركات الذكاء الاصطناعى لا تريد مقاضاتها بسبب إخفاقات أدواتها ، وأن مشروع القانون هذا ، إذا تم تمريره ، سوف ينجز ذلك”.
لا يتفق كل شيء. وقال فيليكس شيبكيفيتش ، مدير محامي Shipkevich في LAW ، لـ Cointelegraph: “لن أذهب إلى حد أن أسمي مشروع القانون” هبة “لشركات الذكاء الاصطناعي”.
وأوضح Shipkevich أن شرط المناعة المقترح لقانون RISE يهدف إلى حماية المطورين من المسؤولية الصارمة عن السلوك غير المتوقع لنماذج اللغة الكبيرة. من منظور قانوني ، هذا نهج عقلاني. وأضاف:
“بدون شكل من أشكال الحماية ، قد يواجه المطورون التعرض غير المحدود للمخرجات ليس لديهم وسيلة عملية للسيطرة”.
نطاق التشريع المقترح ضيق إلى حد ما. إنه يركز إلى حد كبير على السيناريوهات التي يستخدم فيها المهنيون أدوات الذكاء الاصطناعي أثناء التعامل مع عملائهم أو مرضاهم. يمكن للمستشار المالي استخدام أداة AI للمساعدة في تطوير استراتيجية استثمار للمستثمر ، على سبيل المثال ، أو يمكن لأخصائي الأشعة استخدام برنامج AI للمساعدة في تفسير الأشعة السينية.
متعلق ب: يمر مجلس الشيوخ بيل بيل Stablecoin وسط مخاوف بشأن المخاطر النظامية
لا يعالج قانون RISE حقًا الحالات التي لا يوجد فيها وسيط احترافي بين مطور الذكاء الاصطناعى والمستخدم النهائي ، كما هو الحال عند استخدام chatbots كرفاق رقمي للقاصرين.
نشأت هذه القضية المسؤولية المدنية مؤخرًا في فلوريدا ، حيث انتحر مراهق بعد الانخراط لعدة أشهر مع chatbot منظمة العفو الدولية. قالت عائلة المتوفى إن البرنامج تم تصميمه بطريقة لم تكن آمنة بشكل معقول للقاصرين. “من يجب أن يكون مسؤولاً عن فقدان الأرواح؟” طلب إيكبيا. لم يتم تناول مثل هذه الحالات في تشريع مجلس الشيوخ المقترح.
وقال ريان أبوت ، أستاذ العلوم الصحية في كلية الحقوق بجامعة ساري ، لـ Cointelgraph: “هناك حاجة إلى معايير واضحة وموحدة بحيث يفهم المستخدمون والمطورين وجميع أصحاب المصلحة قواعد الطريق والتزاماتهم القانونية”.
لكن الأمر صعب لأن الذكاء الاصطناعى يمكن أن يخلق أنواعًا جديدة من الأضرار المحتملة ، بالنظر إلى تعقيد التكنولوجيا وعتادها واستقلالها. ستصبح حلبة الرعاية الصحية تحديًا بشكل خاص من حيث المسؤولية المدنية ، وفقًا لأبوت ، الذي يحمل شهادات طبية وقانونية.
على سبيل المثال ، تفوقت الأطباء على برنامج الذكاء الاصطناعي في التشخيصات الطبية تاريخياً ، ولكن في الآونة الأخيرة ، تظهر الأدلة أنه في مناطق معينة من الممارسة الطبية ، أوضح أبوت في مجالات إنسانية “في الواقع نتائج أسوأ من السماح لمنظمة العفو الدولية بعمل كل العمل”. “هذا يثير كل أنواع قضايا المسؤولية المثيرة للاهتمام.”
من الذي سيدفع تعويضًا إذا تم إجراء خطأ طبي مؤلم عندما لم يعد الطبيب في الحلقة؟ هل سيغطيها تأمين الممارسات الخاطئة؟ ربما لا.
وقد أيد مشروع AI Futures ، وهو منظمة أبحاث غير ربحية ، مشروع القانون مبدئيًا (تم استشارته أثناء صياغة مشروع القانون). لكن المدير التنفيذي دانييل كوكوتاجلو قال إن إفصاحات الشفافية المطلوبة من مطوري الذكاء الاصطناعى تأتي قصيرة.
“يستحق الجمهور معرفة الأهداف والقيم وجداول الأعمال والتحيزات والتعليمات ، وما إلى ذلك ، تحاول الشركات إعطاء أنظمة الذكاء الاصطناعى القوية.” وقال Kokotajlo إن مشروع القانون لا يتطلب مثل هذه الشفافية وبالتالي لا يذهب بعيدًا بما فيه الكفاية.
وأيضًا ، “يمكن للشركات دائمًا اختيار قبول المسؤولية بدلاً من أن تكون شفافة ، لذلك كلما أرادت الشركة أن تفعل شيئًا لا يحبها الجمهور أو المنظمين ، يمكنهم ببساطة إلغاء الاشتراك”.
النهج “القائم على الحقوق” للاتحاد الأوروبي
كيف يقارن قانون الارتفاع بأحكام المسؤولية في قانون AI للاتحاد الأوروبي لعام 2023 ، وهو أول لائحة شاملة على الذكاء الاصطناعى من قبل منظم رئيسي؟
كان موقف المسؤولية من الذكاء الاصطناعي في الاتحاد الأوروبي في حالة تدفق. تم تصور توجيه مسؤولية الاتحاد الأوروبي للاتحاد الأوروبي لأول مرة في عام 2022 ، ولكن تم سحبه في فبراير 2025 ، يقول البعض نتيجة لضغط صناعة الذكاء الاصطناعى.
ومع ذلك ، فإن قانون الاتحاد الأوروبي يتبنى عمومًا إطارًا قائمًا على حقوق الإنسان. كما هو موضح في مقالة مراجعة قانون UCLA الأخيرة ، فإن النهج القائم على الحقوق “يؤكد على تمكين الأفراد” ، وخاصة المستخدمين النهائيين مثل المرضى أو المستهلكين أو العملاء.
على النقيض من ذلك ، يعتمد النهج القائم على المخاطر ، على النقيض من ذلك ، على العمليات والتوثيق وتقييم أدوات التقييم. سوف يركز أكثر على اكتشاف التحيز والتخفيف ، على سبيل المثال ، بدلاً من تزويد الأشخاص المتضررين بحقوق ملموسة.
عندما سأل Cointelegraph Kokotajlo ما إذا كان النهج “القائم على المخاطر” أو “القائم على القواعد” تجاه المسؤولية المدنية كان أكثر ملاءمة للولايات المتحدة ، أجاب ، “أعتقد أن التركيز يجب أن يكون قائمًا على المخاطر ويركز على أولئك الذين يقومون بإنشاء التقنية ونشرها”.
متعلق ب: مستخدمو التشفير عرضة للخطر حيث يتفكك ترامب من مراقبة المستهلك
وأضاف Shipkevich بشكل عام ، يتبع الاتحاد الأوروبي مقاربة أكثر نشاطًا لمثل هذه الأمور بشكل عام. “تتطلب قوانينهم من مطوري الذكاء الاصطناعى أن يظهروا مقدمًا أنهم يتبعون قواعد السلامة والشفافية.”
هناك حاجة إلى معايير واضحة
من المحتمل أن يتطلب مشروع قانون Lummis بعض التعديلات قبل سنه في القانون (إن وجدت).
وقال Shipkevich: “أرى قانون الارتفاع بشكل إيجابي طالما أن هذا التشريع المقترح ينظر إليه على أنه نقطة انطلاق”. “من المعقول ، بعد كل شيء ، توفير بعض الحماية للمطورين الذين لا يتصرفون بإهمال وليس لديهم أي سيطرة على كيفية استخدام نماذجهم في اتجاه مجرى النهر.” وأضاف:
“إذا تطور مشروع القانون هذا ليشمل متطلبات الشفافية الحقيقية والتزامات إدارة المخاطر ، فقد يضع الأساس لنهج متوازن.”
وفقًا لجوستين بولوك ، نائب رئيس السياسة في الأميركيين للابتكار المسؤول (ARI) ، “يضع قانون الارتفاع بعض الأفكار القوية ، بما في ذلك إرشادات الشفافية الفيدرالية ، وهو ميناء آمن مع نطاق محدود وقواعد واضحة حول المسؤولية عن المتبنين المحترفين من الذكاء الاصطناعى” ، على الرغم من أن ARI لم يعتمد على التشريع.
لكن بولوك ، أيضًا ، كان لديه مخاوف بشأن الشفافية والإفصاحات – أي ، لضمان أن تكون تقييمات الشفافية المطلوبة فعالة. وقال Cointelegraph:
“نشر بطاقات النماذج دون إجراء تدقيق وتقييم مخاطر جهة خارجية قوية قد تعطي إحساسًا كاذبًا بالأمان.”
ومع ذلك ، في الكل ، ، فإن مشروع قانون Lummis “هو خطوة أولى بناءة في المحادثة حول ما يجب أن تبدو عليه متطلبات الشفافية الفيدرالية من الذكاء الاصطناعي”.
على افتراض تمرير التشريع وتوقيعه ليصبح قانونًا ، فإنه سيصبح ساري المفعول في 1 ديسمبر 2025.
مجلة: شد البيتكوين غير المرئي بين الدعاوى و cypherpunks