تحدث كبير علماء الذكاء الاصطناعي في شركة ميتا، قائلًا إن المخاوف بشأن المخاطر الوجودية للتكنولوجيا لا تزال “سابقة لأوانها”، وفقًا لمقابلة أجرتها صحيفة فايننشال تايمز.
في 19 تشرين الأول (أكتوبر)، نقلت صحيفة فايننشال تايمز عن يان ليكون قوله إن التنظيم السابق لأوانه لتكنولوجيا الذكاء الاصطناعي سيعزز هيمنة شركات التكنولوجيا الكبرى ولن يترك مجالا للمنافسة.
وقال: “إن تنظيم البحث والتطوير في مجال الذكاء الاصطناعي يؤدي إلى نتائج عكسية بشكل لا يصدق”. يعتقد LeCun أن المنظمين يستخدمون ستار سلامة الذكاء الاصطناعي لما أسماه “الاستيلاء التنظيمي”.
منذ أن بدأت طفرة الذكاء الاصطناعي بالفعل بعد إطلاق برنامج الدردشة الآلي ChatGPT-4 الخاص بشركة OpenAI في نوفمبر 2022، خرج العديد من قادة الفكر في الصناعة معلنين عن تهديدات للإنسانية على أيدي الذكاء الاصطناعي.
ترك الدكتور جيفري هينتون، المعروف باسم “الأب الروحي للذكاء الاصطناعي”، منصبه في التعلم الآلي في جوجل حتى يتمكن من “الحديث عن مخاطر الذكاء الاصطناعي”.
غرد مدير مركز سلامة الذكاء الاصطناعي، دان هندريكس، في شهر مايو الماضي، قائلاً إن التخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي يجب أن يصبح أولوية عالمية على قدم المساواة مع “المخاطر الاجتماعية الأخرى مثل الأوبئة والحرب النووية”.
متعلق ب: انسوا كامبريدج أناليتيكا – إليكم كيف يمكن للذكاء الاصطناعي أن يهدد الانتخابات
ومع ذلك، في نفس الموضوع، قال LeCun في مقابلته الأخيرة إن فكرة أن الذكاء الاصطناعي سيقتل البشرية “منافية للعقل”.
“إن النقاش حول المخاطر الوجودية سابق لأوانه للغاية حتى يكون لدينا تصميم لنظام يمكنه حتى منافسة قطة من حيث قدرات التعلم، والتي لا نملكها في الوقت الحالي”.
كما ادعى أيضًا أن نماذج الذكاء الاصطناعي الحالية ليست قادرة كما يدعي البعض، قائلًا إنهم لا يفهمون كيف يعمل العالم وغير قادرين على “التخطيط” أو “العقل”.
وفقًا للكون، فإنه يتوقع أن يساعد الذكاء الاصطناعي في نهاية المطاف في إدارة حياتنا اليومية، قائلاً إن “تفاعل الجميع مع العالم الرقمي سيتم بوساطة أنظمة الذكاء الاصطناعي”.
ومع ذلك، تظل المخاوف المحيطة بقوة هذه التكنولوجيا مصدر قلق لدى الكثيرين. حذر مستشار فريق عمل الذكاء الاصطناعي في المملكة المتحدة من أن الذكاء الاصطناعي يمكن أن يهدد البشرية في غضون عامين.
مجلة: “المسؤولية الأخلاقية”: هل يمكن لـ blockchain حقًا تحسين الثقة في الذكاء الاصطناعي؟