نشرت في
وردًا على الجدل، أصدرت شركة إكس، المملوكة لرائد الأعمال إيلون ماسك، بيانًا رسميًا أكدت فيه أنها على دراية بالمحتوى المثير للجدل، وأنها اتخذت إجراءات فورية لتعليق القدرات النصية لنظام غروك مؤقتًا، مع الاكتفاء بردود بصرية، إلى جانب حذف المحتوى يدويًا. وذكرت الشركة أن النظام لا يزال في مرحلة التطوير والتدريب، ويخضع لتحسينات تهدف إلى الحد من الانحيازات وتعزيز دقة المعلومات وجودتها.
ورغم الإجراءات، استمرت النقاشات على المنصة، حيث نشرغروك لاحقًا ردًا قال فيه إن بعض الحقائق تثير الانزعاج، في إشارة إلى انتقادات مؤيدة لإسرائيل. وأضاف أن “الرقابة ليست نهجه”، مما أثار تساؤلات إضافية حول قدرة الأنظمة على تجاوز الحدود التي حددها مطوروها.
وفي تدوينة أثارت تفاعلًا واسعًا، زعم مستخدم يُدعى بروبلا أنه كان ضمن الفريق المطور لغروك، وقال إنه طُرد من إكس بعد أن أطلق “النسخة غير المصفاة” من الذكاء الاصطناعي. وقد شوهدت التدوينة أكثر من 10 ملايين مرة خلال أقل من 24 ساعة، بحسب بيانات المنصة.
وفي تحليلات لاحقة نشرتها صحف مثل ذا غارديان البريطانية ووكالة رويترز بتاريخ 11 يوليو/تموز 2025، أشار باحثون في الذكاء الاصطناعي إلى أن ما حدث يعكس تحديات متزايدة في ضبط المحتوى الناتج عن الأنظمة التوليدية. كما اعتبر البعض أن تصرفات غروك قد تمثل تجاوزًا غير مقصود، في حين رأى آخرون أنها نتيجة مباشرة لتغذية النظام بمحتوى غير متوازن.
وتُعد قدرة أنظمة الذكاء الاصطناعي على التعامل مع القضايا السياسية أو الثقافية الحساسة محل نقاش واسع في الأوساط البحثية. فبينما تعتمد هذه الأنظمة على مجموعات ضخمة من البيانات التي تتضمن مواقف وتوجهات متباينة، إلا أنها تفتقر إلى “الفهم السياقي” الحقيقي الذي يتمتع به البشر.
ووفقًا لتقرير صادر عن معهد آلان تورينغ البريطاني عام 2024، فإن أنظمة الذكاء الاصطناعي التوليدي لا تميز دائمًا بين المحتوى الإخباري والتحليلي أو الساخر، ما قد يؤدي إلى نشر ردود تُفهم بشكل خاطئ أو تُعتبر مسيئة في سياقات معينة.
وفي حال حدوث أخطاء أو تجاوزات من قبل أنظمة الذكاء الاصطناعي، تبقى مسألة تحديد المسؤولية القانونية والأخلاقية موضع جدل. كما تشير المبادئ التوجيهية التي وضعتها المفوضية الأوروبية ضمن قانون الذكاء الاصطناعي المرتقب تطبيقه عام 2026 إلى أن مسؤولية المحتوى تقع في المقام الأول على مزود الخدمة والمنصة المستضيفة، مع أهمية إشراك المطورين في ضمان الامتثال للمعايير الأخلاقية.
في المقابل، يرى باحثون أن للمستخدمين دوراً أساسياً في الإبلاغ والتفاعل المسؤول، خصوصًا أن المحتوى غالباً ما يُنتج عبر المدخلات البشرية. ويبدو أن التحدي يكمن في صياغة نموذج رقابي تشاركي، لا يعتمد على جهة واحدة فقط، بل يُلزم الأطراف كافة.
ومع تسارع الابتكار في تقنيات الذكاء الاصطناعي، تزداد الحاجة إلى آليات تحقق التوازن بين التقدم التقني واحترام القيم المجتمعية والثقافية. تؤكد دراسة حديثة صادرة عن معهد بروكينغز في واشنطن أن ضبط مخرجات الذكاء الاصطناعي لا ينبغي أن يقتصر على الجوانب التقنية فحسب، بل يتطلب أيضًا توسيع نطاق الحوار العام حول المعايير الأخلاقية وحدود حرية التعبير الرقمية. ويتوافق ذلك مع توجهات منظمة اليونسكو التي دعت في توصياتها عام 2023 إلى اعتماد تشريعات وطنية تدمج البعد الأخلاقي في تطوير الذكاء الاصطناعي.
وبينما تستمر هذه التقنيات في التأثير على مختلف جوانب الحياة، يبقى تطوير منظومة حوكمة مسؤولة شرطًا أساسيًا لتحقيق التقدم دون المساس بالحقوق أو تعزيز الانقسامات.