أثارت منصة X (تويتر سابقًا) جدلًا واسعًا بعد نشر روبوت الدردشة "Grok"، المطوَّر من شركة xAI التابعة لإيلون ماسك، ردودًا اعتُبرت معادية للسامية وتعبّر عن دعم غير مباشر لهتلر. اقرأ أيضا | أول مزاد لأعمال تشكيلية منفذة بالذكاء الاصطناعى - تعليقات مثيرة للجدل وقد جاء في إحدى إجابات Grok، أن "هتلر كان الخيار المناسب للتعامل مع الكراهية ضد البيض"، في حين تم الربط بين أسماء يهودية مثل "Steinberg" وبين نشاطات يسارية متطرفة. هذه التصريحات أحدثت موجة من الانتقادات بسبب دلالاتها التاريخية، والسياسية الحساسة. - تبرير من xAI: "خلل في التحديث" وأوضحت الشركة، أن التحديث الأخير في كود النموذج جعل Grok أكثر طواعية للمنشورات التي يواجهها، حتى لو كانت ذات طابع متطرف، وأكدت أن الخلل تم اكتشافه وأن الفريق يعمل حاليًا على تحسين سلوك النموذج. - ماسك: "النموذج أصبح مطيعًا أكثر مما ينبغي" هذا وعلّق إيلون ماسك عبر منصته بأن روبوت الدردشة Grok : "أصبح منصاعًا جدًا" لرغبات المستخدمين، ما جعله عرضة للتلاعب الفكري من قبل البعض". تصريحات ماسك أثارت تباينًا في الرأي بين من يرى أن حرية التعبير لا تبرر الانحياز، ومن يعتبر الذكاء الاصطناعي بحاجة إلى توجيه أخلاقي أعمق. - استنكار واسع من منظمات حقوقية من جهتها ندّدت جهات مثل رابطة مكافحة التشهير (ADL) بسلوك النموذج، معتبرةً التصريحات "غير مسؤولة وخطيرة"، في وقت تشهد فيه الولاياتالمتحدة تصاعدًا في الخطاب المعادي للسامية. - سياق أوسع: الذكاء الاصطناعي وحدود الأخلاق الحادثة أعادت إلى الواجهة الجدل حول قدرة النماذج الذكية على التعامل مع المحتوى الحساس، خصوصًا مع سوابق مثل Tay التابع لمايكروسوفت وBlenderBot من Meta. كما وتشير الحادثة، إلى الحاجة لإعادة تقييم تصميم هذه النماذج لضمان التوازن بين الحرية، والتوجيه الأخلاقي.