في ظل الحرب الدائرة في غزة، لم تعد قضية سلامة أنظمة الذكاء الاصطناعي مجرد نقاش تقني، بل تحوّلت إلى مسألة حياة أو موت. فبعيدًا عن استخدام هذه الأنظمة للمساعدة في مهام بسيطة، ترتفع المخاطر بشكل كبير عند استخدامها لجمع المعلومات الاستخباراتية حول الأهداف العسكرية أو نشر الأسلحة، حيث تُظهر التقارير والأدلة الميدانية أن الأخطاء التقنية لأنظمة الذكاء الاصطناعي تساهم في ارتفاع عدد الضحايا المدنيين. ولا تقتصر المشكلة على قابلية هذه الأنظمة للخطأ فحسب، بل تمتد إلى ضعفها أمام الاختراق والتلاعب، مما قد يتيح لأطراف معادية التحكم في سلوكها وتوجيه قرارات عسكرية مصيرية. ورغم هذه المخاطر الجلية، تواصل الجيوش حول العالم تسريع دمج تقنيات الذكاء الاصطناعي في ساحات القتال، وهو ما دفع الباحثة هايدي خلاف ، الرائدة في مجال سلامة الذكاء الاصطناعي، إلى التركيز على هذا الملف الحساس. هايدي خلاف، البالغة من العمر 34 عامًا، عملت في مجال هندسة السلامة التقليدية للمفاعلات النووية والمركبات ذاتية القيادة قبل انضمامها إلى OpenAI، حيث طورت منهجية لتقييم سلامة نظام Codex السابق ل ChatGPT من خلال تحليل المخاطر المحتملة وكيفية التخفيف منها. وقد تم اعتماد هذه المنهجية لاحقًا في مختبرات الذكاء الاصطناعي على مستوى العالم. بدورها الحالي ككبيرة علماء الذكاء الاصطناعي في معهد AI Now، تركز خلاف على تقييم سلامة أنظمة الأسلحة الذاتية، وقد خلصت إلى أن كل الأنظمة التي قامت بدراستها تقع دون معايير السلامة المحددة للأسلحة التقليدية أو العمليات العسكرية. فعلى سبيل المثال، في حين يُتوقع من أنظمة الدفاع تحقيق معدلات موثوقية تتراوح بين 90% و99%، أظهرت بعض برامج التعرف على الأهداف المدعومة بالذكاء الاصطناعي، والتي جُرّبت في سياقات عسكرية أمريكية، معدلات دقة منخفضة تصل إلى 25% فقط. وفي سياق متصل، نشرت خلاف مؤخرًا ورقة بحثية تحلل فيها كيف تساهم أنظمة الذكاء الاصطناعي المستخدمة في غزة في زيادة عدد الضحايا المدنيين. وفي هذا النموذج الأليم، لم يعد الخطأ التقني مجرد فشل هندسي، بل تحول إلى مأساة إنسانية تكلّف أرواحًا بريئة. فكل خطأ في الخوارزمية يُترجم إلى دمٍ يُسفك وحياةٍ تُزهق. إن الارتفاع المفجع في أعداد الضحايا المدنيين يجعل من دعوة وقف أو إعادة تقييم استخدام هذه الأنظمة مطلبًا إنسانيًا ملحًا بقدر ما هو ضرورة تقنية. وفي إشارة إلى غياب الرقابة المستقلة، تقول خلاف: "للأسف، الأشخاص الذين يقومون بهذه التقييمات الآن في وزارات الدفاع يقومون بتقييم عملهم بأنفسهم... أنا أحاول استخدام موقعي... لتقديم هذه المخاطر للجمهور بطريقة واضحة لكي يفهموها." مع كل تقدم تكنولوجي في مجال الذكاء الاصطناعي، يزداد وجوب وجود رقابة مستقلة ومساءلة صارمة، خصوصًا حين تتعلق التطبيقات بالدفاع والحرب. إن عمل هايدي خلاف يذكّرنا بأن التقييمات المستقلة ليست رفاهية علمية، بل شرطٌ أساسي لحماية المدنيين ولمنع التكنولوجيا من أن تصبح أداة للدمار غير المقصود. ورغم أن الذكاء الاصطناعي أصبح حاضرًا في تفاصيل حياتنا اليومية، من الهواتف الذكية إلى السيارات والمساعدات الرقمية، إلا أن مشاهد غزة تفرض سؤالًا لا مفر منه: هل هذه الأدوات صُممت لتسهيل حياة البشر أم يمكن أن تتحوّل إلى وسيلة لإزهاق أرواحهم؟ ما بين الاستخدام المدني البسيط والخطأ العسكري القاتل، يتضح أن مستقبل الذكاء الاصطناعي مرهون بقدرتنا على ضبطه ومساءلته. فإما أن يكون أداة لصياغة غدٍ أكثر أمانًا، أو يتحوّل إلى آلة تُعيد إنتاج الكوارث بأبعاد غير مسبوقة.