في تحذير غير مسبوق، أكدت د. هايدي خلاف، كبيرة علماء الذكاء الاصطناعي في معهد AI Now، أن الاستخدام العسكري العشوائي لتقنيات الذكاء الاصطناعي التوليدي بات يمثل خطراً وجودياً يهدد الأمن العالمي والأخلاق الإنسانية، مشيرة إلى أن ما جرى في الحرب على غزة كشف بوضوح الوجه الكارثي لهذه التكنولوجيا عندما تُستخدم دون ضوابط. خلاف، المدرجة في قائمة TIME100 AI العالمية كإحدى الشخصيات الأكثر تأثيراً في مجال الذكاء الاصطناعي لعام 2025، أوضحت أن ما شهدته غزة لم يكن مجرد خطأ تقني أو خلل عابر في منظومة حسابية، بل كان دليلاً صارخاً على أن "النماذج التجارية غير الآمنة" يمكن أن تتحول إلى أدوات قتل جماعي إذا وُضعت في أيدي أنظمة عسكرية. ◄ «نقطة تحول» في تاريخ الحروب وصفت د. خلاف حرب غزة بأنها "نقطة التحول"التي أظهرت للعالم أجمع أن الاعتماد على الذكاء الاصطناعي في الاستهداف العسكري لم يعد سيناريو مستقبلياً، بل حقيقة واقعة. وأكدت أن الأدلة المتاحة تكشف عن استخدام مباشر لنماذج الذكاء الاصطناعي التجارية، التي طُورت في الأصل لأغراض مدنية وتجارية، داخل منظومات الاستهداف العسكري. "هذا التحول لا ينذر فقط بانتشار الحروب غير الأخلاقية وغير القانونية"، تقول خلاف، "بل يفتح الباب أمام مرحلة من الصراعات تتجاوز فيها الآلة البشر، حيث تصبح القرارات القاتلة مؤتمتة بالكامل، دون أي تدخل إنساني أو رقابة أخلاقية". ◄ أزمة أخلاقية قبل أن تكون تقنية شددت د.هايدي على أن الأزمة الراهنة ليست أزمة تقنية فحسب، وإنما هي بالأساس أزمة أخلاقية وإنسانية. فبينما يتم تسويق الذكاء الاصطناعي باعتباره أداة لتحسين حياة البشر، كشفت أحداث غزة أن الأتمتة قادرة على تسريع وتيرة الانتهاكات الإنسانية وتضخيم آثارها. وأشارت إلى أن غياب الأطر القانونية والتنظيمية الدولية يجعل من السهل على الأطراف المتحاربة استغلال هذه النماذج، التي غالباً ما تكون متاحة بشكل تجاري أو مفتوح المصدر، لتنفيذ عمليات استهداف عشوائي أو واسع النطاق، دون أي محاسبة أو مساءلة. ◄ خبرة عملية وبحثية واسعة حديث د. خلاف يستند إلى خبرة ممتدة في مقدمة صناعة الذكاء الاصطناعي. فقد عملت سابقاً في شركات رائدة مثل مايكروسوفت وأمازون وOpenAI، قبل أن تتفرغ للعمل البحثي عبر معهد AI Now، أحد أبرز المراكز العالمية المتخصصة في دراسة الأبعاد الاجتماعية والسياسية والأخلاقية للذكاء الاصطناعي. الحاجة إلى إطار دولي صارم دعت د. خلاف إلى ضرورة تبني إطار دولي صارم وملزم ينظم استخدام تقنيات الذكاء الاصطناعي في السياقات العسكرية. وأكدت أن ترك هذه التكنولوجيا في فراغ تشريعي يعني "تسليم قرار الحياة والموت إلى خوارزميات غير خاضعة لأي مساءلة"، وهو ما يشكل تهديداً مباشراً لحقوق الإنسان والقانون الدولي. اقرأ أيضا| هايدي خلاف: هويتي العربية سلاح لمواجهة خوارزميات الذكاء الاصطناعي وأضافت: "لقد شاهدنا بالفعل كيف يمكن لغياب التنظيم أن يحول أدوات كان يُفترض أن تكون للتنمية والتقدم إلى وسائل للدمار. وما لم يتحرك المجتمع الدولي بسرعة، فإننا مقبلون على حقبة جديدة من الحروب غير التقليدية، حيث يُلغى العنصر البشري من معادلة القرار العسكري". ◄ أزمة عالمية تتجاوز حدود غزة ورغم أن غزة كانت الشرارة التي سلطت الضوء على المخاطر، تؤكد خلاف أن القضية عالمية الطابع. فالنماذج التجارية متاحة اليوم عبر الإنترنت ويمكن لأي جهة الوصول إليها، ما يجعل احتمالات استغلالها في النزاعات قائمة في أي منطقة من العالم. وترى أن مواجهة هذا التحدي تتطلب تعاوناً دولياً عاجلاً يشمل الحكومات، المؤسسات البحثية، وشركات التكنولوجيا الكبرى، لوضع ضوابط ومعايير واضحة تمنع الاستخدامات العسكرية غير المشروعة لهذه النماذج. تحذيرات د. هايدي خلاف تأتي في وقت تتسارع فيه سباقات التسلح التكنولوجي، وتتصاعد المخاوف من تحول الذكاء الاصطناعي إلى "سلاح فوضوي"يعيد رسم خريطة الحروب المعاصرة. وبينما يستمر الجدل حول جدوى الذكاء الاصطناعي وأثره على مستقبل البشرية، تظل تصريحاتها بمثابة جرس إنذار يذكّر العالم بأن الأتمتة غير المنضبطة قد تكون أقرب إلى الكارثة منها إلى التقدم.