حذّرت الصين من أن استخدام الذكاء الاصطناعي في المجال العسكري قد يؤدي إلى نهاية كارثية أشبه بنهاية العالم، مشيرة إلى أن الخطر لا يكمن فقط في القدرة التدميرية لهذه التكنولوجيا، بل أيضاً في غياب الأطر التنظيمية الدولية التي تحد من استخدامها. وأطلقت الحكومة الصينية تحذيرا شديد اللهجة بشأن المخاطر المرتبطة بتوظيف الذكاء الاصطناعي فى العمليات العسكرية، مؤكدة أن تطبيقه دون ضوابط و قوانين دولية قد يقود إلى سيناريو كارثى. اقرأ أيضًا| حرب إيران في زمن الAI.. انتصار «الكود» أسرع من رمشة عين الجنرالات وقال مسئولون فى وزارة الخارجية إلى الخورازميات المستخدمة فى الأسلحة ذاتية التشغيل قد تتخذ قرارات قاتلة من دون تدخل بشرى، وذلك خلال مؤتمر دولي حول الأمن التكنولوجي نقلته صحيفة لابانجورديا الإسبانية. وأشارت إلى أن الحرب فى الشرق الأوسط تظهر الأهمية المتزايدة ل الذكاء الاصطناعى فى النزاعات العسكرية خصوصا فى تحليل المعلومات واختيار الأهداف، إلا أن مدى موثوقيته ودوره في اتخاذ قرارات الهجوم ما زالا محل جدل واسع بين الخبراء. ويتفق متخصصون في الاستراتيجية العسكرية على أن القلق الأكبر يتعلق بما يُعرف ب أنظمة الأسلحة الذاتية القاتلة، القادرة على تحديد الأهداف وتنفيذ الهجمات من دون أمر مباشر من مشغّل بشري. وأوضح المحلل العسكري الصيني والعقيد المتقاعد تشو بو أن دمج الذكاء الاصطناعي في الطائرات المسيّرة والصواريخ والمنصات القتالية يمكن أن يقلّص زمن اتخاذ القرار إلى أجزاء من الألف من الثانية، ما يزيد خطر وقوع أخطاء كارثية. اقرأ أيضًا| أمريكا: التكنولوجيا المتقدمة والذكاء الاصطناعي يحسمان المواجهة الجوية