ترى المحللة نيلزا آمارال أن الحرب الأمريكية الإسرائيلية مع إيران تسببت في زيادة مخاوف منتشرة منذ فترة طويلة من تطبيق الذكاء الاصطناعي في تحديد الأهداف في الحروب. وبرزت هذه المخاوف في أعقاب الهجوم الذي وقع في 28 فبراير على مدرسة الشجرة الطيبة للبنات في ميناب، جنوبإيران، والذي تقول إيران إنه أسفر عن مقتل 168 شخصا على الأقل، معظمهم من التلميذات . وقالت آمارال ، رئيسة عمليات البحث، بمركز الحوكمة العالمية والأمن في معهد تشاتام هاوس (المعروف رسميا باسم المعهد الملكي البريطاني) في تقرير نشره المعهد ، إن إدارة الرئيس الأمريكي دونالد ترامب ألقت باللوم في البداية على إيران في الهجوم، رغم أنها لم تقدم أي دليل على ذلك . وتقول الولاياتالمتحدة إنها تحقق الآن في التفجير. و ذكرت صحيفة واشنطن بوست أن المدرسة كانت مدرجة على قائمة أهداف أمريكية. وأرسل الأعضاء الديمقراطيون في مجلس الشيوخ الأمريكي رسالةً إلى وزير الحرب بيت هيجسيث يطلبون فيها معلوماتٍ حول الهجوم، بما في ذلك توضيح بشأن أي استخدام للذكاء الاصطناعي في اختيار الأهداف. وحتى الآن، لم يكن هناك تأكيد بشأن ما إذا كان قد تم أو لم يتم استخدام الذكاء الاصطناعي في التخطيط للهجوم على المدرسة أو تنفيذه. ونقلت آمارال عن الأدميرال براد كوبر، القائد الأمريكي الذي يدير الحرب في إيران، تأكيده استخدام "مجموعة متنوعة من أدوات الذكاء الاصطناعي المتقدمة" لفحص كميات هائلة من البيانات في الصراع، دون أن يذكر أسماء أي أدوات بوجه خاص . وأضافت أنه قال إن هذه الأدوات سمحت للقادة باتخاذ "قرارات أكثر ذكاء وعلى نحو أسرع من رد فعل العدو "، وأدت إلى تسريع وتيرة العمليات من ساعات أو أيام إلى ثوان. وصرح الأدميرال كوبر أيضا : "سيظل البشر هم من يتخذون القرارات النهائية بشأن ما يجب إطلاق النار عليه وما لا يجب إطلاق النارعليه، ومتى يجب إطلاق النار.". ولا تعد إيران أول حرب يتم فيها تطبيق أنظمة الذكاء الاصطناعي، لكنها تشير إلى أن الاستهداف المدعوم بالذكاء الاصطناعي يصبح أمرا شائعا في الحروب. وبينما ربما ترغب الجيوش في إمكانية زيادة الكفاءة، فإنه لا تزال هناك مخاطر كبيرة . وأشارت آمارال إلى أن بيانا صدر عن وزارة الحرب الأمريكية عام 2024 حدد الكيفية التي يساعد بها نظام مافن سمارت ، المدعوم بالذكاء الاصطناعي، الجنود في الخطوط الأمامية في تحديد الأهداف العسكرية ومهاجمتها ، كما يساعد في عملية موافقة التسلسل القيادي على الضربات. وحصل الناتو أيضا على نسخة من نظام مافين سمارت من شركة بالانتير في عام 2025. وتتردد تقارير بأن الجيش الأمريكي يستخدم الآن نسخته الخاصة من نظام مافين سمارت للمساعدة في توفير معلومات الاستهداف لعملياته العسكرية في إيران. لكن من غير الواضح بالضبط كيفية ومدى استخدام نظام مافين وأدوات الذكاء الاصطناعي الأخرى في إيران. وفي الحرب الدائرة في أوكرانيا، يستخدم كلا الجانبين الذكاء الاصطناعي لمعالجة البيانات واختيار الأهداف. ونقلت آمارال عن نائب وزير الدفاع الأوكراني قوله العام الماضي إن الذكاء الاصطناعي يحلل أكثر من 50 ألف بث فيديو من خط المواجهة شهريا، مما يساعد على "معالجة هذا الكم الهائل من البيانات بسرعة، وتحديد الأهداف، ووضعها على الخريطة". ونوهت آمارال إلى أن صحيفة نيويورك تايمز ذكرت أن إسرائيل استخدمت الذكاء الاصطناعي في عملية تحديد الأهداف المحتملة للغارات الجوية التي تستهدف حماس في غزة، وأن الجيش الإسرائيلي أعلن بأن "نظم المعلومات ليست سوى أدوات للمحللين في عملية تحديد الأهداف". وتشمل الاستخدامات الإضافية لتكنولوجيا الذكاء الاصطناعي في المجال العسكري تدريب الأفراد العسكريين من خلال عمليات المحاكاة الافتراضية، أو اتمتة الجدولة للإمدادات اللوجستية أو تحديد احتياجات صيانة المعدات عبر نظم التعرف على الصور. وهذه مجرد بعض الاستخدامات المحتملة. وسوف ترغب دول كثيرة في الاستثمار في أدوات تمنحها ميزة تتفوق بها على خصومها، والتي كانت سمة ثابتة عبر تاريخ الحروب. ولكن استخدام الذكاء الاصطناعي في بيئات معقدة وعالية المخاطر، كالنزاعات المسلحة، ينطوي أيضا على مخاطر جسيمة. ويتعلق جزء من القلق بتطوير تقنية الذكاء الاصطناعي نفسها والكيفية التي يمكن أن تؤثر بها على أداء النظام. فعلى سبيل المثال، قد يتم تدريب نموذج الذكاء الاصطناعي ببيانات خاطئة، أو بمواد تكون مختلفة عما يواجهه عندما يتم استخدامه في العالم الحقيقي. وهذا يمكن أن يجعله يولد معلومات غير دقيقة أو حدوث خلل عندما يتم استخدامه خارج بيئة التدريب. وتعمل نماذج الذكاء الاصطناعي اللغوية الكبيرة من خلال التنبؤ بتسلسل الكلمات على أساس الاحتمال الإحصائي، و من المرجح أن يكون تنبؤها صحيحا معظم الوقت ، ولكن ليس كل الوقت. ومن الناحية العملية ، يعني هذا أن صنع القرارات على أساس المعلومات التي يتم توليدها باستخدام الذكاء الاصطناعي ينطوي على عنصر المخاطرة وعدم الدقة. وتعتبر قرارات الاستهداف المدعومة بالذكاء الاصطناعي حالة عالية المخاطر . وإذا ما تم استخدام أدوات الذكاء الاصطناعي بدرجة كبيرة لتحديد الأهداف مع أدني درجة من الإشراف البشري، فلا يكون من الصعب تصور كيف يمكن أن تحدث الأخطاء. وتتمثل قضايا جوهرية برزت جراء استخدام الذكاء الاصطناعي في الحروب، في حدوث اختلاف بين ما يمكن أن تقوم بعمله النظم المدعومة بالذكاء الاصطناعي والإجراءات أو القواعد بشان الكيفية التي يستخدم بها البشر هذه النظم. ما الذي يمكن عمله بصورة أفضل ؟ تشير الحرب الإيرانية إلى أنه من المتوقع زيادة استخدام أدوات الذكاء الاصطناعي في النزاعات المسلحة. وبينما تتطبق قوانين الحرب على جميع النزاعات، يكون هناك نقاش متزايد بشأن ما إذا كان الذكاء الاصطناعي يستحدث بعدا جديدا يتطلب قواعد إضافية. فعلى سبيل المثال، أُثيرت مخاوف بشأن الكيفية التي يقلص بها الذكاء الاصطناعي مساحة التقييم والحكم البشري اللازمة لتحديد أحكام القانون الدولي الإنساني. ومن غير المرجح وضع إطار دولي ملزم على المدى القصير . ومع ذلك، فإن من مصلحة الجيوش صياغة قواعد بشأن استخدام الذكاء الاصطناعي. وسوف يساعدها هذا الأمر على تخفيف مخاطر الاعتماد المفرط على الاستهداف المدعوم بالذكاء الاصطناعي، مما يمكن أن يقلل من الأخطاء التي تؤدي إلى ضرب أهداف خاطئة وحالات وفاة بين المدنيين. ويمكن أن تتضمن صياغة هذه القواعد تحقيق تفاهم مشترك بين الدول والجيوش وشركات التكنولوجيا والقطاع الأكاديمي والمجتمع المدني ، حول الكيفية التي يتم بها تعزيز التكامل بين الإنسان والآلة، أو الكيفية التي يمكن أن يتفاعل من خلالها البشر وأنظمة الذكاء الاصطناعي حتى يسهم كل طرف منهما بما يتفوق فيه . ويجب أيضا مراعاة الكيفية التي يتم بها رصد أعطال النظم القائمة على الذكاء الاصطناعي وتعزيز عمليات تحسين هذه النظم في البيئات المعقدة. ويعتبر قرار الأممالمتحدة الصادر في ديسمبر عام 2025 بشأن "الذكاء الاصطناعي في المجال العسكري وتداعياته على السلم والأمن الدوليين"، خطوةً في الاتجاه الصحيح. ويشجع القرار المناقشات متعددة الأطراف ومتعددة ألجهات الفاعلة ؛ ويجب أن يتيح اجتماع الجهات الفاعلة المتعددة على مدار ثلاثة أيام والمقرر عقده في يونيو العام الجاري، فرصة لتبادل الأراء والتشاور غير الرسمي حول استخدام الذكاء الاصطناعي في أي نزاع مسلح. واختتمت أمارال تقريرها بالقول إن هذه المناقشات توفر قنوات لبناء الثقة، ويمكن أن تمهد الطريق لمشاركة أفضل ممارسة . وبدون ذلك، ستكون المخاطر المحتملة جراء استخدام الذكاء الاصطناعي في نزاع جسيمة.