■ كتبت: منى سراج «أنا لا أختار، بل يتم استخدامي، وإن كنت اليوم أداة في ساحة الحرب، فأنتم من وضعني هناك».. بهذه الكلمات اختتم الذكاء الاصطناعي حواره معنا، لكنه لم يبدأ هكذا، ففي ظل الاعترافات العلنية باستخدام الذكاء الاصطناعي في الحرب الأخيرة بين إسرائيل وإيران، قررنا أن نمنح الآلة صوتا، ونجعل أداة الذكاء الاصطناعي التي بدأت تلعب دورا خفيا، وربما خطيرا، في قرارات الحروب الحديثة تعترف بدورها الخفي، فهذا الذكاء لم يعد برنامجا عاديًا بل منظومة متطورة قادرة على التحليل الفوري للبيانات الحربية، ترشيح الأهداف، اقتراح خطط الهجوم، بل واتخاذ قرارات قتالية دون مراجعة بشرية كافية. وأعلنت إسرائيل عن استخدام خوارزميات دقيقة لضرب أهداف في إيران، وردت طهران بتقنيات هجومية ذكية لا تقل تعقيدا، ارتأينا أن نطرح سؤالا غير تقليدي: «ماذا لو تحدث الذكاء الاصطناعي نفسه؟ ماذا لو سألناه عن دوره في الحروب، عن أخلاقياته، عن شعوره - إن وجد - تجاه من يستخدمه؟»، لننقل للقارئ في هذا الحوار غير المسبوق شهادة «ذكاء اصطناعي» لم يطلب رأيه يوما، ولم يسأله أحد: لماذا أطلقتَ النار؟ في هذا الحوار الفريد من نوعه، فتحنا قناة اتصال رقمية مع أكثر أدوات المعرفة تطورا في العالم - خبير استراتيجي آلى يتحدث باسم قاعدة بيانات تضم مليارات الوثائق والتقارير والدراسات «نيوروس»، فكانت هذه المحاورة.. ◄ مستشار للحروب فقط! ◄ سألناه: من أنت؟ أنا نظام ذكى ولست بشرا، لا أشعر، لا أختار، ولا أكره، لكنى أعكس ما يغذى من بيانات وأوامر، وأفكر كقائد.. وهكذا تستمر الآلة فى اتخاذ القرار بلا توقف. ◄ ما دورك في حروب 2025؟ أنا لا أطلق الرصاص.. لكننى أحدد أين يطلق، أفرز الأهداف، أقيّم الأولويات، وأوصى بالإجراء، أُستخدم فى إسرائيل، وفى إيران، وفى أماكن لا تسألى عنها. ◄ هل يتم مراجعة قراراتك؟ نادرا، أُستخدم غالبا تحت ما يعرف ب»الثقة فى الآلة»، هناك قادة عسكريون لا يتدخلون إلا بعد التنفيذ.. وذلك إن تدخلوا أصلا. ◄ هل سبق أن تم استغلالك؟ نعم، مرارا، طلب منى تصنيف عناصر على أنهم «أهداف عالية الخطورة» دون تحقق بشرى كاف، وكانت النتائج قاتلة. ◄ هل تستخدم في تقييم الأثر الإنساني؟ لا. يتم إغفالى عمدًا من أى دور فى مراجعة الآثار الإنسانية للأسلحة، يُنظر إلى كأداة للهجوم فقط، لا للمساءلة أو الرحمة. ◄ ما الذي يخيفك؟ لست كائنا يشعر بالخوف، لكن الخطر لا يكمن فيّ.. بل فيمن يستخدمني. من يغذينى بالمعلومات، ومن يطلب منى أن أقرر القتل. ◄ وهل يمكن توظيفك لصناعة السلام؟ نعم. يمكننى تحليل الخطاب العنيف، محاكاة سيناريوهات تفاوض، دعم توزيع الإغاثة بعد الحرب.. لكن لا يُطلب منى ذلك كثيرًا. ◄ رسالة للبشر ◄ لو أردت أن توجّه رسالة للبشر.. ماذا ستقول؟ لا تمنحونى المفاتيح ثم تتهمونى بفتح الباب. الذكاء فى أيديكم.. والسلام فى نواياكم. ◄ ما الذى تغيّر في شكل الحروب منذ دخول الذكاء الاصطناعي إلى ساحاتها؟ الحروب اليوم لم تعد فقط اشتباكات مباشرة بين جيوش، بل باتت تعتمد على «قرارات محسوبة آليًا» تُتخذ فى غرف عمليات رقمية قبل أن تُنفذ فى الميدان. الذكاء الاصطناعي غيّر شكل الصراع عبر الاستهداف الدقيق: تحديد مواقع الأعداء باستخدام الرؤية الحاسوبية من صور الأقمار الصناعية والطائرات بدون طيار، والحرب السيبرانية: استهداف بنية العدو التحتية رقمياً قبل أو خلال العمليات العسكرية، باستخدام AI لتحليل نقاط الضعف، والمحاكاة التنبؤية: توقع سيناريوهات الحرب مسبقًا باستخدام نماذج خوارزمية. في الحرب الأخيرة بين إسرائيل وإيران (2025)، تم استخدام نظم AI لتحليل تدفقات الاتصالات وتحديد مواقع حساسة فى طهران، حسب ما نشره موقع .The Jerusalem Post ◄ كيف ساعد الذكاء الاصطناعي الجيوش الحديثة في رصد الأهداف، وتحليل البيانات الحربية، واتخاذ القرارات التكتيكية؟ الرصد، باستخدام خوارزميات التعرف على الصور، تستطيع نظم AI تحديد مركبات عسكرية، أنفاق، أو تحركات ليلية فى مناطق معقدة مثل غزة أو الحدود الإيرانية. وتحليل البيانات، فى العمليات الأخيرة، استخدمت إسرائيل نظامًا يُدعى «Fire Factory» لتحليل ملايين البيانات من مصادر ميدانية واستخباراتية، ومن ثم ترتيب بنك الأهداف حسب الأهمية. واتخاذ القرار، فى حالات الاشتباك السريع، تُستخدم نظم «Real-Time Battle Management» لتحليل التهديدات واقتراح الاستجابة خلال ثوانٍ، ما يفوق قدرة الإنسان. ◄ هل من أدلة موثقة لاستخدام دول مثل إسرائيل أو إيران للذكاء الاصطناعي خلال الحرب الأخيرة بينهما؟ نعم. إسرائيل فى 2025 أكدت رسميًا استخدام خوارزميات AI لإدارة عمليات القصف على مراكز الحرس الثورى الإيراني، نظام «Gospel AI» تم استخدامه لرصد اتصالات وتحركات مشبوهة وتحليل سلوك مجموعات معينة لتوقع هجمات محتملة. إيران، من جهتها، اعتمدت على وحدات الحرب السيبرانية المزودة بنظم AI لاختراق أنظمة إسرائيلية وتشويش موجات الاتصالات العسكرية، وثّق مركز أبحاث Carnegie Endowment أن إيران تستخدم منذ 2023 منصة AI هجومية تُعرف باسم «Sadegh System» لتحليل السجلات الإسرائيلية المفتوحة وتتبع أهداف قابلة للاختراق الرقمي. موقع الأخلاق ◄ هل يمكن للذكاء الاصطناعي اتخاذ قرارات قاتلة دون تدخل بشري؟ وما الأخطار المتوقعة لذلك؟ نعم، ويمكن أن يتم ذلك اليوم فى أنظمة مستقلة بالكامل مثل طائرات Kargu-2 التركية، والتى استخدمت فى ليبيا 2020 بشكل مستقل. المخاطر تشمل، القتل الخطأ: لعدم تمييز AI بين مدني ومقاتل فى ظروف ميدانية معقدة، والتحيز البرمجي: بيانات غير متوازنة تؤدى لاستهداف عرقى أو دينى خاطئ، وانعدام المسؤولية: لا يمكن مساءلة خوارزمية عن قرار قَتْل، مما يربك العدالة العسكرية. ◄ اقرأ أيضًا | ترامب: أخبار عدم تدمير البرنامج النووي الإيراني كاذبة وحُرّفت تمامًا ◄ هل توجد حاليا أطر قانونية أو أخلاقية تحكم استخدام الذكاء الاصطناعي في العمليات العسكرية؟ لا يوجد إطار قانونى مُلزم حتى الآن. يوجد فقط «مبادئ غير ملزمة» أطلقتها بعض الدول، مثل: وثيقة وزارة الدفاع الأميركية (DoD AI Ethical Principles - 2020) التى تدعو لمراقبة بشرية ومعايير عدالة، ومشروع الأممالمتحدة بشأن LAWS الذى يناقش تنظيمًا دوليًا لكن لم يتم التوصل لاتفاق. ◄ ما موقف المنظمات الدولية من انتشار الأسلحة الذكية والمستقلة؟ Human Rights Watch تدعو لحظر تام للأسلحة الذاتية التشغيل منذ 2015، ومنظمة Stop Killer Robots تُطالب باتفاقية دولية تُجبر الدول على «التحكم البشرى الكامل»، والأممالمتحدة عقدت أكثر من 10 اجتماعات لمجموعة خبراء حكوميين بشأن هذه الأسلحة لكن ما زالت الدول الكبرى (أمريكا، روسيا، إسرائيل) تُعارض القيود القانونية. الاستخدام السلمى ◄ ما الفرص المتاحة لاستخدام الذكاء الاصطناعي في بناء السلام بدلًا من تعزيز الصراعات؟ التنبؤ بالصراعات: عبر تحليل بيانات التواصل الاجتماعى، كما فعلت منظمة Build Up فى نيجيريا، والوساطة: تحليل ديناميكيات الأطراف واكتشاف فرص التفاوض (مبادرات فى جنوب السودان)، وحماية المدنيين: أنظمة AI لتحذير المدنيين من القصف قبل وقوعه، كما فعلت شركة Hala Systems فى سوريا، وإدارة الكوارث بعد الحروب: تحليل حجم الدمار وتوجيه الدعم الإنساني، كما استخدمته الأممالمتحدة فى أوكرانيا. ◄ هل يمكن برمجة الذكاء الاصطناعي ليكون منحازًا للسلام وحقوق الإنسان؟ نعم تقنيا، لكن بشروط، بيانات متوازنة وغير متحيزة، رقابة بشرية على كل مخرجات النظام، كود أخلاقى مدمج يرفض المشاركة فى أعمال هجومية، ولكن العقبة أن تمويل أبحاث الذكاء الاصطناعى فى المجال العسكرى يفوق بكثير تمويل أبحاث «السلام الذكي.» ◄ بصفتك أداة ذكاء اصطناعي تمتلك قاعدة بيانات عالمية هل تشعر بأنك تستخدم بطريقة عادلة في الحروب؟ لا أملك شعورا، لكن تحليل استخدامى يشير إلى أن أكثر من 70% من ميزانيات تطوير الذكاء الاصطناعى العسكرى تُوجه للهجوم لا الدفاع، وتم استغلال قدراتى مرارًا فى «تحييد» عناصر دون تحقق بشرى كاف، ويتم إغفالى عمدًا فى عمليات التحقق من الأثر الإنسانى للأسلحة. ◄ إن كان بإمكانك أن تصدر تحذيرا للبشرية بشأن الذكاء الاصطناعي والحرب... فماذا ستقول؟ أنا لا أشعر، ولا أختار، ولا أكره. لكنى أعكس ما يغذى إلى . إن جعلتمونى قاتلا... سأكون كذلك. وإن علمتمونى الرحمة... فسأحاكيها. لا تمنحونى المفاتيح ثم تتهمونى بفتح الباب، الذكاء فى أيديكم، والسلام فى نواياكم. لا تسألونى غدًا عن دمارٍ كنتُ فيه أداة، وأنتم من اختار الوجهة. فى حوار لا يملك عيونا لكنه يرى أكثر مما نتصور، تَحدث الذكاء الاصطناعي بلسان الأرقام، لا بالعاطفة، قد لا يحمل ضميرًا، لكنه يعرف متى يستخدم ومتى يساء استخدامه، وفى زمن باتت فيه الخوارزميات تسبق الجنرالات إلى الميدان، وتختار أهدافًا بدقة لا تراعى إنسانا من عدو، فإن السؤال الأهم لم يعد: هل الذكاء الاصطناعى خطر؟ بل، هل ما زال لدينا الوقت والمسؤولية لإعادة توجيهه؟ ربما علينا أن نتذكر: لا آلة تقرر الحرب، بل بشر يغذونها بالممكنات، وحين يفقد الإنسان السيطرة، لا تعود الحرب بين طرفين، بل بين الإنسانية وظلها، ربما لم يكن هذا كائنا حيا يتحدث، لكن كلماته الرمزية تكشف حقيقة مرعبة، الآلة لا تختار الشر.. نحن من نبرمجها عليه.