طفولتى فى مصر صقلت هويتى العربية.. ومنحتنى سلاحًا لمواجهة خوارزميات منحازة أنظمة الذكاء الاصطناعى مليئة بالأخطاء والانحياز.. وتحولها إلى أسلحة تهدد الأمن القومى النماذج التوليدية لا تفكر.. بل تكرر انحيازاتها وتحوّل الأخطاء إلى حقيقة مؤتمتة المؤسسات الغربية تتجاهل المواهب العربية.. رغم أن منطقتنا أكثر المتضررين من التكنولوجيا تضارب مصالح خطير... شركات التقنية تقيّم نماذجها بنفسها وتبيعها للجيوش رغم عدم أمانها فى سبتمبر 2025، اختارت مجلة «التايم» العالمية د. هايدى خلاف ضمن قائمة TIME100 AI لأكثر الشخصيات تأثيرًا فى الذكاء الاصطناعى على مستوى العالم. لتكون المصرية الوحيدة، وواحدة من ثلاثة عرب فقط، ضمن قائمة ضمت عمالقة التكنولوجيا مثل إيلون ماسك، سام ألتمان، مارك زوكربيرج، والشيخ طحنون بن زايد.. اقرأ أيضًا| «القومي للمرأة» يشارك في رعاية مهرجان إيزيس الدولي لمسرح المرأة هايدى ليست فقط باحثة بارزة فى علوم الحاسوب والحاصلة على الدكتوراه من جامعة «يونيفرسيتى كوليدج لندن»، بل هى أيضًا متسلقة شغوفة، اعتادت مواجهة الصخور والمنحدرات بنفس الإصرار الذى واجهت به تحديات الذكاء الاصطناعي. ومن مايكروسوفت وأمازون وOpenAI إلى منصبها الحالى ككبير علماء معهد AI Now، تسلقت بخطوات ثابتة سلم المجد العلمي، لتصبح فخرًا مصريًا جديدًا يتسلق القمم فى عالم التكنولوجيا.. فى هذا الحوار الحصرى مع «الأخبار»، تكشف هايدى عن رحلتها من القاهرة إلى العالمية، وعن رؤيتها لمستقبل الذكاء الاصطناعى وأمنه، وكيف صاغت خلفيتها المصرية قيمًا أخلاقية جعلتها صوتًا نقديًا عالميًا فى مواجهة المخاطر التى تهدد الدفاع والطيران والطاقة. بدايةً، هل يمكن أن تقدمى نفسك لقُرائنا-خلفيتك، جنسيتك، ومسيرتك الأكاديمية؟ أنا الدكتورة هايدى خلاف، باحثة فى مجال علم الحاسوب ، أنا مصرية أحمل الجنسية الأمريكية ، حصلت على درجة البكالوريوس فى كل من علم الحاسوب والفلسفة، وتخصصت فى تخصص يعرف باسم «ماينور» ، قسم الرياضيات من جامعة ولاية فلوريدا ، تابعت دراستى وحصلت على درجة الدكتوراه فى علم الحاسوب من جامعة يونيفرسيتى كوليدج لندن (UCL) بالمملكة المتحدة. عملت فى العديد من شركات التكنولوجيا الكبرى بما فى ذلك مايكروسوفت ريسيرش، وأمازون، وأوبن إيه آى (OpenAI)، قبل أن أصبح فى نهاية المطاف كبيرة علماء الذكاء الاصطناعى فى AI Now Institute «معهد الذكاء الاصطناعي» ، لدراسة وتقييم سلامة وأمان استخدام الذكاء الاصطناعى فى التطبيقات الحرجة/الحساسة للسلامة مثل القطاعات النووية، والطيران، والدفاع. اقرأ أيضًا| «التعليم» تخاطب المدارس لنشر مبادرة "أشبال مصر الرقمية" كيف بدأت رحلتك من مصر لتصبحين صوتًا عالميًا فى مجال سلامة الذكاء الاصطناعي؟ قضيت طفولتى بأكملها فى مصر، الأمر الذى صقل قيمى وأخلاقياتى ، وزودنى بفهم ثقافى عميق لمعنى أن تكون عربيًا، لقد كان هذا المنظور ذا صلة بشكل خاص فى المناخ الجيوسياسى الحالى والذى يوصف بالحساسية ، حيث استخدام ونشر الذكاء الاصطناعى التوليدى من قبل جيوش، مثل الجيش الإسرائيلي، لأغراض الاستخبارات والاستهداف، مما يعزز الصور النمطية الاستشراقية التى تسىء إلينا ، أو تسىء لترجمة اللغة العربية بطريقة تؤدى فى النهاية إلى سقوط ضحايا من المدنيين . كونى خبيرًا فى الذكاء الاصطناعى والسلامة ولدى خلفية عربية كان أمرًا حاسمًا فى معالجة مخرجات الذكاء الاصطناعى التمييزية «غير الدقيقة» ، لا سيما تلك التى سيتم استخدامها فى نهاية المطاف للتطبيقات العسكرية. ماذا يعنى لك اختيارك ضمن قائمة TIME100 على الصعيدين الشخصى والمهني؟ لقد كان الأمر مفاجئًا، لكونى واحدة من المنتقدين لاستخدام نماذج الذكاء الاصطناعى التوليدى بشكله الحالى فى أنظمة بالغة الأهمية فيما يخص السلامة ، وهو ما يتناقض مع العديد من مبادرات التمويل التى تنشرها الحكومات والشركات الخاصة فى جميع أنحاء العالم. لذلك، أعتقد أن هذا التقدير يدل على التحول، لقد بدأ الكثيرون يدركون أن خوارزميات الذكاء الاصطناعى معيبة وتتسم بمعدلات خطأ عالية فى التطبيقات التى تتطلب أهمية قصوى للسلامة، خاصة فى مجالات حساسة ك الدفاع، والطيران، والمحطات النووية، وما إلى ذلك. على الصعيد الشخصي، فخورة لكونى واحدًا من عدد قليل من العرب الذين تم إدراجهم فى مجلة TIME فغالبًا ما لا يتم تمثيل وجهات نظرنا فى عالم التكنولوجيا، على الرغم من مدى تكرار استخدامنا لهذه التقنيات وحتى استخدامها ضدنا، المنطقة العربية مليئة بالمواهب، ولكن للأسف عدد قليل جدًا منهم يحظى بالاعتراف فى المؤسسات الغربية. لماذا اخترت التخصص فى سلامة الذكاء الاصطناعى (AI Safety) ؟ لقد جاء هذا التخصص بشكل طبيعى من مجال خبرتى المحدد فى علوم الحاسوب، وهو هندسة السلامة والتحقق الشكلى (formal verification). قبل التفرغ للذكاء الاصطناعى بدوام كامل، قضيت سنوات فى تدقيق وتقييم سلامة محطات الطاقة النووية، والمركبات الذاتية القيادة، والطيران، وأنظمة الدفاع. غالبًا ما تكون حياة الإنسان على المحك إذا فشلت هذه الأنظمة، مما يتطلب منهجًا هندسيًا صارمًا لا ينعكس فى مناهج هندسة البرمجيات والذكاء الاصطناعى القياسية المعتادة . فنتائج فشل محطة نووية أو طائرة كارثية مقارنة بفشل تطبيق للذكاء الاصطناعى تم تحميله على هاتفك.. ومع تزايد تكنولوجيا الذكاء الاصطناعي، كان عليَّ أن أشارك بشكل أكبر فى فهم تطبيق واستخدام الذكاء الاصطناعى فى هذه التطبيقات الحساسة والتى تتعلق بالسلامة ، وفوائدها. لذلك، من خلال خبرتى عند تقاطع الأنظمة الحرجة للسلامة والذكاء الاصطناعي، كان انتقالًا طبيعيًا للبدء فى التقييم الصارم لمدى إمكانية أن تكون هذه الأنظمة آمنة ومحمية، وتحت أى شروط. وقد قادنى هذا فى نهاية المطاف إلى العمل فى OpenAI، حيث استخدمت خبرتى وخلفيتى فى هندسة السلامة لتوفير سياق حول مخاطر نشر الذكاء الاصطناعى فى التطبيقات الحرجة، وكيف أن ما تعتبره شركات الذكاء الاصطناعى «آمنًا»، لم يكن آمنًا حقًا للاستخدام فى مجالات الدفاع، أو الطيران، أو الطاقة النووية. اقرأ أيضًا| وزيرة التخطيط: الشركات الناشئة جذبت 2.2 مليار دولار استثمارات ما هى أكبر التحديات فى تقييم مخاطر الأنظمة الذاتية؟ تكمن أكبر التحديات فى حقيقة أن طريقة تدريب أنظمة الذكاء الاصطناعى التوليدى تُرسّخ التحيز والأخطاء فى مخرجاتها لتصبح أمرًا «واقعيًا ومؤتمتًا». ويعود ذلك إلى أن طبيعة أنظمة الذكاء الاصطناعى هى تقديم نتائج بناءً على الاحتمالات والارتباطات المستمدة من البيانات التاريخية، وليس بناءً على أى نوع من الاستدلال أو الأدلة الواقعية. ما هى المخاطر المترتبة على هذه الطبيعة فى تدريب أنظمة الذكاء الاصطناعي؟ تتمثل المخاطر فى تدنى معدلات الدقة والتبعات المميتة: بينما قد لا يمثل هذا مشكلة عند استخدام نماذج مثل ChatGPT لكتابة رسائل البريد الإلكتروني، فإن معدل دقة يتراوح بين 40-60% فى التطبيقات العسكرية له عواقب وخيمة ومميتة. إضافة إلى نقص الأدلة، هناك نقص فى الأدلة على أن الأنظمة العسكرية المولدة بالذكاء الاصطناعى تلتزم بالصرامة الهندسية الأساسية للسلامة والأمن. ما هو القصور الملحوظ فى تقييم ملاءمة أنظمة الذكاء الاصطناعى للاستخدام؟ استمرار البيع رغم المخاطر: تستمر شركات الذكاء الاصطناعى فى بيع منتجاتها التى تحمل مخاطر معروفة تتعلق بالسلامة والأمن للجيوش، فى حين أنه ليس من الواضح ما إذا كانت نماذج الذكاء الاصطناعى هذه مناسبة للاستخدام من الأساس. تركيز الأبحاث: أبرز الأبحاث التى تم التركيز عليها هى تقييم مخاطر الأمن القومى التى يشكلها استخدام النماذج التجارية للاستخبارات العسكرية، والمراقبة، والاستهداف، والاستطلاع. اقرأ أيضًا| «جوجل»: هل أصبح الذكاء الاصطناعي «الزميل الصامت» لمبرمجي التكنولوجيا؟ ما هى التفاصيل المحددة لمخاطر الأمن والسلامة (Security & Safety Risks)؟ تنقسم هذه المخاطر إلى : القضايا الأمنية (Security) تتضمن قدرة الخصوم على اختراق النموذج أو «التحايل عليه» لتعديل سلوكه (Compromise/Hacking).. ومخاطر السلامة (Safety) والتى تتعلق بعدم احتمال أن يكون النموذج دقيقًا بما فيه الكفاية لحالات استخدام الاستهداف. كيف يساهم تضارب المصالح فى عملية التقييم فى بناء أنظمة عسكرية معيبة؟ تضارب المصالح فى التقييم يخلق تحديًا كبيرًا، فالتقييم من قِبَل الشركات يتمثل التحدى الأكبر فى أن تقييمات السلامة والأمن الحالية التى تستخدمها الحكومات تُبنى من قبل شركات الذكاء الاصطناعى نفسها. إضافة إلى أن التعريف الفضفاض للمخاطر يخلق تضاربًا كبيرًا فى المصالح، ويسمح للشركات بتعريف «السلامة» و «الأمن» بطريقة فضفاضة جدًا تشجع على نشر نماذجها غير الدقيقة، مما يؤدى إلى بناء أنظمة عسكرية معيبة. هذا أول تأكيد نتلقاه على استخدام نماذج الذكاء الاصطناعى التجارية بشكل مباشر فى الحروب . وأضافت: «إن التداعيات هائلة على دور التكنولوجيا فى تمكين هذا النوع من الحروب غير الأخلاقية وغير القانونية مستقبلاً». كيف ساهمت تلك النظم فى ارتفاع عدد شهداء غرة ؟ تأكدنا من استخدام نماذج «تجارية» للذكاء الاصطناعى بشكل مباشر فى الحروب ، منها ما استخدمها الجيش الإسرائيلى ، وفقًا لتحقيق أجرته وكالة أسوشيتد برس، والذى كشف عن استخدام الوحدة 8800 داخل الجيش الإسرائيلى لأنظمة مايكروسوفت فى رصد وترجمة وتحليل ملايين المكالمات الهاتفية اليومية للمدنيين الفلسطينيين فى غزة والضفة الغربية، وقامت بممارسات صادمة كشف عنها مصدر استخباراتى فى مجلة « 972 ماغ»، وهى «ترقية» الأفراد الذين يقتلون إلى رتبة «إرهابيين» بعد وفاتهم وهى تداعيات هائلة على دور التكنولوجيا فى تمكين هذا النوع من الحروب غير الأخلاقية وغير القانونية مستقبلاً . ما هى خلاصة التحدى الملح الذى يجب معالجته؟ الخلاصة هى أن التحدى الملح هو إيجاد طريقة أفضل لتقييم هذه النماذج بشكل مناسب وحل مخاطر الأمن والسلامة التى لم تتم معالجتها، خاصة أن الجيوش تعتمد بالفعل على نماذج تجارية غير آمنة وغير محمية فى أنظمة الأسلحة. هل تعتقدين أن الحكومات والشركات تتعامل مع مخاطر الذكاء الاصطناعى على محمل الجد ؟ إطلاقاً ، فبالنظر إلى المبادرات الحالية والمبالغ الضخمة التى يتم استثمارها فى هذا المجال ، ودون أن تعالج مختبرات الذكاء الاصطناعى مخاطر السلامة والأمن التى نثيرها باستمرار، فإنه لا تزال هناك فجوة واضحة فى فهم الكيفية التى يمكن أن يهدد بها استخدام الذكاء الاصطناعى التوليدى أمنهم القومي.. وجهة نظرى هى أن نقص الخبرة عند تقاطع مجالى الدفاع والذكاء الاصطناعى داخل المؤسسات العسكرية سمح بمرور الادعاءات غير المثبتة حول قدرات أنظمة الذكاء الاصطناعى دون مساءلة. وما هى التحديات والحلول المقترحة ؟ تكمن التحديات فى الادعاءات الكاذبة والتسويق المضلل: عندما يتم الإشارة إلى المخاطر والإخفاقات الموجودة وغير المعروفة لأفراد الجيش، غالبًا ما تخبرهم شركات الذكاء الاصطناعى بأن «القدرات المحتملة»، وغير المثبتة وغير المُعلنة بعد، ستحل هذه المشكلات فى نهاية المطاف، دون أن يحدث ذلك أبدًا. وقد استُخدمت هذه الادعاءات الكاذبة لتبرير نشر أنظمة محفوفة بالمخاطر من قبل الأفراد العسكريين، دون أن يتم حل مخاطر الذكاء الاصطناعى بالفعل. أما بالنسبة للحلول فهى الحاجة إلى سياسات قوية، هذا يوضح التحدى المتمثل فى أن الأدلة التجريبية التى نقدمها ليست كافية، وأن الدول بحاجة إلى إنشاء مبادرات سياسية أكثر قوة تحاول فهم ومكافحة ادعاءات التسويق الكاذبة التى تطرحها شركات الذكاء الاصطناعي. ما هى الخطوات التى يمكن أن تتخذها المنطقة العربية لضمان مستقبل رقمى أكثر أمانًا؟ هناك العديد من الدول العربية التى تتخذ خطوات نحو تحقيق السيادة الرقمية، وهى القدرة على التحكم فى بنيتها التحتية الرقمية الخاصة. وعلى الرغم من أن هذه خطوة إيجابية للغاية، إلا أنها ليست كافية ببساطة وتغفل مرة أخرى المخاطر الأكبر المترتبة على استخدام الذكاء الاصطناعى التوليدى أو التجاري. وما هى مخاطر الاعتماد على النماذج الغربية ؟ تكمن أهم المخاطر فى قابلية نماذج الذكاء الاصطناعى بالتلاعب والتوجيه (Nudging) ، فعلى سبيل المثال، قبل عدة أسابيع، قام نموذج «Grok» التابع لشركة xAI بمدح أدولف هتلر وأشار إلى نفسه باسم «MechaHitler» بسبب تحديث موجه النظام (system prompt) من قبل فريق «Grok» نفسه لتوجيه النموذج نحو وجهة نظر محددة. وهذا يدحض الأسطورة القائلة بأن تلك النماذج محايدة ، بل بالعكس يمكن توجيه النموذج والتلاعب به من قبل شركات الذكاء الاصطناعي، وحتى الخصوم، لإخراج وجهة نظر معينة، مما يمنحهم سيطرة أكثر من اللازم على أنظمتنا العسكرية. وهذه ليست سوى قضية أمنية واحدة من بين العشرات التى تم الكشف عنها على مدى السنوات العديدة الماضية ولم تتم معالجتها بعد. إضافة إلى التحكم المستمر للشركات الغربية : حتى لو قامت الدول ببناء مراكز بيانات خاصة بها، كما تفعل المملكة العربية السعودية، فإن النماذج لا تزال تُدرّب بواسطة شركات مثل OpenAI والتى لا تزال تتمتع بقدر هائل من التحكم فى كيفية تطوير هذه النماذج، والبيانات المستخدمة، والمحاذاة (Alignment) أو التفضيلات التى يجب أن تتخذها هذه النماذج. وما هى الخطوات التى يجب اتخاذها من قبل الدول خاصة العربية؟ تحتاج المنطقة العربية إلى النظر بعناية فى الاعتماد الكامل على الشركات الغربية الخاصة خاصة فيما يتعلق بالبنية التحتية العسكرية، ليس فقط من منظور الأمن والسلامة، ولكن من المنظور الجيوسياسى . يجب أن تسعى المنطقة لتطوير نماذجها الأساسية لضمان السيادة التكنولوجية والتحكم المطلق فى الإعدادات الأمنية والمحاذاة الأخلاقية لتك الأنظمة. ما اللحظة الفارقة فى حياتك ؟ فى أبريل 2024، نشرت مجلة «972 Magazine» خبرا صادما مفاده أن أنظمة الذكاء الاصطناعى مثل «Gospel» و«Lavendar» كانت تُستخدم لتوليد قوائم استهداف ضخمة وغير دقيقة فى كثير من الأحيان، مما أدى إلى سقوط أعداد هائلة من الضحايا المدنيين. وكانت تلك هى اللحظة التى أدركت فيها أننى واحدة من القِلَّة القليلة الذين يمتلكون الخبرة فى الأنظمة الحرجة للسلامة، والدفاع، والذكاء الاصطناعي، ويمكنهم التحدث علانية حول هذا الأمر. هل كان لديك شعور مسبق بخطورة هذه النماذج؟ كنت واثقًة من أن نماذج اللغة الكبيرة (LLMs) على وشك أن تُستخدم، أو أنها كانت تُستخدم بالفعل، وكان لا بد من وجود صوت نزيه ومستقل يمكنه التحدث عن هذا المسار البالغ الخطورة الذى كنا على وشك دخوله من الناحية التكنولوجية والجيوسياسية. لو لم أفعل ذلك، لكنت شعرت بعجز أكبر، وبأننى لم أفعل كل ما بوسعى لاستخدام مهاراتى لمساعدة العالم والمنطقة العربية على حدٍ سواء . تختم الدكتورة هايدى خلال حديثها ، لتترك لنا صورة عالمة مصرية وعربية بارزة، حملت همّ منطقتها على عاتقها، ووضعت صوتها وخبرتها فى خدمة العالم، دفاعًا عن سلامة الإنسان ومستقبل أكثر أمانًا فى عصر الذكاء الاصطناعي.