الحق قدم| مرتبات تبدأ من 13 ألف جنيه.. التخصصات المطلوبة ل 1000 وظيفة بالضبعة النووية    محمد متولي: موقف الزمالك سليم في أزمة بنتايج وليس من حقه فسخ العقد    الوطنية للانتخابات: نتائج ال19 دائرة الملغاة وجولة الإعادة في إطسا الخميس المقبل    بدعم من البنوك و"أوكيو"، بورصة مسقط تحقق ثاني أعلى تداول سنوي في نوفمبر    محافظ الإسماعيلية يتابع استعدادات تشغيل مركز ISMAILIA OUTLET    بعد ارتفاع حدة التوترات مع واشنطن، 5600 جندي ينضمون للخدمة بالجيش الفنزويلي    بي إس جي ضد رين.. سان جيرمان يتقدم بثنائية في الشوط الأول    سلوت يتحدث عن عدم مشاركة محمد صلاح أمام ليدز    والدة السباح يوسف تكشف تفاصيل صادمة عن وفاته: ابني مات مقتولًا    انتشار فرق سحب المياه في عدة مناطق .. طوارئ في البحر الأحمر بسبب الأمطار    التحفظ على 5 مركبات تلقي المخلفات في الشوارع بكرداسة (صور)    المتسابق علي محمد يبهر جمهور "دولة التلاوة" بآيات من سورة النساء (فيديو)    خالد الجندي: الفتوحات الإسلامية كانت دفاعا عن الحرية الإنسانية    وكيل وزارة الصحة بكفر الشيخ يتفقد مستشفى دسوق العام    تقارير تكشف علاقة سارة نتنياهو باختيار رئيس الموساد الجديد.. اعرف التفاصيل    الجامعة اليابانية تبرز زيارة "أخبار اليوم".. شراكة لنموذج تعليمي فريد    أصالة تحسم جدل انفصالها عن فائق حسن : «الناس صارت قاسية»    النائب أمين مسعود: ضرورة وجود استراتيجية واضحة للصناعة    روسيا: 1.6 تريليون يورو خسائر الاتحاد الأوروبى بسبب العقوبات على موسكو    بعد 4 أشهر من الزفاف.. زوج ينهي حياة زوجته بالمنوفية    شيكابالا يطالب مجلس الزمالك بالرحيل بعد أسوأ فترات النادي    عمومية المحامين توافق على زيادة المعاشات وعزل مراقب الحسابات (فيديو)    أول ظهور فني لزوجة مصطفى قمر في كليب "مش هاشوفك"    محمد كريم على السجادة الحمراء لفيلم جوليت بينوش In-I in Motion بمهرجان البحر الأحمر    جولة إعلامية موسعة لوزير السياحة بالولايات المتحدة لتعزيز مكانة مصر على خريطة السياحة العالمية    طالب يُنهي حياته شنقًا داخل منزل أسرته في قنا    تعليق مفاجئ من حمزة العيلي على الانتقادات الموجهة للنجوم    «هيئة الكتاب» تدعم قصر ثقافة العريش بألف نسخة متنوعة    قطر وسوريا تبحثان تعزيز التعاون التجاري والصناعي    الأزهري يتفقد فعاليات اللجنة الثانية في اليوم الأول من المسابقة العالمية للقرآن الكريم    جامعة كفر الشيخ تنظم مسابقتي «المراسل التلفزيوني» و«الأفلام القصيرة» لنشر ثقافة الكلمة المسؤولة    قرار قضائي ضد مساعدة هالة صدقي في اتهامات بالتهديد والابتزاز    أسلوب حياة    بايرن ميونخ يكتسح شتوتجارت بخماسية.. وجولة مثيرة في الدوري الألماني    تقرير عن ندوة اللجنة الأسقفية للعدالة والسلام حول وثيقة نوسترا إيتاتي    جيش الاحتلال الإسرائيلي يصيب فلسطينيين اثنين بالرصاص شمال القدس    الجيش الباكستاني يعلن مقتل 9 مسلحين في عمليتين استخباراتيتين بولاية خيبر باختونخوا    سكرتير عام الجيزة يتابع جهود رفع الإشغالات وكفاءة النظاقة من داخل مركز السيطرة    محافظ الأقصر والسفيرة الأمريكية يفتتحان «الركن الأمريكي» بمكتبة مصر العامة    الإعدام لمتهم والمؤبد ل2 آخرين بقضية جبهة النصرة الثانية    الاتصالات: 22 وحدة تقدم خدمات التشخيص عن بُعد بمستشفى الصدر في المنصورة    نظام «ACI».. آلية متطورة تُسهل التجارة ولا تُطبق على الطرود البريدية أقل من 50 كجم    لماذا يزداد جفاف العين في الشتاء؟ ونصائح للتعامل معه    مفتي الجمهورية: التفاف الأُسر حول «دولة التلاوة» يؤكد عدم انعزال القرآن عن حياة المصريين    احذر.. الإفراط في فيتامين C قد يصيبك بحصى الكلى    الشرع: إسرائيل قابلت سوريا بعنف شديد وشنت عليها أكثر من ألف غارة ونفذت 400 توغل في أراضيها    فيلم السلم والثعبان.. لعب عيال يحصد 65 مليون جنيه خلال 24 يوم عرض    وزير الصحة يشهد انطلاق المسابقة العالمية للقرآن الكريم في نسختها ال32    مواقيت الصلاه اليوم السبت 6ديسمبر 2025 فى المنيا..... اعرف صلاتك بدقه    تحليل فيروسات B وC وHIV لمتعاطي المخدرات بالحقن ضمن خدمات علاج الإدمان المجانية في السويس    السيسي يوجه بمحاسبة عاجلة تجاه أي انفلات أخلاقي بالمدارس    اندلاع حريق ضخم يلتهم محتويات مصنع مراتب بقرية العزيزية في البدرشين    فليك يعلن قائمة برشلونة لمباراة ريال بيتيس في الليجا    اسعار المكرونه اليوم السبت 6ديسمبر 2025 فى أسواق ومحال المنيا    الصحة: توقعات بوصول نسبة كبار السن من السكان ل 10.6% بحلول 2050    الجزائر تواجه تحديًا جديدًا في كأس العرب 2025.. مواجهة قوية للسيطرة على صدارة المجموعة    مواجهة اليوم.. الكويت والأردن فى صراع النقاط الثلاث بكأس العرب 2025    مصر والإمارات على موعد مع الإثارة في كأس العرب 2025    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



الذكاء الاصطناعي أم الضمير.. من يحكم العالم؟
نشر في بوابة أخبار اليوم يوم 20 - 10 - 2025

◄ مطور تقني: كل نظام ذكاء اصطناعي له سلسلة قرارات بشرية تبدأ من اختيار البيانات مرورًا بكيفية تصنيفها وتنظيفها
◄ استشاري ذكاء اصطناعي: الوصول إلى ذكاء اصطناعي عادل تمامًا أمر غير ممكن.. وبناء نماذج محلية تفهم الثقافة واللهجات العربية يقلل التحيز
◄ خبير الأمن السيبراني: تحيّز الذكاء الاصطناعي في العالم العربي يحتاج إلى تكامل التقنية مع القيم الأخلاقية عبر تعزيز الشفافية وحوكمة البيانات
في عالم تتحكم فيه الخوارزميات، بما نراه ونسمعه ونفكر فيه، لم تعد المعلومة تولد من المسئول وحده، بل من كود صامت خلف الشاشة، ذلك الكود، الذي يفترض أن يكون «محايدًا»، صار يتهم اليوم بالانحياز، وبأنه يختار نيابة عنا ما نقرأ، ومن نصدق، بل وحتى من نمنحه تعاطفنا أو غضبنا.
من وراء سطور الذكاء الاصطناعي، تتسلل تحيزات بشرية في ثوب رقمي، بيانات ناقصة، وتصميمات تحمل قيما خفية، وخوارزميات تدعي العدالة بينما تكرس الفوارق.
وبينما تتسابق المؤسسات الإعلامية، لاستخدام أدوات الذكاء الاصطناعي، في التحرير والتوصية والتحليل، يطرح سؤال نفسه بإلحاح: هل صارت الخوارزميات شريكًا في صناعة الرأي.. أم في توجيهه؟
◄ كود خالي من الأخلاق
الذكاء الاصطناعي لا يعرف الحق من الباطل، هو فقط تمت برمجته على المعايير التي تبقيك أطول وقت أمام الشاشة، ما يقودنا إلى عدة أسألة من يضع المعايير الأخلاقية داخل هذه الخوازميات! وهل المبرمج يزرع «ضميره» في الكود الذي يغذي به الموديل، أم أن كل شركة تبرمج وفق مصالحها!؟
◄ تحيز ضد النساء
«ذكوري» هو لفظ يطلق على تفكير إنسان، وأحيانًا ما يمتد إلى المجمتع؛ لكن أن يتهم نظام ذكاء اصطناعي بالذكورية والتحيز ضد النساء فهو أمر مضحك مبكي في ذات الوقت. ففي عام 2018 أوقفت شركة «أمازون» نظامًا ذكيًا كانت تستخدمه لاختيار الموظفين، بعد أن اكتشفت أنه يستبعد المتقدمات من النساء بشكل غير مباشر.
السبب في استبعاد النساء هو أنه كان قد تم تدريب الخوارزمية على سير ذاتية قديمة أغلبها لرجال في مجالات التقنية،، فاستنتجت الخوارزمية أن «الذكورة» مؤشر على الكفاءة؛ بالإضافة إلى أن الخوارزمية بدأت تفضل السير التي تحتوي على خصائص ذكورية أو لغات وصفية مرتبطة بالرجال، وبدأت الخوارزميات تخفض تقييم أي سيرة تحتوي على كلمات مثل women أو خريجات كليات نسائية، حتى دون قصد.
اقرأ أيضا| الذكاء الاصطناعي يعزز سوق القياسات الحيوية وسط توسع في الهويات الوطنية
وكشفت القضية أن الخطر ليس في الآلة نفسها، بل في البيانات التي نغذيها بها، وأن التحيز الإنساني حين يبرمج يتحول إلى قرار آلي يبدو محايدًا، لكنه غير عادل. وبعد ملاحظة التحيز؛ بدأ الخبراء في أمازون تعديل الخوارزميات؛ ليكون التعامل محايدا مع الكلمات والمصطلحات، ورغم ذلك لم يكن هناك ضمان بأن التحيز لا يزال يظهر في أشكال أخرى؛ وفي النهاية، تم إلغاء هذا المشروع وحذف الخوارزمية من التداول الرسمي، لأن النتائج لم تكن مرضية من ناحية الأداء أو الحيادية.
◄ تحيز ضد البشرة والجنس
لم يقف التحيز عند النساء فقط، ففي دراسة حديثة لجامعة واشنطن بعنوان، استخدم الباحثون أكثر من 550 سيرة ذاتية حقيقية، وتم تعديل الأسماء لتمثل فئات مختلفة من حيث العرق والجنس مثل أسماء بيضاء وسوداء، ذكور وإناث.
وعند تحليل النتائج، تبين أن نماذج الذكاء الاصطناعي فضلت الأسماء المرتبطة بالبيض في 85% من الحالات، بينما اختارت الأسماء النسائية فقط في 11% من المرات، ولم تُفضل اسمًا لرجل أسود على رجل أبيض في أي حالة.
وكشف الباحثون أن التحيز لا يرتبط بالكود نفسه فقط، بل بالبيانات التي تم تدريبه عليها، وأنه حين تتغذى الآلة على تاريخ مليء بالتمييز، تعيد إنتاجه ولكن بذكاء أعلى ودون ضمير.
◄ خوارزميات المال.. من يستحق القرض؟
لم يسلم القطاع المالي، من التحيز الخوارزمي، ففي عام 2019 كشفت تحقيقات أمريكية أن خوارزمية بطاقات (Apple Card) التي كانت تعتمدها شركتا آبل و Goldman Sachs لتقييم العملاء، منحت الرجال حدود ائتمان أعلى بكثير من النساء، حتى في الحالات التي تتساوى فيها الدخل والسجلات البنكية.
اقرأ أيضا| منى ماهر تكتب: الإنسان في زمن ال AI مخيّر أم مسيّر ؟
وبدأت القضية عندما نشر أحد مطوري التكنولوجيا تغريدة قال فيها إن بطاقته حصلت على حد ائتماني أكبر ب 20 ضعفًا من زوجته رغم أن سجلها المالي أفضل، لتنهال بعدها مئات الشكاوى المشابهة.
ورغم نفي الشركات وجود نية للتمييز، أكدت الجهات الرقابية أن الخوارزمية كانت تتخذ قرارات متحيزة ضمنيًا، بناء على بيانات التدريب السابقة، وليس على معايير مالية عادلة.
◄ توجيه الرأي العام
تجاوزت قدرة الخوارزميات مجال التسويق، ووصلت إلى توجيه الرأي العام، وهنا يصبح السؤال، هل نعيش حرية حقيقية؟ أم اختياراتنا موجهة بالذكاء الاصطناعي؟ فهل فكرت أن قدرات ففي خلال الانتخابات والأزمات العالمية، يتم ترتيب الأخبار بشكل معين، وتضخيم ونشر محتوى عن محتويات أخرى، فأصبحت هناك برمجة للقرارات الإنسانية، ولم يعد الخطر في التحكم بلا في أن يختفي معنى الاختيار من الأساس.
◄ حين تفضل الآلة لون البشرة
في عام 2018، كشفت الباحثتان جوي بولامويني وتمنيت جبرو، من معمل MIT عن واحدة من أوضح صور التحيز في الذكاء الاصطناعي.
واختبرت الباحثتان أنظمة التعرف على الوجوه لدى شركات عالمية، فكانت المفاجأة: البرامج أخطأت بنسبة مرتفعة عندما تعرفت على نساء ذوات بشرة داكنة، بينما كانت أكثر دقة مع الرجال ذوي البشرة الفاتحة. النتيجة كانت صادمة للعالم التقني: الخوارزمية ترى، لكنها لا تفهم المساواة.
وقالت الدراسة: «أظهرت أنظمة تحليل الوجوه التجارية فروقًا كبيرة في الدقة حسب الجنس ونوع البشرة». ومن هنا بدأ الحديث الجاد عن «التحيز التقاطعي»، أي أن الجمع بين جنس ولون معين قد يجعل الذكاء الاصطناعي أكثر ظلما لمن يخرج عن «النموذج الأبيض الذكوري»، الذي دربت عليه البيانات.
◄ إنترفيو مع ai
هل تخيلت يومًا أن ترفض في وظيفة لأن برنامجا لم «يعجب» بتعبيرات وجهك؟
في بحث بعنوان «تخفيف التحيز في التوظيف الآلي»، حلل فريق من جامعة كورنيل كيف تستخدم الخوارزميات في فرز المتقدمين للوظائف.
ووجد الباحثون أن هذه الأنظمة غالبًا ما تعيد إنتاج التحيزات القديمة الموجودة في بيانات الموارد البشرية: فالخوارزمية التي تتعلم من تاريخ شركة يهيمن عليها الرجال، ستفضل الرجال لاحقا، ببساطة لأنها «تعلمت» أن هذا هو النموذج الناجح، ولذلك فحتى الذكاء الاصطناعي قد يحمل تحيزات من الماضي إن لم يخضع لتربية جديدة.
◄ مايكروسوفت والاعتراف بالخطيئة التقنية
في تقريرها السنوي لعام 2025 بعنوان «الذكاء الاصطناعي المسؤول»، اعترفت مايكروسوفت أن الخوارزميات يمكن أن تؤذي الناس، وأن الحل لا يكون فقط بالكود، بل بالحوكمة والشفافية والمساءلة. ويظهر التقرير تحولا مهما في موقف الشركات الكبرى: من الدفاع إلى الاعتراف بوجود تحيزات فعلية.
وأكدت مايكروسوفت «نواصل تطوير الأدوات والحوكمة لمعالجة أضرار وتحيزات الذكاء الاصطناعي». ومع ذلك، يذكرنا التقرير بأن الخطر لا يزول بالتصريحات. فالتطبيقات اليومية ما زالت تفضل لهجات ووجوها وأنماط سلوك محددة على أخرى. المشكلة ليست في نية الشركة، بل في بنية الخوارزمية نفسها.
◄ منظمة العفو الدولية: العنصرية الآلية وجه جديد للمراقبة
في تقارير متعددة تحت عنوان «Ban the Scan» و «Automated Racism»، رصدت منظمة العفو الدولية كيف تستخدم أنظمة التعرف على الوجوه في مدن كثيرة بطريقة تعمق العنصرية بدلًا من محاربتها، فالأنظمة تخطئ أكثر حين تتعامل مع الوجوه السمراء أو النساء، مما يجعلها أداة ظالمة في يد سلطات إنفاذ القانون.
◄ الآلة لا تميز الواقع والعدالة
من جانبه، أكد المهندس شحاتة السيد، مهندس ومطور في تقنيات الذكاء الاصطناعي، أن التحيز لا يولد داخل الخوارزمية، بل في المراحل التي تسبقها، لأن في كل نظام ذكاء اصطناعي هناك سلسلة قرارات بشرية تبدأ من اختيار البيانات، مرورًا بكيفية تصنيفها وتنظيفها، وصولًا إلى تحديد ما يعتبر «صحيحًا» وما يستبعد، وهنا تحديدا تنشأ البذرة الأولى للتحيز حين تكون البيانات انعكاسًا لواقع غير متوازن أو مليء بالصور النمطية، فالآلة تتعلمه كما هو، هي لا تميّز بين الواقع والعدالة، بل تنقل ما تراه إلى خوارزميات التنبؤ والتصنيف.
وأضاف أن تصميم النموذج يمكن أن يضاعف هذا الخلل، لأن كل خوارزمية تبنى وفق فرضيات معينة وهذه الفرضيات هي ترجمة غير معلنة لرؤية من صممها، لذلك فالمشكلة ليست في الذكاء الاصطناعي ككيان تقني، بل في الفلسفة التي يقف عليها والخوارزمية لا تتحيز من تلقاء نفسها، بل تتغذى على ما نُطعمها به.
◄ التحيز في الذكاء الاصطناعي.. مرآة لميول البشر
يُعرف محمد جمعة، استشاري الذكاء الاصطناعي ومهندس حلول تقنية التحيّز في أنظمة الذكاء الاصطناعي بأنه ميل النظام لإعطاء نتائج مفضّلة لفئة أو صورة نمطية معينة - سواء كانت تتعلق بلون البشرة، أو النوع، أو السن، أو حتى الثقافة واللغة.
اقرأ أيضا| من الحبر إلى النفوذ.. كيف ترسم توقيعات وثيقة السلام خريطة المنطقة؟
ويشرح «جمعة» أن هذا التحيّز لا ينبع من الكود نفسه، وإنما من البيانات التي تُغذّى بها النماذج الذكية. فالنظام يتعلّم مما يقدمه البشر من معلومات، وإذا كانت هذه البيانات متحيّزة - مثل تفضيل الذكور على الإناث، أو ثقافات محددة على أخرى - فسوف يعكس النموذج تلك التحيزات في مخرجاته.
وتابع: «ويضرب مثالًا بنماذج التعرف على الوجوه، التي أظهرت أداءً أدق مع الذكور أصحاب البشرة البيضاء مقارنة بغيرهم، وهو ما ظهر بوضوح في بعض أنظمة جوجل في بداياتها. كذلك في أنظمة التوظيف، إذا تم تدريبها على بيانات تفضل أصحاب الخبرة، فإنها قد تستبعد حديثي التخرج حتى وإن كانوا أكثر كفاءة.. أما في مجال القروض البنكية، فيميل الذكاء الاصطناعي إلى تفضيل أصحاب السجلات الائتمانية الجيدة تلقائيا، بغض النظر عن العوامل الأخرى».
◄ هبل يمكن الوصول إلى ذكاء اصطناعي عادل؟
ويضيف «جمعة» أن التحيز يظهر أيضا في الترجمة الآلية، إذ تكون النتائج أكثر دقة في اللغة الإنجليزية، بينما تضعف في اللهجات أو اللغات الأقل تمثيلًا في البيانات التدريبية.
ويضرب مثالًا تطبيقيًا: «في بدايات شات GPT، لم يكن يفهم اللهجة المصرية جيدًا، لكنه مع الوقت والتدريب على بيانات أكثر تنوعًا، أصبح أكثر استيعابًا لها».
ويرى «جمعة» أن الوصول إلى ذكاء اصطناعي عادل تمامًا أمر غير ممكن، لأن البيانات الواقعية نفسها غير عادلة. ومع ذلك، يمكن تقليل التحيز ببناء نماذج محلية تفهم الثقافة واللهجات العربية، مثل نموذج «عَلام» السعودي، الذي تم تدريبه على بيانات عربية متعددة اللهجات لتقديم إجابات أقرب إلى البيئة المحلية.
ويؤكد على ضرورة وضع معايير عربية منصفة لتقييم أداء النماذج، وضمان توافقها مع اللغة والثقافة الإقليمية، مشيرًا إلى تجربة مجمع الملك سلمان للغة العربية في تطوير تلك المعايير. كما يمكن - بحسب جمعة - اكتشاف التحيز في أي نموذج من خلال اختبارات الأداء، وقياس تفاعله مع عينات متنوعة من المستخدمين، بما يضمن كشف أي خلل أو ميل غير مقصود في نتائجه.
◄ ثغرات أخلاقية وأمنية
وفي ذات السياق، أوضح هيثم غلوش، خبير الأمن السيبراني، أن التحيز في أنظمة الذكاء الاصطناعي يعد شكلا من أشكال الثغرات الأخلاقية والأمنية، لأنه يمثل خطرا تشغيليا واجتماعيا يمكن استغلاله ويقع ضمن ما يسمى «مخاطر الثقة» في الذكاء الاصطناعي، وفقًا لإطارات العمل المعتمدة مثل NIST وISO.
وأضاف أن التحيز في البيانات أو الخوارزميات يمكن أن يؤدي إلى تهديدات أمنية فعلية مثل التضليل أو استهداف فئات معينة، موضحًا أن هذا النوع من التحيز لا ينتج عن الكود نفسه، بل من البيانات التي يتعلم منها النظام.
وأشار إلى أن مظاهر التحيز تظهر في قطاعات متعددة، أبرزها الرعاية الصحية حين يؤدي إلى تشخيصات خاطئة أو حرمان فئات من العلاج، وفي القطاع المالي عند تقييم الائتمان بشكل غير عادل، وفي أنظمة إنفاذ القانون عبر أخطاء التعرف على الوجه أو قرارات مجحفة، إضافة إلى التمييز في التوظيف أو الترقيات، واستبعاد فئات من الحملات الإعلانية بشكل غير منصف.
◄ قوانين دولية صارمة
وأكد «غلوش» أن معالجة التحيز تتطلب مراجعات أخلاقية إلزامية ضمن سياسات الأمان، وتطبيق أطر تنظيمية مثل EU AI Act وNIST AI RMF، إلى جانب اختبارات عدالة مستمرة وفرق متخصصة لاكتشاف الانحياز.
وشدد على أن مراجعة أخلاقيات الذكاء الاصطناعي يجب أن تكون جزءًا أساسيا من إجراءات الأمان داخل المؤسسات التقنية، موضحا أن دمج الأخلاقيات في منظومة الأمان لم يعد رفاهية تنظيمية بل ضرورة لضمان سلامة الأنظمة وثقة المستخدمين.
وأوضح أن القوانين الدولية بدأت تتعامل بصرامة مع هذه القضايا، حيث يفرض الاتحاد الأوروبي في قانون AI Act 2025 غرامات تصل إلى 35 مليون يورو أو 7٪ من الإيرادات على الشركات التي تنتج أنظمة منحازة. كما تحمل هيئة التجارة الفيدرالية الأمريكية (FTC) وهيئة تكافؤ فرص العمل (EEOC) الشركات المسؤولية القانونية عن أي ممارسات تمييزية في القرارات الآلية.
وأشار إلى أن الدول العربية بدأت اتخاذ خطوات مماثلة، مثل الاستراتيجية الوطنية للذكاء الاصطناعي في مصر، ومبادئ الهيئة السعودية للبيانات والذكاء الاصطناعي (SDAIA)، والإطار الأخلاقي للذكاء الاصطناعي في الإمارات، والتي تُلزم جميعها الجهات التقنية بتطبيق العدالة والشفافية قبل إطلاق الأنظمة.
واختتم «غلوش» حديثه بأن الحد من تحيّز الذكاء الاصطناعي في العالم العربي يحتاج إلى تكامل التقنية مع القيم الأخلاقية، عبر تعزيز الشفافية وحوكمة البيانات واختبارات العدالة والتحقق البشري في القرارات الحساسة، إلى جانب تنويع فرق التطوير وتأسيس لجان رقابة وتشريعات وطنية، مؤكدًا أن بناء أنظمة ذكاء اصطناعي عادلة ومسؤولة يبدأ من تعليم الجيل الجديد من المهندسين القيم قبل الكود.


انقر هنا لقراءة الخبر من مصدره.