انطلاق فعاليات المبادرة القومية "أسرتي قوتي" بديوان عام محافظة الجيزة    صديق للبيئة.. طلاب تربية نوعية الفيوم يبدعون في معرض "فنون مستدامة".. صور    رئيس جامعة كفر الشيخ يتفقد معامل ومدرجات الطب البيطري لمتابعة أعمال التطوير    محافظة الأقصر تناقش إقامة مركز تأهيلي لذوي الهمم في إسنا    بريطانيا تتراجع 5 مراتب في تصنيف التنافسية الضريبية العالمي بعد زيادة الضرائب    مفوضة أوروبية: وقف النار في غزة هش ويجب إسكات الأسلحة    إلغاء مباراة الأهلي وبيراميدز في دوري الناشئين بسبب ركلة جزاء    حقيقة مفاوضات حسام عبد المجيد مع بيراميدز    روني: إيزاك لا يستحق اللعب أساسيا في ليفربول    وكيل تعليم الفيوم يشيد بتفعيل "منصة Quero" لدى طلاب الصف الأول الثانوي العام.. صور    نيابة الإسماعيلية تستدعي باعة الأدوات المستخدمة في قتل ضحية المنشار    إحالة ممرضة تسببت في حريق بمستشفى حلوان العام للمحاكمة    هيئة السكة الحديد تعلن مواعيد قطارات المنيا – القاهرة اليوم    حوار| وائل جسار: مصر بلد الفن.. ووجودى فيها تكريم لمسيرتى الفنية    إسراء عصام: أشارك للسنة الثانية في مهرجان الموسيقى العربية.. وأغني "أنساك" تكريمًا لكوكب الشرق    نقابة الأشراف تعليقا على جدل مولد السيد البدوي: الاحتفال تعبير عن محبة المصريين لآل البيت    1850 مواطنًا يستفيدون من قافلة جامعة الفيوم الطبية بقرية سنرو القبلية بأبشواي.. صور    محافظ أسوان يتفقد مركز الأورام ضمن منظومة التأمين الصحي الشامل    أمير عيد يتلقى عزاء والدته بمسجد حسين صدقى فى المعادي    محمد الحمصانى: طرحنا أفكارا لإحياء وتطوير مسار العائلة المقدسة    نساء 6 أبراج تجلبن السعادة والطاقة الإيجابية لشركائهن    المغرب يستضيف بطولة للكرة النسائية بمشاركة تاريخية لمنتخب أفغانستان    أمينة الفتوى: الزكاة ليست مجرد عبادة مالية بل مقياس لعلاقة الإنسان بربه    هل يشترط وجود النية في الطلاق؟.. أمين الفتوى يوضح    تكريم ستة فائزين بمسابقة المنصور الجامعة للأمن السيبراني    سيراميكا كليوباترا: الأهلي فاوض أحمد هاني.. ولا مانع لانتقال القندوسي إلى الزمالك    «القومي للبحوث» يناقش تطوير علم الجينوم بمشاركة خبراء من 13 دولة    نتنياهو: مصرون على تحقيق جميع أهداف الحرب في غزة ونزع سلاح حماس    مصر ترحب باتفاق وقف إطلاق النار بين باكستان وأفغانستان    هشام جمال يكشف تفاصيل لأول مرة عن زواجه من ليلى زاهر    مصدر من الأهلي ل في الجول: ننتظر حسم توروب لمقترح تواجد أمير عبد الحميد بالجهاز الفني    ليست الأولى.. تسلسل زمني ل محاولة اغتيال ترامب (لماذا تتكرر؟)    "بين ثنايا الحقيقة" على مسرح السامر ضمن ملتقى شباب المخرجين    تشغيل 6 أتوبيسات جديدة غرب الإسكندرية لتيسير حركة المرور    بعد تهنئة إسرائيل له.. من هو الرئيس البوليفي الجديد رودريغو باز؟    حزن وبكاء خلال تشييع جثمان مدرب حراس المرمى بنادى الرباط ببورسعيد.. صور    قرار وزارى بإعادة تنظيم التقويم التربوى لمرحلة الشهادة الإعدادية    مركزان ثقافيان وجامعة.. اتفاق مصري - كوري على تعزيز التعاون في التعليم العالي    الأمين العام الجديد للشيوخ يجتمع بالعاملين لبحث أليات العمل    «العمل»: التفتيش على 1730 منشأة بالمحافظات خلال 19 يومًا    مجلس إدارة راية لخدمات مراكز الاتصالات يرفض عرض استحواذ راية القابضة لتدني قيمته    وزير الخارجية: نقدر جهود الدكتور مجدي يعقوب في تسخير العلم والخبرة لخدمة الفئات الأكثر احتياجا داخل مصر وخارجها    لعظام أقوى.. تعرف على أهم الأطعمة والمشروبات التي تقيك من هشاشة العظام    وزير الصحة يطلق جائزة مصر للتميز الحكومي للقطاع الصحي    موانئ البحر الأحمر: تصدير 49 الف طن فوسفات عبر ميناء سفاجا    الرئيس السيسي يوجه بمواصلة جهود تحسين أحوال الأئمة والخطباء والدعاة    طالب يطعن زميله باله حادة فى أسيوط والمباحث تلقى القبض عليه    تأجيل محاكمة 3 متهمين بالتنظيم الثلاثي المسلح لسماع أقوال شاهد الإثبات الأول    اتصالان هاتفيان لوزير الخارجية مع وزيري خارجية فرنسا والدنمارك    علي هامش مهرجان الجونة .. إلهام شاهين تحتفل بمرور 50 عامًا على مشوار يسرا الفني .. صور    «نقابة العاملين»: المجلس القومي للأجور مطالب بمراجعة الحد الأدنى كل 6 أشهر    التنظيم والإدارة يعلن عن مسابقة لشغل 330 وظيفة مهندس بوزارة الموارد المائية    سعر الأرز الأبيض والشعير للمستهلك اليوم الإثنين 20اكتوبر 2025 فى المنيا    روح الفريق بين الانهيار والانتصار    حبس المتهم بانتحال صفة موظف بخدمة عملاء بنك للنصب على مواطنين بالمنيا    تقارير: اتحاد جدة ينهي تجديد عقد نجم الفريق    د. أمل قنديل تكتب: السلوكيات والوعي الثقافي    سهام فودة تكتب: اللعب بالنار    







شكرا على الإبلاغ!
سيتم حجب هذه الصورة تلقائيا عندما يتم الإبلاغ عنها من طرف عدة أشخاص.



الذكاء الاصطناعي أم الضمير.. من يحكم العالم؟
نشر في بوابة أخبار اليوم يوم 20 - 10 - 2025

◄ مطور تقني: كل نظام ذكاء اصطناعي له سلسلة قرارات بشرية تبدأ من اختيار البيانات مرورًا بكيفية تصنيفها وتنظيفها
◄ استشاري ذكاء اصطناعي: الوصول إلى ذكاء اصطناعي عادل تمامًا أمر غير ممكن.. وبناء نماذج محلية تفهم الثقافة واللهجات العربية يقلل التحيز
◄ خبير الأمن السيبراني: تحيّز الذكاء الاصطناعي في العالم العربي يحتاج إلى تكامل التقنية مع القيم الأخلاقية عبر تعزيز الشفافية وحوكمة البيانات
في عالم تتحكم فيه الخوارزميات، بما نراه ونسمعه ونفكر فيه، لم تعد المعلومة تولد من المسئول وحده، بل من كود صامت خلف الشاشة، ذلك الكود، الذي يفترض أن يكون «محايدًا»، صار يتهم اليوم بالانحياز، وبأنه يختار نيابة عنا ما نقرأ، ومن نصدق، بل وحتى من نمنحه تعاطفنا أو غضبنا.
من وراء سطور الذكاء الاصطناعي، تتسلل تحيزات بشرية في ثوب رقمي، بيانات ناقصة، وتصميمات تحمل قيما خفية، وخوارزميات تدعي العدالة بينما تكرس الفوارق.
وبينما تتسابق المؤسسات الإعلامية، لاستخدام أدوات الذكاء الاصطناعي، في التحرير والتوصية والتحليل، يطرح سؤال نفسه بإلحاح: هل صارت الخوارزميات شريكًا في صناعة الرأي.. أم في توجيهه؟
◄ كود خالي من الأخلاق
الذكاء الاصطناعي لا يعرف الحق من الباطل، هو فقط تمت برمجته على المعايير التي تبقيك أطول وقت أمام الشاشة، ما يقودنا إلى عدة أسألة من يضع المعايير الأخلاقية داخل هذه الخوازميات! وهل المبرمج يزرع «ضميره» في الكود الذي يغذي به الموديل، أم أن كل شركة تبرمج وفق مصالحها!؟
◄ تحيز ضد النساء
«ذكوري» هو لفظ يطلق على تفكير إنسان، وأحيانًا ما يمتد إلى المجمتع؛ لكن أن يتهم نظام ذكاء اصطناعي بالذكورية والتحيز ضد النساء فهو أمر مضحك مبكي في ذات الوقت. ففي عام 2018 أوقفت شركة «أمازون» نظامًا ذكيًا كانت تستخدمه لاختيار الموظفين، بعد أن اكتشفت أنه يستبعد المتقدمات من النساء بشكل غير مباشر.
السبب في استبعاد النساء هو أنه كان قد تم تدريب الخوارزمية على سير ذاتية قديمة أغلبها لرجال في مجالات التقنية،، فاستنتجت الخوارزمية أن «الذكورة» مؤشر على الكفاءة؛ بالإضافة إلى أن الخوارزمية بدأت تفضل السير التي تحتوي على خصائص ذكورية أو لغات وصفية مرتبطة بالرجال، وبدأت الخوارزميات تخفض تقييم أي سيرة تحتوي على كلمات مثل women أو خريجات كليات نسائية، حتى دون قصد.
اقرأ أيضا| الذكاء الاصطناعي يعزز سوق القياسات الحيوية وسط توسع في الهويات الوطنية
وكشفت القضية أن الخطر ليس في الآلة نفسها، بل في البيانات التي نغذيها بها، وأن التحيز الإنساني حين يبرمج يتحول إلى قرار آلي يبدو محايدًا، لكنه غير عادل. وبعد ملاحظة التحيز؛ بدأ الخبراء في أمازون تعديل الخوارزميات؛ ليكون التعامل محايدا مع الكلمات والمصطلحات، ورغم ذلك لم يكن هناك ضمان بأن التحيز لا يزال يظهر في أشكال أخرى؛ وفي النهاية، تم إلغاء هذا المشروع وحذف الخوارزمية من التداول الرسمي، لأن النتائج لم تكن مرضية من ناحية الأداء أو الحيادية.
◄ تحيز ضد البشرة والجنس
لم يقف التحيز عند النساء فقط، ففي دراسة حديثة لجامعة واشنطن بعنوان، استخدم الباحثون أكثر من 550 سيرة ذاتية حقيقية، وتم تعديل الأسماء لتمثل فئات مختلفة من حيث العرق والجنس مثل أسماء بيضاء وسوداء، ذكور وإناث.
وعند تحليل النتائج، تبين أن نماذج الذكاء الاصطناعي فضلت الأسماء المرتبطة بالبيض في 85% من الحالات، بينما اختارت الأسماء النسائية فقط في 11% من المرات، ولم تُفضل اسمًا لرجل أسود على رجل أبيض في أي حالة.
وكشف الباحثون أن التحيز لا يرتبط بالكود نفسه فقط، بل بالبيانات التي تم تدريبه عليها، وأنه حين تتغذى الآلة على تاريخ مليء بالتمييز، تعيد إنتاجه ولكن بذكاء أعلى ودون ضمير.
◄ خوارزميات المال.. من يستحق القرض؟
لم يسلم القطاع المالي، من التحيز الخوارزمي، ففي عام 2019 كشفت تحقيقات أمريكية أن خوارزمية بطاقات (Apple Card) التي كانت تعتمدها شركتا آبل و Goldman Sachs لتقييم العملاء، منحت الرجال حدود ائتمان أعلى بكثير من النساء، حتى في الحالات التي تتساوى فيها الدخل والسجلات البنكية.
اقرأ أيضا| منى ماهر تكتب: الإنسان في زمن ال AI مخيّر أم مسيّر ؟
وبدأت القضية عندما نشر أحد مطوري التكنولوجيا تغريدة قال فيها إن بطاقته حصلت على حد ائتماني أكبر ب 20 ضعفًا من زوجته رغم أن سجلها المالي أفضل، لتنهال بعدها مئات الشكاوى المشابهة.
ورغم نفي الشركات وجود نية للتمييز، أكدت الجهات الرقابية أن الخوارزمية كانت تتخذ قرارات متحيزة ضمنيًا، بناء على بيانات التدريب السابقة، وليس على معايير مالية عادلة.
◄ توجيه الرأي العام
تجاوزت قدرة الخوارزميات مجال التسويق، ووصلت إلى توجيه الرأي العام، وهنا يصبح السؤال، هل نعيش حرية حقيقية؟ أم اختياراتنا موجهة بالذكاء الاصطناعي؟ فهل فكرت أن قدرات ففي خلال الانتخابات والأزمات العالمية، يتم ترتيب الأخبار بشكل معين، وتضخيم ونشر محتوى عن محتويات أخرى، فأصبحت هناك برمجة للقرارات الإنسانية، ولم يعد الخطر في التحكم بلا في أن يختفي معنى الاختيار من الأساس.
◄ حين تفضل الآلة لون البشرة
في عام 2018، كشفت الباحثتان جوي بولامويني وتمنيت جبرو، من معمل MIT عن واحدة من أوضح صور التحيز في الذكاء الاصطناعي.
واختبرت الباحثتان أنظمة التعرف على الوجوه لدى شركات عالمية، فكانت المفاجأة: البرامج أخطأت بنسبة مرتفعة عندما تعرفت على نساء ذوات بشرة داكنة، بينما كانت أكثر دقة مع الرجال ذوي البشرة الفاتحة. النتيجة كانت صادمة للعالم التقني: الخوارزمية ترى، لكنها لا تفهم المساواة.
وقالت الدراسة: «أظهرت أنظمة تحليل الوجوه التجارية فروقًا كبيرة في الدقة حسب الجنس ونوع البشرة». ومن هنا بدأ الحديث الجاد عن «التحيز التقاطعي»، أي أن الجمع بين جنس ولون معين قد يجعل الذكاء الاصطناعي أكثر ظلما لمن يخرج عن «النموذج الأبيض الذكوري»، الذي دربت عليه البيانات.
◄ إنترفيو مع ai
هل تخيلت يومًا أن ترفض في وظيفة لأن برنامجا لم «يعجب» بتعبيرات وجهك؟
في بحث بعنوان «تخفيف التحيز في التوظيف الآلي»، حلل فريق من جامعة كورنيل كيف تستخدم الخوارزميات في فرز المتقدمين للوظائف.
ووجد الباحثون أن هذه الأنظمة غالبًا ما تعيد إنتاج التحيزات القديمة الموجودة في بيانات الموارد البشرية: فالخوارزمية التي تتعلم من تاريخ شركة يهيمن عليها الرجال، ستفضل الرجال لاحقا، ببساطة لأنها «تعلمت» أن هذا هو النموذج الناجح، ولذلك فحتى الذكاء الاصطناعي قد يحمل تحيزات من الماضي إن لم يخضع لتربية جديدة.
◄ مايكروسوفت والاعتراف بالخطيئة التقنية
في تقريرها السنوي لعام 2025 بعنوان «الذكاء الاصطناعي المسؤول»، اعترفت مايكروسوفت أن الخوارزميات يمكن أن تؤذي الناس، وأن الحل لا يكون فقط بالكود، بل بالحوكمة والشفافية والمساءلة. ويظهر التقرير تحولا مهما في موقف الشركات الكبرى: من الدفاع إلى الاعتراف بوجود تحيزات فعلية.
وأكدت مايكروسوفت «نواصل تطوير الأدوات والحوكمة لمعالجة أضرار وتحيزات الذكاء الاصطناعي». ومع ذلك، يذكرنا التقرير بأن الخطر لا يزول بالتصريحات. فالتطبيقات اليومية ما زالت تفضل لهجات ووجوها وأنماط سلوك محددة على أخرى. المشكلة ليست في نية الشركة، بل في بنية الخوارزمية نفسها.
◄ منظمة العفو الدولية: العنصرية الآلية وجه جديد للمراقبة
في تقارير متعددة تحت عنوان «Ban the Scan» و «Automated Racism»، رصدت منظمة العفو الدولية كيف تستخدم أنظمة التعرف على الوجوه في مدن كثيرة بطريقة تعمق العنصرية بدلًا من محاربتها، فالأنظمة تخطئ أكثر حين تتعامل مع الوجوه السمراء أو النساء، مما يجعلها أداة ظالمة في يد سلطات إنفاذ القانون.
◄ الآلة لا تميز الواقع والعدالة
من جانبه، أكد المهندس شحاتة السيد، مهندس ومطور في تقنيات الذكاء الاصطناعي، أن التحيز لا يولد داخل الخوارزمية، بل في المراحل التي تسبقها، لأن في كل نظام ذكاء اصطناعي هناك سلسلة قرارات بشرية تبدأ من اختيار البيانات، مرورًا بكيفية تصنيفها وتنظيفها، وصولًا إلى تحديد ما يعتبر «صحيحًا» وما يستبعد، وهنا تحديدا تنشأ البذرة الأولى للتحيز حين تكون البيانات انعكاسًا لواقع غير متوازن أو مليء بالصور النمطية، فالآلة تتعلمه كما هو، هي لا تميّز بين الواقع والعدالة، بل تنقل ما تراه إلى خوارزميات التنبؤ والتصنيف.
وأضاف أن تصميم النموذج يمكن أن يضاعف هذا الخلل، لأن كل خوارزمية تبنى وفق فرضيات معينة وهذه الفرضيات هي ترجمة غير معلنة لرؤية من صممها، لذلك فالمشكلة ليست في الذكاء الاصطناعي ككيان تقني، بل في الفلسفة التي يقف عليها والخوارزمية لا تتحيز من تلقاء نفسها، بل تتغذى على ما نُطعمها به.
◄ التحيز في الذكاء الاصطناعي.. مرآة لميول البشر
يُعرف محمد جمعة، استشاري الذكاء الاصطناعي ومهندس حلول تقنية التحيّز في أنظمة الذكاء الاصطناعي بأنه ميل النظام لإعطاء نتائج مفضّلة لفئة أو صورة نمطية معينة - سواء كانت تتعلق بلون البشرة، أو النوع، أو السن، أو حتى الثقافة واللغة.
اقرأ أيضا| من الحبر إلى النفوذ.. كيف ترسم توقيعات وثيقة السلام خريطة المنطقة؟
ويشرح «جمعة» أن هذا التحيّز لا ينبع من الكود نفسه، وإنما من البيانات التي تُغذّى بها النماذج الذكية. فالنظام يتعلّم مما يقدمه البشر من معلومات، وإذا كانت هذه البيانات متحيّزة - مثل تفضيل الذكور على الإناث، أو ثقافات محددة على أخرى - فسوف يعكس النموذج تلك التحيزات في مخرجاته.
وتابع: «ويضرب مثالًا بنماذج التعرف على الوجوه، التي أظهرت أداءً أدق مع الذكور أصحاب البشرة البيضاء مقارنة بغيرهم، وهو ما ظهر بوضوح في بعض أنظمة جوجل في بداياتها. كذلك في أنظمة التوظيف، إذا تم تدريبها على بيانات تفضل أصحاب الخبرة، فإنها قد تستبعد حديثي التخرج حتى وإن كانوا أكثر كفاءة.. أما في مجال القروض البنكية، فيميل الذكاء الاصطناعي إلى تفضيل أصحاب السجلات الائتمانية الجيدة تلقائيا، بغض النظر عن العوامل الأخرى».
◄ هبل يمكن الوصول إلى ذكاء اصطناعي عادل؟
ويضيف «جمعة» أن التحيز يظهر أيضا في الترجمة الآلية، إذ تكون النتائج أكثر دقة في اللغة الإنجليزية، بينما تضعف في اللهجات أو اللغات الأقل تمثيلًا في البيانات التدريبية.
ويضرب مثالًا تطبيقيًا: «في بدايات شات GPT، لم يكن يفهم اللهجة المصرية جيدًا، لكنه مع الوقت والتدريب على بيانات أكثر تنوعًا، أصبح أكثر استيعابًا لها».
ويرى «جمعة» أن الوصول إلى ذكاء اصطناعي عادل تمامًا أمر غير ممكن، لأن البيانات الواقعية نفسها غير عادلة. ومع ذلك، يمكن تقليل التحيز ببناء نماذج محلية تفهم الثقافة واللهجات العربية، مثل نموذج «عَلام» السعودي، الذي تم تدريبه على بيانات عربية متعددة اللهجات لتقديم إجابات أقرب إلى البيئة المحلية.
ويؤكد على ضرورة وضع معايير عربية منصفة لتقييم أداء النماذج، وضمان توافقها مع اللغة والثقافة الإقليمية، مشيرًا إلى تجربة مجمع الملك سلمان للغة العربية في تطوير تلك المعايير. كما يمكن - بحسب جمعة - اكتشاف التحيز في أي نموذج من خلال اختبارات الأداء، وقياس تفاعله مع عينات متنوعة من المستخدمين، بما يضمن كشف أي خلل أو ميل غير مقصود في نتائجه.
◄ ثغرات أخلاقية وأمنية
وفي ذات السياق، أوضح هيثم غلوش، خبير الأمن السيبراني، أن التحيز في أنظمة الذكاء الاصطناعي يعد شكلا من أشكال الثغرات الأخلاقية والأمنية، لأنه يمثل خطرا تشغيليا واجتماعيا يمكن استغلاله ويقع ضمن ما يسمى «مخاطر الثقة» في الذكاء الاصطناعي، وفقًا لإطارات العمل المعتمدة مثل NIST وISO.
وأضاف أن التحيز في البيانات أو الخوارزميات يمكن أن يؤدي إلى تهديدات أمنية فعلية مثل التضليل أو استهداف فئات معينة، موضحًا أن هذا النوع من التحيز لا ينتج عن الكود نفسه، بل من البيانات التي يتعلم منها النظام.
وأشار إلى أن مظاهر التحيز تظهر في قطاعات متعددة، أبرزها الرعاية الصحية حين يؤدي إلى تشخيصات خاطئة أو حرمان فئات من العلاج، وفي القطاع المالي عند تقييم الائتمان بشكل غير عادل، وفي أنظمة إنفاذ القانون عبر أخطاء التعرف على الوجه أو قرارات مجحفة، إضافة إلى التمييز في التوظيف أو الترقيات، واستبعاد فئات من الحملات الإعلانية بشكل غير منصف.
◄ قوانين دولية صارمة
وأكد «غلوش» أن معالجة التحيز تتطلب مراجعات أخلاقية إلزامية ضمن سياسات الأمان، وتطبيق أطر تنظيمية مثل EU AI Act وNIST AI RMF، إلى جانب اختبارات عدالة مستمرة وفرق متخصصة لاكتشاف الانحياز.
وشدد على أن مراجعة أخلاقيات الذكاء الاصطناعي يجب أن تكون جزءًا أساسيا من إجراءات الأمان داخل المؤسسات التقنية، موضحا أن دمج الأخلاقيات في منظومة الأمان لم يعد رفاهية تنظيمية بل ضرورة لضمان سلامة الأنظمة وثقة المستخدمين.
وأوضح أن القوانين الدولية بدأت تتعامل بصرامة مع هذه القضايا، حيث يفرض الاتحاد الأوروبي في قانون AI Act 2025 غرامات تصل إلى 35 مليون يورو أو 7٪ من الإيرادات على الشركات التي تنتج أنظمة منحازة. كما تحمل هيئة التجارة الفيدرالية الأمريكية (FTC) وهيئة تكافؤ فرص العمل (EEOC) الشركات المسؤولية القانونية عن أي ممارسات تمييزية في القرارات الآلية.
وأشار إلى أن الدول العربية بدأت اتخاذ خطوات مماثلة، مثل الاستراتيجية الوطنية للذكاء الاصطناعي في مصر، ومبادئ الهيئة السعودية للبيانات والذكاء الاصطناعي (SDAIA)، والإطار الأخلاقي للذكاء الاصطناعي في الإمارات، والتي تُلزم جميعها الجهات التقنية بتطبيق العدالة والشفافية قبل إطلاق الأنظمة.
واختتم «غلوش» حديثه بأن الحد من تحيّز الذكاء الاصطناعي في العالم العربي يحتاج إلى تكامل التقنية مع القيم الأخلاقية، عبر تعزيز الشفافية وحوكمة البيانات واختبارات العدالة والتحقق البشري في القرارات الحساسة، إلى جانب تنويع فرق التطوير وتأسيس لجان رقابة وتشريعات وطنية، مؤكدًا أن بناء أنظمة ذكاء اصطناعي عادلة ومسؤولة يبدأ من تعليم الجيل الجديد من المهندسين القيم قبل الكود.


انقر هنا لقراءة الخبر من مصدره.