في الوقت الذي تعلو فيه الأصوات المطالبة بتوظيف الذكاء الاصطناعي في تحسين جودة الحياة وتحقيق التنمية المستدامة، يتسلل وجه آخر لهذا التطور التكنولوجي، يحمل معه أسئلة مُقلقة عن الحريات، والخصوصية، والسيطرة الرقمية. فهل يمكن أن يتحول الذكاء الاصطناعي من أداة للابتكار إلى وسيلة للرقابة؟ وهل نحن على أعتاب مرحلة جديدة من الهيمنة الرقمية؟ الإجابة ليست بسيطة، لكن الأدلة تتكاثر. التعرف على الوجوه.. من الأمان إلى التتبع الدائم في الصين، أصبح التعرف على الوجوه أداة يومية لتتبع الأفراد في الشوارع والمواصلات العامة، بينما تواجه شركات التقنية الكبرى في الغرب اتهامات بتوجيه الرأي العام والتلاعب بالوعي السياسي عبر خوارزميات غير شفافة. أما في بعض الدول العربية، فقد تم الكشف عن استخدام أدوات الذكاء الاصطناعي لمراقبة النشطاء وتحليل الميول السياسية. هذا الامتداد التكنولوجي، الذي يتغذى على البيانات الضخمة، يعيد تعريف العلاقة بين الدولة والمواطن، ويهدد بتحويل المجال الرقمي إلى ساحة مراقبة مفتوحة. الخصوصية في مصر.. ما بين الرقمنة والقلق المجتمعي في مصر، ورغم أن الاستخدام الرسمي للذكاء الاصطناعي لا يزال في مراحله التنظيمية والتطبيقية، فإن توسع الدولة في رقمنة الخدمات وتحليل البيانات الحكومية يثير تساؤلات جدية. هل هناك ضوابط قانونية كافية لحماية المواطن من المراقبة غير المعلنة؟ وماذا عن الحق في الخصوصية؟ وهل توجد بنية تشريعية قادرة على محاسبة من يُسيء استخدام هذه الأدوات؟ تقول الدكتورة نيفين النحاس، أستاذة القانون الرقمي بجامعة القاهرة: «إن التشريعات المصرية الحالية لا تواكب بعدُ التطور السريع في تقنيات الذكاء الاصطناعي، خاصة فيما يتعلق بحماية البيانات الشخصية. وتشير إلى أن قانون حماية البيانات رقم 151 لسنة 2020 يمثل خطوة إيجابية، لكنه يحتاج إلى لوائح تنفيذية صارمة تفرض الشفافية وتُخضع الخوارزميات للمساءلة. وتضيف: "نحن بحاجة إلى منظومة قانونية ترى أن الخوارزميات ليست كودًا فقط، بل سلطة رقمية يجب ضبطها». الدكتورة نيفين النحاس، أستاذة القانون الرقمي بجامعة القاهرة المستخدم متواطئ دون أن يدري لكن الخطر لا يقتصر على المراقبة الرسمية فحسب فالمواطن العادي، وبمحض إرادته، يسلّم كميات هائلة من بياناته إلى منصات التواصل الاجتماعي والتطبيقات الذكية. ويقول الدكتور شريف عرفة، الباحث في أخلاقيات الذكاء الاصطناعي: «إن الأمر تجاوز سيطرة الدولة أو الشركات، ليصبح مسألة ثقافية فنحن في عصر أصبح فيه الهاتف المحمول جهاز تتبع شخصي. ما نشتريه، ما نحبه، من نحبه، وحتى ما نخشاه... كل ذلك يُختزن ويُحلّل ويُباع ويُعاد توجيهه إلينا»، يؤكد عرفة، مشيرًا إلى أن الذكاء الاصطناعي قد يخلق نسخة رقمية من الفرد تتحرك في الخلفية، وتُستخدم لتوقّع قراراته والتأثير على سلوكه. في هذا السياق، تبرز واحدة من أكثر الجوانب خطورة في الذكاء الاصطناعي: «انحياز الخوارزميات». فالخوارزميات تُبنى على بيانات بشرية، وإذا كانت تلك البيانات متحيزة، فإن نتائج الذكاء الاصطناعي ستكون بالضرورة غير عادلة. وقد وثّقت دراسات دولية، مثل تلك التي أجراها معمل MIT Media Lab، كيف أن أنظمة التعرف على الوجوه تخطئ أكثر في التعرف على الأشخاص ذوي البشرة الداكنة، ما قد يؤدي إلى انتهاكات ممنهجة، حتى لو لم تكن مقصودة. في مصر، بدأت بعض الأصوات الحقوقية تدعو إلى ما يسمى ب "العدالة الخوارزمية"، أي التأكد من أن أنظمة الذكاء الاصطناعي لا تميز بين الأفراد بناء على النوع أو الدين أو المنطقة الجغرافية، وتشير هذه الأصوات إلى ضرورة إشراك خبراء حقوق الإنسان وعلم الاجتماع في لجان مراجعة وتصميم البرمجيات الذكية.
الدكتور شريف عرفة الباحث في أخلاقيات الذكاء الاصطناعي التكنولوجيا ليست شريرة... السياسات هي التحدي في المقابل، يرى المهندس أحمد حامد، استشاري النظم الأمنية والذكاء الاصطناعي، أن الذكاء الاصطناعي لا يجب «شيطنته»، بل فهمه وتطويعه لخدمة المجتمع. ويؤكد أن المشكلة لا تكمن في التكنولوجيا ذاتها، بل في السياسات المصاحبة لها. «يمكن استخدام الذكاء الاصطناعي في مكافحة الجريمة، وتحسين الاستجابة لحالات الطوارئ، وتحليل حركة المرور لتقليل الحوادث. المهم أن يكون هناك إطار شفاف يحكم هذا الاستخدام، ويمنع التجاوز»، يوضح بسيوني. وفي خطوة لافتة، أعلنت وزارة الاتصالات عن نيتها إدراج مبادئ «أخلاقيات الذكاء الاصطناعي» ضمن برامج تدريب الكوادر الحكومية. كما يجري العمل حاليًا على تطوير دليل إرشادي لاستخدام الذكاء الاصطناعي بشكل مسئول في المؤسسات الحكومية، وهي خطوة قد تشكل نموذجًا عربيًا إذا طُبقت بشفافية وكفاءة. ما لا تقوله الخوارزميات.. مخاطر تتجاوز التقنية ومع تصاعد هذه التحديات، يرى عدد من المتخصصين ضرورة تأسيس هيئة مستقلة لمراقبة استخدام الذكاء الاصطناعي، تضم في عضويتها ممثلين عن المجتمع المدني، ومراكز البحوث، والمؤسسات الرقابية، على أن تتمتع بصلاحيات حقيقية لمراجعة البرمجيات المستخدمة، وتدقيق الخوارزميات، ومساءلة المؤسسات التي تنتهك الخصوصية. رغم ما يقدمه الذكاء الاصطناعي من إمكانات ثورية، فإن التوسع السريع في استخدامه يفتح الباب أمام تحديات بنيوية ومخاطر أخلاقية لا تقل أهمية عن الفرص التقنية. هذه التكنولوجيا، التي تتميز بالقدرة على التعلم الذاتي والتطور المستمر دون تدخل بشري مباشر، باتت تثير مخاوف تتراوح بين فقدان السيطرة، وانعدام الشفافية، إلى تهديد مكانة الإنسان ذاته داخل منظومة اتخاذ القرار. الخصوصية تحت المجهر... والبيانات سلعة قابلة للبيع تعتمد تقنيات الذكاء الاصطناعي على جمع وتحليل كميات ضخمة من البيانات الشخصية، غالبًا دون علم المستخدمين أو موافقتهم. وفي ظل غياب تشريعات دولية مُلزمة، تتحول بيانات الأفراد إلى سلعة تُباع وتُشترى، ما يجعل المستخدمين مكشوفين رقميًا أمام الشركات والحكومات على حد سواء. ووفقًا لتقرير شركة Kaspersky لعام 2024، فقد ارتفعت الهجمات المعتمدة على الذكاء الاصطناعي بنسبة 28% مقارنة بالعام السابق، مما ينذر بتحولها إلى أدوات هجومية دقيقة،فالذكاء الاصطناعي لم يعد حكرًا على الاستخدامات المدنية. فالتقنيات ذاتها تُستخدم اليوم في تنفيذ هجمات إلكترونية معقدة، أو إنتاج مقاطع فيديو مزيفة «Deepfake» تُستخدم في الابتزاز والتضليل السياسي. مَن يُحاسب الألة؟ سؤال لم يُجب عنه العالم بعد تبقى واحدة من أعقد القضايا: مَن يتحمل المسؤولية عندما تتسبب الآلة في ضرر؟ المطوّر؟ المؤسسة؟ أم الآلة نفسها؟ هذا السؤال لم يجد حتى اليوم إجابة قانونية قاطعة، ويشكل تحديًا عالميًا لجميع النظم التشريعية.