خلال الساعات الماضية، تداولت صفحات ومنصات تقنية خبراً صادماً مفاده أن أكثر من 4500 محادثة حساسة أجراها مستخدمو تطبيق «ChatGPT» ظهرت ضمن نتائج بحث في محرك البحث الأشهر، جوجل، بما في ذلك محادثات طبية ونفسية، بيانات مهنية وتجارية، وأفكار مشاريع بحثية وأكاديمية. الخبر انتشر كالنار في الهشيم، وتسبب في حالة من الذعر والقلق بين المستخدمين، وسط تساؤلات مشروعة: هل تم اختراق «ChatGPT»؟ هل بياناتي في خطر؟ هل ما أقوله للبوت يراه الآخرون؟ لكن دعونا نوضح الصورة الحقيقية ما الذي حدث فعلياً ؟ الحادث لا تعود إلى اختراق في نظام OpenAI أو تسريب داخلي، الحقيقة أن، المحادثات التي ظهرت على جوجل كانت قد نُشرت من قبل المستخدمين أنفسهم، عن غير قصد في أغلب الأحيان، على مواقع ومنتديات عامة مثل، Pastebin Reddit ، مواقع Plugins تحفظ الجلسات، مدونات أو مواقع أرشيفية عامة . وهنا يأتي دور جوجل، أي محتوى منشور بشكل علني وغير محمي يتم أرشفته تلقائيًا ويصبح قابلًا للظهور في نتائج البحث. الكارثة أن بعض هذه المحادثات كانت تتضمن بيانات شخصية حقيقية أو معلومات حساسة يمكن ربطها بأشخاص بعينهم، ما يفتح الباب أمام استغلالها في عمليات احتيال أو انتهاك خصوصية. السؤال الأهم الآن هل «ChatGPT» يحفظ كل ما نكتبه؟ الجواب بشكل قاطع : نعم، ولكن بشروط ، OpenAI توضح أن جزءاً من المحادثات قد يُستخدم لتحسين أداء النموذج، لكنها تتيح للمستخدمين خيار: إيقاف حفظ المحادثات من الإعدادات، حذف المحادثات السابقة بالكامل كيف تحمي نفسك كمستخدم للذكاء الاصطناعي؟ 1- لا تدخل أي معلومات شخصية أو حساسة (اسمك، رقمك، عنوانك، تفاصيل العمل...) 2- استخدم الذكاء الاصطناعي كأداة، ولا تعتبره دفتر أسرارك 3- راجع أي محادثة تنوي نشرها واحذف منها أي ما يدل على هويتك 4- أوقف خاصية حفظ المحادثات من الإعدادات: 5- احذر الإضافات (Plugins) التي قد تسجل محادثاتك وتخزنها خارجيًا الخلاصة ما حدث ليس «فضيحة تسريب» بقدر ما هو بمثابة «درس في الخصوصية» الذكاء الاصطناعي أداة قوية، لكنه لا يفهم الخصوصية إلا بقدر ما يفهمه المستخدم نفسه. كل ما تكتبه قابل لأن يُخزن، يُشارك، يُستخرج... إذا لم تحترس. في النهاية ... ثق بذكائك قبل أن تثق في ذكاء الآلة.