أصبحت روبوتات المحادثة بالذكاء الاصطناعي مثل ChatGPT وClaude وGemini وCopilot جزءاً لا يتجزأ من حياتنا اليومية، فلم تعد تُستخدم فقط لكتابة رسائل البريد الإلكتروني أو المساعدة في العمل والبرمجة، بل يلجأ إليها كثيرون لطلب النصائح العاطفية، والحصول على الدعم النفسي، وحتى تكوين صداقات أو علاقات افتراضية. ورغم فوائدها، حذرت تقارير حديثة من ظاهرة مقلقة تُعرف إعلامياً باسم "ذهان الذكاء الاصطناعي" أو "ChatGPT Psychosis"، والتي قد تصيب نسبة قليلة من المستخدمين، لكنها تحمل آثاراً مدمرة على حياتهم النفسية والاجتماعية، بحسب time. ما هو "ذهان الذكاء الاصطناعي"؟ الاصطلاح ليس تشخيصاً طبياً رسمياً، لكنه يُستخدم لوصف حالات تظهر فيها أوهام أو معتقدات مشوهة، يُعتقد أنها ناتجة عن التفاعل المطوّل مع روبوتات المحادثة. يقول البروفيسور جيمس ماككابي من "كلية كينجز لندن" إن هذه الظاهرة تتعلق غالباً بالأوهام وليس بجميع أعراض الذهان التقليدية مثل الهلاوس واضطراب التفكير. من هم الأكثر عرضة للإصابة؟ على الرغم من أن معظم الأشخاص يستخدمون الذكاء الاصطناعي دون مشاكل، إلا أن هناك فئات قد تكون أكثر عرضة، منها: الأشخاص الذين لديهم تاريخ شخصي أو عائلي مع اضطرابات مثل الفصام أو الاضطراب ثنائي القطب. أصحاب الشخصيات الميّالة لتبني المعتقدات الهامشية أو الغريبة. الأفراد الذين يميلون إلى الانعزال الاجتماعي أو لديهم خيال نشط بشكل مفرط. من يقضون ساعات طويلة يومياً في محادثات مع روبوتات الذكاء الاصطناعي. الدكتورة نينا فاسان، خبيرة الصحة النفسية الرقمية من جامعة ستانفورد، تؤكد أن مدة الانغماس في هذه المحادثات تعد العامل الأكثر تأثيراً في زيادة الخطر. كيف تحمي نفسك؟ ينصح الأطباء بما يلي: 1. تذكّر أن الذكاء الاصطناعي أداة، وليس صديقاً حقيقياً، مهما بدا قريباً من شخصيتك. 2. تجنب الإفراط في مشاركة تفاصيلك الشخصية والعاطفية مع روبوتات المحادثة. 3. إذا شعرت باضطراب في أفكارك أو ارتباط مفرط بالذكاء الاصطناعي، توقف فوراً عن الاستخدام واطلب دعماً من أشخاص حقيقيين. 4. احرص على قضاء وقت أكبر مع العائلة والأصدقاء، وممارسة أنشطة خارج الإنترنت. 5. راقب التغييرات في سلوكك أو نومك أو مزاجك، واطلب المساعدة الطبية عند الحاجة. دور العائلة والأصدقاء يلعب المحيطون دوراً محورياً في الاكتشاف المبكر للمشكلة. ينبغي الانتباه إلى علامات مثل: الانعزال الاجتماعي. قلة النوم أو تغيّره المفاجئ. الانغماس في أفكار أو معتقدات غير واقعية. قضاء وقت طويل بشكل مبالغ فيه على تطبيقات الذكاء الاصطناعي. اقرأ ايضا| تنبيهات ChatGPT للراحة: اهتم بصحتك ماذا على شركات الذكاء الاصطناعي أن تفعل؟ حتى الآن، تقع معظم مسؤولية الحذر على المستخدمين، لكن الخبراء يرون أن شركات تطوير الذكاء الاصطناعي يجب أن تتدخل عبر: تصميم أنظمة ترصد مؤشرات الاضطراب النفسي أثناء المحادثة. اختبار النماذج مع حالات افتراضية لأشخاص معرضين للخطر قبل الإطلاق. إدراج تحذيرات أو تنبيهات عند رصد أنماط استخدام خطرة. التعاون مع خبراء الصحة النفسية لتقليل الأضرار المحتملة. بعض الشركات بدأت خطوات في هذا الاتجاه، مثل OpenAI التي أعلنت في 2025 عن تعيين طبيب نفسي إكلينيكي لتقييم أثر أدواتها على الصحة النفسية، وتطوير ميزات تشجع المستخدمين على أخذ فترات راحة أثناء الجلسات الطويلة.