ماهى أسباب هلاوس وتخاريف الذكاء الاصطناعى؟ وكيف يمكن القضاء عليها أو الحد منها؟ وما هو دور المستخدم؟ أنا على ثقة كبيرة بأن تطبيقات الذكاء الاصطناعى ستغير وجه العالم، وتحدث تحولات ثورية فى التعليم والصحة والبحث العلمى والإعلام والاقتصاد وكل مجالات الحياة، لكن علينا ألا نمنحها ثقة كاملة وبدرجة 100% لأن تطبيقات الذكاء الاصطناعى وبرامج المحادثة ما تزال وليدة وفى مرحلة النشأة والتطوير، وبالتالى فهى تخطئ وترتكب حماقات وهلاوس تصل إلى درجة اختلاق أحداث وتقدم معلومات غير صحيحة تمامًا، فيما أصبح يعرف بظاهرة «هلوسة الذكاء الاصطناعى» AI Hallucination) ). ارتكبت برامج المحادثة أخطاء وهلاوس وتخاريف تصل إلى حد الجريمة، حيث اتهمت أشخاصًا بالاسم بارتكاب جرائم، ففى مارس 2025، اتهم «ChatGPT شات جى بى تى» رجلًا نرويجيًا زورًا بقتل أطفاله، مما دفعه لتقديم شكوى رسمية ضد OpenAI، وفى الولاياتالمتحدة استخدم محامون نصوصًا مولدة بواسطة شات جى بى تى فى مرافعاتهم القضائية، ليكتشفوا لاحقًا أن النموذج قد اختلق سوابق قضائية وأحكامًا وهمية بالكامل. مما أدى إلى فرض عقوبات على المحامين، وتعريض مصداقيتهم للخطر. كما قدمت هذه التطبيقات معلومات مختلقة عن أبحاث وكتب غير موجودة وقدمت إحصاءات غير صحيحة، ووصف علاج لمرض معين لا أساس له من الصحة، أو قدمت نصيحة قانونية خاطئة تمامًا، ونسبت نظريات وأحداثًا لأشخاص لا علاقة لهم بالنظرية أو الحدث موضوع السؤال، والأغرب أنها تقدم أحيانًا إجابات إنشائية عامة تخلو من أى معنى حقيقى. ولا يوجد تعريف متفق عليه بين الباحثين والمبرمجين لمعنى هلوسة الذكاء الاصطناعى، كما يعترض الأطباء النفسيون بشدة على استخدام مصطلح الهلوسة لأن له أعراضًا مرضية محددة، لا يمكن أن تتوافر فى تطبيقات الذكاء الاصطناعى التى ليس لها أحاسيس أو مشاعر. وبغض النظر عن هذا الجدل، فيمكن القول بأن هلوسة الذكاء الاصطناعى ترجع إلى أسباب كثيرة أهمها: 1- أخطاء فى عملية جمع وتحليل البيانات، بمعنى أننا نغذى برامج الدردشة بمعلومات غير صحيحة أو متحيزة، وبالتالى فإنها تعيد إنتاج وتداول هذه الأخطاء، وتضعها ضمن معلومات صحيحة، وفى سياقات مختلفة. 2- أن نماذج الدردشة بالذكاء الاصطناعى لا تفهم المعلومات كما يفهما الإنسان، وإنما تتنبأ بالكلمات التالية بناء على الأنماط الإحصائية فى البيانات التى تم تدريبها عليها. ومن ثم عندما يطرح عليها سؤال خارج نطاق معرفتها، فإنها قد تنتج إجابات تبدو منطقية لكنها غير صحيحة. 3- لم تدرب هذه النماذج على فضيلة الاعتراف بالخطأ، لذلك تقدم إجابات غير دقيقة أو بلا قيمة أو معنى، بدلًا من الاعتراف بعدم المعرفة، لكن بدأ المبرمجون فى تلافى هذه العيوب. 4- وجود أخطاء فى طرح الأسئلة أو صياغتها بشكل معقد أو غير مباشر، مما يجعل نماذج الدردشة غير قادرة على فهم واستيعاب المقصود من الأسئلة، وبالتالى تقدم إجابات غير دقيقة. 5- افتقار أغلب برامج الدردشة إلى التخصص الدقيق فى مجال معين، الأمر الذى يجعلها غير قادرة على تقديم إجابات عميقة ومتخصصة فى مجال محدد. والسؤال الذى يطرح نفسه، متى تنتهى هلوسة الذكاء الاصطناعى؟ وكيف يمكن التغلب عليها أو على الأقل التقليل منها؟ ترى شركات الذكاء الاصطناعى أن هذه الهلاوس ستنتهى قريبًا مع تطوير عمليات تدريب برامج الدردشة وتطبيقات الذكاء الاصطناعى، والاعتماد على معلومات صحيحة وغير متحيزة أثناء تعليم وتدريب تطبيقات الذكاء الاصطناعى، وإطلاق تطبيقات متخصصة فى مجال معين، فضلًا عن التعليم المعزز بردود الفعل الإنسانية، ودمج آليات الاسترجاع بقواعد بيانات ومصادر موثوقة، وتطوير آليات تسمح للنموذج بتقدير مدى ثقته فى إجاباته، فإذا كانت الثقة منخفضة، فإن عليه أن يمتنع عن الإجابة. ومع ذلك لابد من تبنى أطر تنظيمية قوية، ومعايير أخلاقية صارمة، وتقنيات تحقق متقدمة لضمان أن الذكاء الاصطناعى يُستخدم بمسئولية ويُقلل من مخاطر «الهلوسة» والأخطاء التى يمكن أن تؤدى إلى عواقب وخيمة فى العالم الحقيقى. لكن الأهم من وجهة نظرى هى وعى المستخدم، وحسه النقدى فيما يقدم له من معلومات، بحيث لا يثق تمامًا فى الإجابات التى تقدمها تطبيقات الذكاء الاصطناعى، وإنما يمارس فضيلة الشك والبحث فى خلفيات ومصادر المعلومات التى تقدمها برامج الدردشة، ويقارن بين ما تقدمه من معلومات وما هو متاح فى الكتب والمراجع العلمية الرصينة.