اعتماد هذه الأنظمة على كتابات وبيانات الإنترنت المفتوحة ، يجعل إجاباتها تحمل انحيازات أو توجهات معينة يصعب التحكم بها. احذروا الذكاء الاصطناعى، لا تبالغوا فى الاعتماد عليه والثقة فيه، فرغم قدراته الفائقة ، فإن أخطائه كارثية تصل إلى حد «الهلوسة». الغريب أن هذا البيان التحذيرى جاءنا أول أمس من أمريكا، مخترعة الذكاء الاصطناعى . والحكاية بدأت نهاية الشهر الماضى، حينما أعلن وزير الصحة الأمريكى روبرت إف كينيدى -بمنتهى الفخر- أن إدارة الغذاء والدواء الأميركية (FDA)، بدأت تعتمد على الذكاء الاصطناعى بشكل أساسى فى عملية إصدار قرارات الموافقة على الأدوية الجديدة، وأن هذا القرار يعد نقلة ثورية ستؤدى لتخفيض فترة إصدار قرارات الموافقة ، من أشهر أو سنوات إلى بضعة أسابيع فقط. وقبل أن يمر شهر واحد على تصريحات وزير الصحة ، فوجئنا أول أمس بتصريحات عكسية جديدة من داخل إدارة ال FDA ، تحذر من الاعتماد على الذكاء الاصطناعى فى هذه المهمة، بعد أن اكتشف خبراء من الإدارة أن نظام «السا» الجديد الذى يشبه شات جى بى تى والذى تم الاعتماد عليه، بدأ يرتكب أخطاء فادحة، و يعانى من ثغرات كانت يمكن أن تؤدى إلى نتائج كارثية ، وتمنح موافقات لأدوية تضر بصحة المواطنين. واكتشف خبراء FDA أن الاعتماد على الذكاء الاصطناعى فى هذه المهمة أصبح خطرا ، وأنه كان يستشهد بدراسات غير موجودة ، ويقدم نتائج غير صحيحة ، وعند الاعتراض، ينتهى به الأمر إلى «الاعتذار» وإخبار الموظفين بضرورة تحققهم من النتائج!!. خبراء FDA أطلقوا تحذيراتهم الخطيرة بمنتهى الشفافية أمام العالم كله، وطالبوا بإجراء مزيد من الدراسات والاختبارات للتأكد من دقة النظام وموثوقيته ، حتى لا يسبب أخطاء فادحة قد يترتب عليها حصول أدوية خطيرة على موافقة إدارة الغذاء والدواء الأمريكية عن طريق الخطأ. والحقيقة أننا يجب أن ننظر بعين الاعتبار لهذه التحذيرات الأمريكية الخطيرة، فالعالم كله الآن «أفراد وجماعات ومؤسسات» أصبح يبالغ فى الاعتماد على أنظمة الذكاء الاصطناعى ، دون الالتفات إلى الأخطاء الخطيرة التى يمكن أن ترتكبها هذه الأنظمة، فالذكاء الاصطناعى لا يتحقق من المعلومات التى يقدمها لك أو لغيرك، وقد يقدم إجابات ونتائج خاطئة بناء على البيانات التى تعلمها وتم تغذيته بها ،وهى بيانات من مصادر الإنترنت المفتوحة . وقد يكون بعضها مصادر وهمية أو بيانات غير دقيقة ، والدليل على ذلك أننا أحيانا نكتشف بعض هذه الأخطاء وننبهه لها ، فنفاجأ به يسارع للاعتراف بخطأه ويصحح نفسه. وهناك خطر آخر، وهو أن اعتماد هذه الأنظمة على كتابات وبيانات الإنترنت المفتوحة ، يجعل إجاباتها تحمل انحيازات أو توجهات معينة يصعب التحكم بها، لارتباطها بمصادر هذه البيانات والمعلومات . باختصار، يجب أن نأخذ العبرة من أمريكا -مخترعة هذه الأنظمة- ، وأن نستمع لتحذيرات خبراء FDA، بألا نمنح شات جى بى تى أو غيره من أنظمة الذكاء الاصطناعى ثقتنا المطلقة ، فهذه الأنظمة فى حاجة دائما لعقل بشرى «يراجع وراها».