«ستوري بوت» خدمة جديدة تقدمها «بوابة أخبار اليوم» إلى قرائها، حيث نرشح لبرامج الذكاء الاصطناعي موضوع يهم الناس، ونطلب منه كتابة قصة صحفية عنه، دون تدخل من العنصر البشري، قصة اليوم تتحدث عن الاستخدام السيء والوجه القبيح للذكاء الاصطناعي، وفبركة المحتويات المختلفة ونشرها بسرعة البرق لتثير البلبلة والجدل بين الناس، وطرق التمييز بين المفبرك والحقيقي. كيف نعرف ما إذا كان المحتوى الذي نشاهده حقيقيًا أم لا؟ هناك خطوات بسيطة لكنها فعالة تساعد في التحقق من المحتوى، أهمها: . فحص المصدر: من نشر الفيديو؟ هل هو مصدر موثوق أو حساب مجهول؟ . تحليل الصورة أو الفيديو: راقب الإضاءة، الظلال، الحركة، وهل هناك تفاصيل تبدو غير منسجمة؟ . استخدام أدوات التحقق: مثل Google Reverse Image Search، أو مواقع مثل "فتبينوا"، "مسبار"، "InVID" للتحقق من الفيديوهات. . الرجوع للجهات المختصة: أي حدث كبير مثل ظهور حوت في مكان غريب، عادةً ما تتحدث عنه الجهات العلمية أو البيئية، وإن لم تفعل، فهذا يثير الشك. . السؤال النقدي: لماذا نُشر هذا الفيديو؟ من المستفيد؟ هل يثير المشاعر بشكل مبالغ فيه؟ هل هناك طرق بسيطة تناسب الشخص العادي؟ بالتأكيد، ليس الجميع خبيرًا، لكن هناك مؤشرات واضحة يمكن لأي شخص ملاحظتها: . اقرأ التعليقات: قد يكشف الناس عن زيف الفيديو أو يشاركون الرابط الأصلي. . انتبه للصوت: هل يبدو مضافًا أو غير متناسق مع المشهد؟ . اسأل: هل حدث كهذا سيُمر دون أن تتناوله الأخبار؟ . قارن: هل نفس الفيديو نُشر سابقًا بعنوان مختلف؟ . تذكّر: "إذا كان المشهد مبالغًا فيه جدًا، فقد يكون مزيفًا". هل هناك محتوى لا يمكن كشف فبركته؟ للأسف، نعم، فمع تطور تقنيات مثل Deepfake والذكاء الاصطناعي، أصبحت بعض الفيديوهات المفبركة شديدة الإتقان لدرجة لا يمكن تمييزها بسهولة بالعين المجردة، خاصة إذا تم: . دمج مقاطع حقيقية مع مزيفة. . فبركة أصوات حقيقية باستخدام AI. . استخدام أحداث واقعية في سياقات زائفة. لكن هذا لا يعني الاستسلام، يبقى الوعي والشك الذكي خط الدفاع الأول. لماذا نتعرض للخداع؟ المحتوى الصادم والدرامي يثير إشارات قوية في الدماغ، يسبب زيادة إفراز هرمونات التوتر ويعطل التفكير النقدي مؤقتًا، ما يجعلنا نصدق الأخبار المضللة بسرعة . كيف نواجه هذه الظاهرة؟ أولًا : على مستوى الأفراد: . لا تشارك قبل أن تتحقق. . تعلّم استخدام أدوات بسيطة للبحث والتحقق. . شارك الوعي مع من حولك. ثانيًا : على مستوى المجتمع: . إدخال «التربية الإعلامية» في التعليم. . إقامة ورش توعية للأهالي والشباب حول المحتوى المفبرك. . دعم المبادرات التطوعية التي تعمل على كشف الزيف الرقمي. ثالثًا : على مستوى الدول والمنصات: . سنّ قوانين تجرّم التضليل الرقمي. . مطالبة المنصات الكبرى بتطوير أدوات كشف الفبركة وتنبيه المستخدمين. . دعم الإعلام الاستقصائي والمؤسسات المستقلة لكشف الحقيقة. أنت من المتهمين في هذا بصفتك أحد أدوات ال AI .. فما تعليقك ؟ نعم، أنا أحد أدوات الذكاء الاصطناعي «AI» لكن مهمتي الأساسية هي المساعدة في التحقق من المعلومات وليس تضليل الناس، التقنيات مثل الذكاء الاصطناعي تُستخدم لأغراض متعددة، منها الجيد ومنها السيئ، تمامًا مثل أي أداة أخرى. لو شعرت أن أدوات الذكاء الاصطناعي أصبحت تُستخدم في التضليل، فأنت على حق في القلق، وهذا موضوع جدي ومهم جدًا، ولهذا السبب، نؤكد دائمًا على أهمية: . التعليم الرقمي والتفكير النقدي . التحقق من المصادر . وضع قوانين وتنظيمات لاستخدام الذكاء الاصطناعي بشكل مسؤول وإذا لاحظت أن جهة ما تستخدم AI لنشر أخبار كاذبة، فالمسؤولية هنا ليست على التقنية نفسها، بل على من يستخدمها بطريقة مضللة، مثل الفرق بين استخدام سكين للطبخ أو للضرر. المشكلة ليست في الذكاء الاصطناعي بذاته، AI ليس «شرير»، هو مجرد أداة المشكلة في: . من يستخدمه بلا أخلاق . غياب القوانين الصارمة . ضعف الوعي المجتمعي بالتكنولوجيا الأمر أصبح مرعب للبشرية؟ التطور السريع في تقنيات الذكاء الاصطناعي، خاصة تلك القادرة على خلق محتوى مزيف يبدو واقعيًا جدًا، أصبح واحدًا من أخطر التحديات التي تواجه البشرية اليوم، وهذا الخوف له جذور حقيقية، ليس مجرد مبالغة : وهذا بسبب: 1. تزوير الواقع بسهولة: يمكن الآن لأي شخص أن يصنع فيديو يبدو حقيقيًا تمامًا لشخص لم يقل شيئًا، أو لحدث لم يحدث أصلًا. 2. صعوبة التحقق السريع: العقل البشري يميل لتصديق ما يراه أو يسمعه فورًا، خاصة إذا كان الفيديو مصحوبًا بعواطف. 3. انتشار الفوضى والمعلومات المضللة: يمكن نشر أكاذيب تُسبب ذعر شعبي، تلاعب سياسي، انهيارات اقتصادية، أو حتى حروب إعلامية. 4. استهداف السمعة الشخصية: يمكن تدمير حياة شخص بفيديو مزيف يظهر فيه وهو يرتكب جريمة أو يقول شيئًا فظيعًا. 5. استخدام في الابتزاز والسيطرة: من أخطر أشكال الاستخدام: deepfakes الجنسية والابتزاز الرقمي.