أظهر بحث جديد نشره اتحاد الإذاعات الأوروبية وهيئة الإذاعة البريطانية (بي.بي.سي)، الأربعاء، أن تطبيقات الذكاء الاصطناعي الرائدة تحرف محتوى الأخبار في نصف ردودها تقريبا. ودرس البحث الدولي 3 آلاف رد على أسئلة عن الأخبار من مساعدي الذكاء الاصطناعي- وهي تطبيقات برمجية تستخدم الذكاء الاصطناعي لفهم أوامر اللغة الطبيعية لإكمال المهام للمستخدم. وقيمت الدراسة مساعدي الذكاء الاصطناعي بما يصل إلى 14 لغة من حيث الدقة والمصادر والقدرة على التمييز بين الرأي والحقيقة. ومن هذه التطبيقات المساعدة تشات جي.بي.تي وكوبايلوت وجيميناي وبربليكستي وبشكل عام، أظهر البحث أن 45 بالمئة من ردود الذكاء الاصطناعي، التي خضعت للدراسة احتوت على مشكلة واحدة كبرى على الأقل، و81 بالمئة منها تتضمن شكلا من أشكال المشكلات. وأجرت رويترز اتصالات مع الشركات للحصول على تعليقها على النتائج. وقالت شركتا أوبن إيه.آي ومايكروسوفت في وقت سابق إنهما تسعيان لحل مشكلة الهلوسة- عندما يولد نموذج الذكاء الاصطناعي معلومات غير صحيحة أو مضللة، غالبا بسبب عوامل مثل عدم كفاية البيانات. وتقول بربليكستي على موقعها الإلكتروني إن أحد أنماط "البحث العميق" لديها يتمتع بدقة 93.9 بالمئة من حيث الواقعية. أخطاء المصادر أوضحت الدراسة أن ثلث إجابات مساعدي الذكاء الاصطناعي أظهرت أخطاء جسيمة في المصادر، مثل الإسناد المفقود أو المضلل أو غير الصحيح. وقالت الدراسة إن نحو 72 بالمئة من ردود جيميناي، مساعد الذكاء الاصطناعي من غوغل، كانت بها مشكلات كبيرة في المصادر، مقارنة بأقل من 25 بالمئة لجميع المساعدين الآخرين.