أعلنت شركة Grok، المرتبطة بمنصة X (تويتر سابقًا)، أن خللًا في أنظمة الحماية لديها أدى إلى ظهور صور لأطفال بملابس غير لائقة على المنصة. القضية أثارت جدلًا واسعًا في الأوساط القانونية والإعلامية، نظرًا لحساسية الموضوع وخطورته. تفاصيل الحادثة * الشركة أوضحت أن الصور ظهرت نتيجة قصور في آليات المراقبة الآلية التي كان من المفترض أن تمنع نشر مثل هذا المحتوى. * أكدت أن هذه الصور لم تكن ناتجة عن طلبات مباشرة من المستخدمين، بل ظهرت بسبب ثغرات في الفلاتر الأمنية. * Grok شددت على أنها لا تسمح بمثل هذا النوع من المحتوى، وأن ما حدث كان نتيجة خطأ تقني وليس سياسة متعمدة. اقرأ أيضا تطبيق «Grok» يتورّط في تعليقات معادية للسامية ومؤيدة لهتلر| تفاصيل الإجراءات المتخذة * الشركة أعلنت أنها بدأت مراجعة شاملة لأنظمة الحماية والفلترة. * تم تعزيز فرق المراقبة البشرية إلى جانب الأنظمة الآلية لضمان عدم تكرار الحادثة. * Grok أكدت تعاونها مع السلطات القانونية للتحقيق في الحادثة وتقديم الضمانات اللازمة. ردود الفعل * الحادثة أثارت انتقادات واسعة من خبراء حماية الأطفال على الإنترنت، الذين اعتبروا أن أي ثغرة في هذا المجال قد تؤدي إلى مخاطر جسيمة. * بعض المشرعين الأمريكيين طالبوا بفرض رقابة أكثر صرامة على شركات التكنولوجيا التي تقدم خدمات الذكاء الاصطناعي. * في المقابل، الشركة شددت على أن الحادثة كانت محدودة وأنها تعمل على إصلاحها بشكل عاجل. الأبعاد القانونية * القضية قد تفتح الباب أمام دعاوى قضائية ضد الشركة، خصوصًا أن القوانين الأمريكية والأوروبية تفرض عقوبات صارمة على أي محتوى يتعلق باستغلال الأطفال. * Grok تحاول إثبات أن ما حدث كان نتيجة خطأ تقني وليس إهمالًا متعمدًا، لتجنب المسؤولية القانونية الكاملة. التقرير يكشف عن أزمة جديدة تواجه شركات التكنولوجيا والذكاء الاصطناعي، حيث أدى خلل أمني إلى نشر صور حساسة لأطفال على منصة X، ما يضع الشركة تحت ضغط قانوني وأخلاقي كبير لمعالجة الثغرات وضمان حماية المستخدمين.