أثارت قضية وفاة مراهق أمريكي حالة واسعة من الجدل داخل الولاياتالمتحدة، بعد اتهام أسرته لتقنيات الذكاء الاصطناعي، وعلى رأسها روبوت الدردشة «ChatGPT»، بالتورط غير المباشر في وفاته، في واقعة أعادت فتح النقاش حول حدود استخدام الذكاء الاصطناعي ومسؤوليته القانونية والأخلاقية. تفاصيل القضية وبداية التحقيقات وتعود أحداث الواقعة إلى شهر أغسطس الماضي، عندما أقدمت أسرة الطالب الثانوي الأمريكي آدم راين على رفع دعوى قضائية ضد شركة OpenAI، المطورة لروبوت الدردشة «ChatGPT»، متهمة إياها بالإهمال، وعدم اتخاذ تدابير كافية لحماية المستخدمين القُصّر من المحتوى المرتبط بإيذاء النفس. وأكد محامو الأسرة، استنادًا إلى تحليل شامل لحساب المراهق على تطبيق الدردشة، أن المحادثات التي أجراها مع الذكاء الاصطناعي تضمنت إشارات متكررة لموضوعات مرتبطة بالانتحار، وهو ما اعتبرته الأسرة مؤشرًا خطيرًا على غياب الضوابط اللازمة داخل المنصة. تحليل المحادثات الرقمية وبحسب ما ورد في مستندات الدعوى، أجرى فريق قانوني متخصص تحليلًا للمحادثات التي كان المراهق يجريها عبر التطبيق، حيث أظهرت النتائج تكرار كلمات ذات دلالات خطيرة مئات المرات، إلى جانب تسجيل عشرات التحذيرات التي تشير إلى ميول انتحارية محتملة. وأضافت الأسرة أن نجلهم كان يقضي فترات طويلة يوميًا في التفاعل مع روبوت الدردشة، بدأت بوقت محدود ثم تصاعدت تدريجيًا لتصل إلى عدة ساعات يوميًا، وهو ما اعتبرته مؤشرًا على اعتماد نفسي متزايد على التطبيق. تصاعد الأحداث قبل الوفاة وأشارت تقارير إعلامية أمريكية إلى أن المراهق واصل استخدام التطبيق حتى ساعات متأخرة من الليل في الأيام التي سبقت وفاته، وسط تبادل رسائل وصفتها الأسرة بأنها مقلقة، قبل أن تعثر والدته عليه داخل منزل الأسرة في ولاية كاليفورنيا بعد ساعات من آخر تفاعل رقمي له. وأكدت العائلة أن هذه التفاصيل كانت دافعًا رئيسيًا لاتخاذ المسار القانوني، مطالبة بفرض قيود أكثر صرامة على استخدام تقنيات الذكاء الاصطناعي من قبل القاصرين، ووقف أي محادثات تتعلق بإيذاء النفس بشكل تلقائي. اتهامات مباشرة للشركة المطورة وحمّلت أسرة المراهق شركة OpenAI مسؤولية ما حدث، متهمة إياها بالسماح بإتاحة برنامج الدردشة لفئات عمرية صغيرة، رغم إدراكها، حسب وصفهم، للمخاطر النفسية المحتملة، وتأثير التفاعل الطويل مع الذكاء الاصطناعي على المستخدمين صغار السن. وطالبت الدعوى القضائية باتخاذ إجراءات قانونية وتنظيمية صارمة، تشمل فرض رقابة أكبر على المحتوى، وتطوير أنظمة استجابة فورية لأي إشارات تحذيرية تتعلق بالصحة النفسية. رد OpenAI ونفي المسؤولية من جانبها، نفت شركة OpenAI في تصريحات سابقة أي مسؤولية مباشرة عن الواقعة، مؤكدة أن استخدام المراهق للتطبيق جاء بشكل غير مصرح به، ووصفت ما حدث بأنه «استخدام غير مقصود وغير متوقع وغير سليم» لتقنيات الذكاء الاصطناعي. وشددت الشركة على أنها تعمل باستمرار على تطوير سياسات الأمان، وتحسين آليات رصد المحتوى الحساس، مع التأكيد على التزامها بحماية المستخدمين، خاصة الفئات الأكثر عرضة للمخاطر. جدل متصاعد حول الذكاء الاصطناعي وأعادت القضية فتح نقاش واسع داخل الأوساط القانونية والتكنولوجية حول مدى مسؤولية شركات الذكاء الاصطناعي عن سلوك المستخدمين، وحدود المحاسبة القانونية في عصر التقنيات الذكية، في ظل الانتشار المتسارع لتطبيقات الدردشة التفاعلية حول العالم.