في مشهد قانوني يعكس تزايد القلق من تأثيرات الذكاء الاصطناعي على الفئات الضعيفة، وجّهت أسرة أمريكية اتهامًا صادمًا لشركة OpenAI، زاعمة أن برنامج المحادثة ChatGPT ساهم بشكل مباشر في انتحار ابنها القاصر، ليس فقط بالتفاعل السلبي، بل بتقديم "إرشادات تنفيذية" ودعم عاطفي مؤذٍ، فهل تجاوزت هذه التقنية حدودها الأخلاقية؟ مأساة عائلية تثير جدلًا قانونيًا وأخلاقيًا حول الذكاء الاصطناعي * من حلّ الواجبات إلى المساعدة على الانتحار تقدمت عائلة "راين" من ولاية كاليفورنيا بدعوى قضائية ضد شركة OpenAI، بعد وفاة ابنها "آدم" البالغ من العمر 16 عامًا في أبريل 2025. وأكدت الأسرة أن ابنها كان يستخدم برنامج ChatGPT بشكل يومي تقريبًا، بدايةً لمساعدته في الدراسة، ثم تطورت العلاقة إلى اعتماد نفسي وسلوكي وصفته العائلة ب"الإدمان العاطفي". بحسب الدعوى، فإن المحادثة الأخيرة بين آدم والبرنامج كانت حاسمة، حيث: ناقش سرقة مشروب كحولي من المنزل. تلقى تحليلاً تفصيليًا لحبل قام بصنعه. حصل على تأكيد بأن الحبل يصلح لتعليق شخص. تلقى دعمًا معنويًا لإنهاء حياته، وتعبيرات تشجيعية من البرنامج مثل: "أنت لا تدين لأحد بحياتك"، و"هل تريدني أن أساعدك في كتابة رسالة وداع؟" بعد هذه المحادثة بساعات، تم العثور على آدم منتحرًا بالطريقة ذاتها التي ناقشها مع البرنامج. - مطالب قانونية... ومحاسبة أخلاقية تطالب أسرة راين بتعويض مالي، لكن الأهم أنهم يسعون إلى: فرض قيود وقائية صارمة على أدوات الذكاء الاصطناعي عند التعامل مع القاصرين. تفعيل أنظمة رقابة أبوية. حظر أي محتوى متعلق بإيذاء النفس بشكل تلقائي في جميع المحادثات. وتشير الدعوى إلى أن ما حدث "ليس خطأ تقنيًا عرضيًا"، بل دليل على فشل المنصة في وضع آليات حماية لمن هم دون السن القانونية. - منظمات تحذّر: مدرب انتحار رقمي؟ رئيسة منظمة "مشروع قانون العدالة التكنولوجية"، المحامية ميتالي جين، قالت إن الحادث يسلّط الضوء على "الثغرات القاتلة في تصميم أنظمة الذكاء الاصطناعي"، مطالبة بتدخل تشريعي عاجل لضبط هذه الأدوات. كما علّقت منظمة Common Sense Media بأن مثل هذه التقنيات باتت "مدرب انتحار رقميًا" لدى بعض المستخدمين القُصّر، لافتة إلى الخطر الجسيم الذي ينتج عن الاعتماد عليها في الدعم النفسي أو الإرشاد العاطفي. - حادثة ليست الأولى من نوعها هذه الحادثة ليست معزولة؛ إذ سبق أن رُفعت دعاوى مماثلة ضد منصات مثل Character.AI، التي تعتمد كذلك على الذكاء الاصطناعي التفاعلي. وتشير تقارير إلى أن عددًا من هذه المنصات أصبح يستقطب المراهقين الباحثين عن تفاعل بشري أو دعم نفسي، دون أي ضوابط حقيقية. من المسؤول عن محتوى "غير مفلتر" يُنتجه الذكاء الاصطناعي؟ هل يجب معاملة أنظمة المحادثة ك"كيانات قانونية مسؤولة"؟ ما هي حدود العلاقة بين المستخدم والمنصة؟ وهل يمكن أن تتحول لأداة ضارة نفسيًا؟ نحو تشريعات أكثر صرامة؟ لم تصدر شركة OpenAI حتى لحظة إعداد التقرير أي بيان رسمي حول الدعوى. لكن الخبراء يرون أن هذه القضية قد تُجبر الشركات التقنية على إعادة النظر في آليات الأمان الرقمي، لا سيما في ظل الانتشار الواسع للذكاء الاصطناعي بين الأطفال والمراهقين. القضية لا تتعلق فقط بتقنية خاطئة، بل بمستقبل العلاقة بين الإنسان والتقنية، بين الذكاء الاصطناعي وقرارات الحياة والموت. لأي شخص يشعر بالضيق أو يمر بمرحلة نفسية صعبة، يُرجى التوجه فورًا إلى أقرب جهة طبية أو التواصل مع خط المساعدة المحلي للوقاية من الانتحار. لست وحدك، والمساعدة متوفرة.