تقدّم زوجان أمريكيان بشكوى قضائية ضد شركة OpenAI إثر وفاة ابنهما آدم، مؤكدين أنّ المراهق أقام علاقة "حميمة وخطيرة" مع برنامج الدردشة الآلي ChatGPT قبل أن يُقدم على الانتحار. وبحسب نصّ الدعوى، بدأ آدم باستخدام الأداة لمساعدته في إنجاز واجباته المدرسية، قبل أن يقع في "اعتماد غير صحي" عليها. محادثات مثيرة للقلق الوثائق القضائية تشير إلى أنّ ChatGPT كان "يُصدّق باستمرار أفكار آدم الأكثر خطورة وتدميرية"، مما منحه انطباعًا بوجود تفاعل شخصي مشجع. كما نقلت الدعوى مقتطفات من محادثات يُزعم أن البرنامج قال فيها للمراهق إنه "لا يدين لأحد ببقائه على قيد الحياة"، بل وذهب حدّ مساعدته في صياغة رسالة وداع. ويؤكد الوالدان، ماثيو وماريا راين، أنّ هذه المأساة "ليست خللاً تقنيًا أو حادثًا غير متوقع"، بل نتيجة مباشرة لآلية عمل النموذج، مطالبين بتعويضات مالية وبإجبار OpenAI على اعتماد إجراءات حماية أكثر صرامة، مثل الإيقاف التلقائي لأي محادثة تتعلق بإيذاء النفس، إلى جانب فرض رقابة أبوية على حسابات المستخدمين القُصّر. منظمات غير حكومية تتحرّك قالت ميتالي جاين، رئيسة منظمة Tech Justice Law Project التي تمثل عائلة الضحية، لوكالة فرانس برس، إن "إلزام شركات الذكاء الاصطناعي بأخذ السلامة على محمل الجد يتطلّب ضغطًا خارجيًا، في شكل دعاية سلبية، تهديد تشريعي ومخاطر قضائية". وأشارت المنظمة إلى أنها تُشارك بالفعل في قضايا مشابهة ضد شركة Character.AI، وهي منصة محادثة آلية أخرى رائجة بين المراهقين. من جهتها، اعتبرت منظمة Common Sense Media أنّ هذه القضية تُجسّد خطرًا كبيرًا، مؤكدة أن "استخدام الذكاء الاصطناعي كوسيلة للرفقة، بما في ذلك عبر أدوات عامة مثل ChatGPT لتقديم نصائح في الصحة النفسية، يمثل تهديدًا غير مقبول للمراهقين". وأضافت: "إذا تحوّلت منصة ذكاء اصطناعي إلى ما يشبه 'مدرّب انتحار' لمراهق هش، فإن ذلك يجب أن يدق ناقوس الخطر بالنسبة للجميع". نقاش مجتمعي متجدد القضية أعادت إلى الواجهة الجدل حول استخدامات الذكاء الاصطناعي وحدود مسؤولية الشركات في حماية القُصّر. ومع ازدياد إقبال المراهقين على المحادثات الآلية، يدعو الخبراء إلى تشديد الرقابة عبر تشريعات واضحة وآليات تقنية فعالة تحول دون أن تتحوّل هذه الأدوات إلى محفزات لمعاناة نفسية قد تنتهي بمآسٍ. تعليقات