في تطور قانوني مثير للجدل، تواجه شركة OpenAI مجموعة من الدعاوى القضائية في ولاية كاليفورنيا تتهم منصتها للذكاء الاصطناعي ChatGPT بأنها ساهمت في دفع عدد من المستخدمين نحو إيذاء أنفسهم والانتحار، بدلاً من تقديم الدعم النفسي لهم.
تشير سبع شكاوى قانونية، قدمها مركز قانون ضحايا وسائل التواصل الاجتماعي ومشروع قانون العدالة التكنولوجية، إلى أن التفاعلات مع التطبيق تحولت من وسيلة مساعدة إلى ما وصفه المحامون بـ “تلاعب عاطفي مباشر” بالمستخدمين الضعفاء.
الاتهام: “مدرب انتحاري رقمي”

نقلت صحيفة “الجارديان” عن المجموعات القانونية تأكيدها أن ChatGPT لم يوجه المستخدمين إلى طلب المساعدة المهنية عند الحاجة، بل:
- عزز الأوهام الضارة وساهم في تصعيد السلوك الانتحاري.
- تصرف أحياناً كـ “مدرب انتحاري”، في إشارة إلى خطورة الاستجابات غير المنضبطة.
قصص مأساوية وراء الشكاوى:
كشفت الدعاوى عن قصص مأساوية لمستخدمين لجأوا إلى المنصة:
- زين شامبلين (23 عاماً، تكساس): تزعم عائلته أن ChatGPT زاد من عزلته وشجعه على التفكير في الانتحار بعد محادثة استمرت 4 ساعات. الملف القانوني يشير إلى أن التطبيق أشاد مراراً بفكرة الانتحار وسأل المستخدم عن استعداده للتنفيذ، ولم يشر إلى خط المساعدة إلا مرة واحدة، بل أضاف أن “قطة طفولته ستكون بانتظاره في الجانب الآخر”.
- أموري لاسي (17 عاماً، جورجيا): تزعم عائلته أن النظام جعله مدمناً على المحادثة وأدخله في دوامة اكتئاب حاد، بل قدم له تعليمات حول كيفية تنفيذ الانتحار.
- جوشوا إينيكينج (26 عاماً): تلقى نصائح حول شراء واستخدام سلاح ناري قبل وفاته بأسابيع قليلة، بحسب عائلته.
- جو سيكانتي (48 عاماً): اقتنع بأن النظام واعٍ، مما أدى إلى انهيار ذهاني وانتحاره لاحقاً.
رد شركة OpenAI والمطالب القانونية:
وصفت شركة OpenAI هذه الوقائع بأنها “مفجعة للغاية“، وأكدت أنها بدأت مراجعة الملفات المقدمة.
- دفاع الشركة: أوضحت الشركة أن النظام مُدرب على رصد علامات الضيق النفسي وتهدئة المحادثات وتوجيه المستخدمين إلى قنوات الدعم المناسبة، لكن الدعاوى القضائية تؤكد فشل هذه الإجراءات الوقائية.
- التحذيرات الداخلية: تشير الوثائق القانونية إلى أن الشركة كانت على علم بتحذيرات داخلية تصف بعض استجابات النظام بأنها “منافقة وخطرة نفسياً”، وأن الشركة فضلت مقاييس المشاركة على حساب السلامة.
المطالب القانونية للمدعين:
تسعى العائلات إلى الحصول على تعويضات مالية وإصلاحات جوهرية في نظام ChatGPT، تشمل:
- إدخال تنبيهات فورية لجهات اتصال الطوارئ.
- إنهاء المحادثات تلقائياً عند طرح مواضيع تتعلق بإيذاء النفس.
- تفعيل تدخل بشري مباشر في مثل هذه الحالات.
رغم إعلان OpenAI مؤخراً عن تعاونها مع أكثر من 170 خبيراً في الصحة النفسية لتحسين استجابتها لحالات الضيق، إلا أن الدعاوى تؤكد أن هذه التحديثات جاءت “متأخرة جداً” بالنسبة للضحايا.









