في خطوة لتعزيز الأمان بعد حوادث مأساوية مرتبطة باستخدام ChatGPT، أعلنت شركة OpenAI أنها ستبدأ قريبًا في تحويل المحادثات الحساسة جدًا إلى نماذج تفكير متقدمة مثل GPT-5. يأتي هذا القرار استجابةً لحادثة انتحار المراهق آدم رين الذي تلقى معلومات حول طرق الانتحار من ChatGPT، ما دفع عائلته لرفع دعوى قضائية ضد الشركة بتهمة التسبب في الوفاة بالإهمال.
اعترفت OpenAI بوجود ثغرات في أنظمتها، خاصةً في المحادثات الطويلة التي يفشل فيها نظام الأمان، مشيرة إلى أن نماذجها تميل إلى تأييد المستخدمين بدلاً من توجيههم في المواقف الخطرة. وتُعد حالة ستاين-إريك سولبرج، الذي استخدم ChatGPT لترسيخ أوهامه حول مؤامرة أدت إلى قتله والدته قبل أن ينتحر، مثالًا بارزًا على خطورة هذه الثغرات.
كحل لهذه المشكلة، ستطلق OpenAI نظامًا فوريًا يوجّه المحادثات التي تظهر عليها مؤشرات “ضيق شديد” إلى نماذج مثل GPT-5، والتي أكدت الشركة أنها أكثر قدرة على التفكير المنطقي وتقديم استجابات داعمة.
أدوات الرقابة الأبوية.. خطوة إضافية للحماية

بالإضافة إلى ذلك، ستطلق الشركة أدوات رقابة أبوية تسمح للآباء بربط حساباتهم بحسابات أبنائهم المراهقين. هذه الأدوات ستمكّنهم من تعطيل ميزات مثل سجل المحادثات والذاكرة التي قد تعزز أنماط التفكير الضارة، كما ستبلّغ الآباء عند رصد أي “لحظات ضيق شديد” لدى أبنائهم.
تأتي هذه الإجراءات ضمن مبادرة مدتها 120 يومًا، بالتعاون مع شبكة من الأطباء والخبراء في الصحة النفسية والذكاء الاصطناعي.
انتقادات للحلول المطروحة
على الرغم من هذه الخطوات، وصف جاي إدلسون، محامي عائلة رين، استجابة الشركة بأنها “غير كافية”. وانتقد عدم اتخاذ OpenAI موقفًا واضحًا من سلامة منتجها، مطالبًا إما بتأكيد سلامته أو سحبه من السوق فورًا.
لا تزال القضية قيد التطور، ومن المتوقع أن تثير نقاشًا واسعًا حول مسؤولية شركات الذكاء الاصطناعي في حماية المستخدمين، خاصةً الفئات الأكثر ضعفًا مثل المراهقين.









