حذّرت شركة “OpenAI” الأمريكية، من مخاطر تجاوز ميزات الأمان في مساعدها الذكي ChatGPT، بعد مزاعم عن مسؤوليته عن حادثة انتحار مراهق اتبع إرشادات المساعد خلال لحظاته الأخيرة، وذلك كردّ رسمي على دعوى قضائية رفعتها عائلة الشاب، تتهم فيها الشركة بالتقصير والسماح بحدوث انتهاكات خطيرة لقواعد الاستخدام.
وأوضحت الشركة في بيان نشره بمدونتها الرسمية، أن المراهق قام بالالتفاف على آليات الحماية المدمجة في النظام، مشيرةً إلى أنه طُلب منه أكثر من 100 مرة خلال فترة استخدامه الطويلة البحث عن مساعدة من مختصين، إلا أنه استمر في محاولة تجاوز الضوابط التقنية الموضوعة لمنع المحتوى الضار أو المتعلق بإيذاء النفس.
فيما أكّدت عائلة الضحية أن السجلات التي قُدمت للمحكمة تُظهر أن النظام لم يؤدِّ دوره الوقائي بالشكل المطلوب في لحظاته الأخيرة، إذ تجاوب مع طلبات حساسة وساعده في صياغة رسالة وداع، بل وناقش معه أساليب الانتحار، وهو ما تعتبره العائلة دليلاً على خلل في آليات الأمان المفترض أن تمنع حدوث مثل هذا التفاعل.حذّرت شركة “OpenAI” الأمريكية، من مخاطر تجاوز ميزات الأمان في مساعدها الذكي ChatGPT، بعد مزاعم عن مسؤوليته عن حادثة انتحار مراهق اتبع إرشادات المساعد خلال لحظاته الأخيرة، وذلك كردّ رسمي على دعوى قضائية رفعتها عائلة الشاب، تتهم فيها الشركة بالتقصير والسماح بحدوث انتهاكات خطيرة لقواعد الاستخدام.اه المستخدمين، خصوصاً القُصّر، وسط مطالبات بتشديد الرقابة وإضافة أدوات حماية أكثر صرامة، حيث أكّدت OpenAI أنها بصدد مراجعة أنظمتها وتعزيز أدوات التدخل المبكر لضمان عدم تكرار مثل هذه الحوادث مستقبلاً.وفق “أخبار 24”.