كشفت شركة ميتا أنها تعتزم إعادة تدريب أنظمة الذكاء الاصطناعي الخاصة بها، وإضافة ضوابط جديدة تهدف إلى حماية المراهقين من الانخراط في محادثات غير آمنة مع روبوتات الدردشة التابعة لها.
وقالت الشركة إنها ستضع “حواجز حماية إضافية” لمنع المراهقين من مناقشة موضوعات حساسة، مثل إيذاء النفس واضطرابات الأكل والانتحار، مع روبوتات الذكاء الاصطناعي، كما ستمنعهم من الوصول إلى بعض الشخصيات التي يصنعها المستخدمون داخل المنصة، لمنع إجراء محادثات غير ملائمة.
وأوضحت المتحدثة باسم الشركة، ستيفاني أوتواي، أن ميتا “بنت آليات حماية للمراهقين منذ البداية”، وأنها تعمل على تعزيزها باستمرار مع تطور تقنياتها.
وأضافت أن الأنظمة الجديدة ستدرب الروبوتات على عدم التفاعل مع المراهقين حول هذه المواضيع، والاكتفاء بتوجيههم نحو مصادر دعم متخصصة. وفق “أخبار 24”.
هذه التحديثات ستبدأ بالظهور، وفق الشركة، تدريجيًا خلال الأسابيع المقبلة، وسوف تشمل كافة المراهقين المستخدمين لخدمات ميتا في الدول الناطقة بالإنجليزية، دون إشارة إلى باقي اللغات.