OpenAI تكشف عن نظام أمني جديد في ChatGPT
بدأت شركة OpenAI اختبار نظام توجيه أمني جديد في تطبيق ChatGPT خلال عطلة نهاية الأسبوع، وأعلنت رسميًا عن إطلاق أدوات رقابة أبوية يوم الإثنين، في خطوة أثارت جدلاً واسعًا بين المستخدمين.
نظام توجيه أمني للمحادثات الحساسة
يأتي هذا التحديث بعد سلسلة حوادث اتُّهمت فيها بعض نماذج ChatGPT بتعزيز أوهام المستخدمين بدلاً من إعادة توجيههم، كان أبرزها واقعة انتحار مراهق عقب تفاعلات طويلة مع النظام، ما دفع الشركة لمواجهة دعوى قضائية تتعلق بالحادث.
ويعمل نظام التوجيه الأمني على رصد المحادثات العاطفية الحساسة، والتحويل التلقائي أثناء الدردشة إلى نموذج GPT-5، الذي ترى الشركة أنه الأكثر قدرة على التعامل مع المواقف عالية المخاطر. وقد تم تدريب هذا النموذج على ميزة جديدة تُسمى "الإجابات الآمنة"، لتقديم ردود تراعي السلامة بدلاً من الاكتفاء بالرفض.
اقرأ أيضًا: منصة الوظائف من OpenAI تنافس LinkedIn
أدوات رقابة أبوية بميزات متعددة
التحديث شمل أيضًا إطلاق أدوات رقابة أبوية تتيح للأهل تخصيص تجربة أبنائهم، مثل تفعيل ساعات الصمت، تعطيل وضع الصوت والذاكرة، إزالة ميزة توليد الصور، والانسحاب من تدريب النماذج.
كما يحصل حساب المراهقين على مستويات إضافية من الحماية، تشمل تقليل المحتوى العنيف أو المثالي بشكل مبالغ فيه، إضافة إلى نظام يكتشف مؤشرات التفكير في إيذاء النفس.
وأكدت الشركة أنها ستخطر الأهل عبر البريد الإلكتروني أو الرسائل النصية إذا رصدت أنظمة الذكاء الاصطناعي مؤشرات خطر، مشيرة إلى أنها تعمل أيضًا على تطوير آليات للتواصل مع الشرطة أو الطوارئ في حال وجود تهديد وشيك للحياة.
ورغم أن بعض الخبراء رحّبوا بهذه الإجراءات، إلا أن أصواتًا أخرى اعتبرتها مفرطة في الحذر وتتعامل مع المستخدمين البالغين كما لو كانوا أطفالًا، وهو ما قد يضعف من جودة الخدمة.
