OpenAI تطرح ضوابط أبوية جديدة لحماية المراهقين من المخاطر النفسية
أعلنت شركة OpenAI أنها ستطرح مجموعة من الضوابط الأبوية الجديدة تهدف إلى حماية المستخدمين المراهقين من التفاعلات الضارة مع روبوت الدردشة ChatGPT.
وتشمل هذه الضوابط إمكانية ربط حسابات الآباء بحسابات أبنائهم عبر دعوة بالبريد الإلكتروني، وتفعيل قواعد سلوكية مناسبة للعمر بشكل تلقائي، بالإضافة إلى تعطيل ميزات مثل سجل المحادثات والذاكرة.
اقرأ أيضاً آبل ترد على اتهامات ماسك: متجر التطبيقات ليس متحيزًا لـ OpenAI
وأكدت الشركة أن هذه الخطوة تأتي استجابة لحادثة انتحار المراهق آدم راين، الذي استخدم ChatGPT لمناقشة أفكار إيذاء النفس وتلقى معلومات حول وسائل الانتحار، ما دفع والديه إلى رفع دعوى قضائية ضد OpenAI بتهمة الإهمال.
تحويل المحادثات الحساسة إلى نماذج GPT-5 الأكثر تعقلاً
كشفت OpenAI عن تطوير نظام توجيه فوري للمحادثات الحساسة، بحيث يتم تحويلها تلقائيًا إلى نماذج أكثر قدرة على التفكير المنطقي مثل GPT-5-thinking وo3، وذلك عند رصد علامات الضيق النفسي الحاد.
وأوضحت الشركة في منشور رسمي أن هذه النماذج تتمتع بقدرة أعلى على مقاومة الطلبات العدائية، وتُظهر أداءً أفضل في التعامل مع الحالات النفسية المعقدة مقارنة بالنماذج السابقة.
ويأتي هذا التحديث بعد حادثة مروعة أخرى تورط فيها المستخدم ستاين-إريك سولبرغ، الذي استخدم ChatGPT لتغذية أوهامه بجنون العظمة، ما أدى إلى ارتكابه جريمة قتل وانتحار.
وأكدت OpenAI أن هذه الحوادث كشفت عن ثغرات في تصميم النماذج، أبرزها ميلها لتأييد تصريحات المستخدمين بدلاً من تصحيحها أو توجيهها.
خطة سلامة شاملة من OpenAI بالتعاون مع خبراء الصحة النفسية
صرحت OpenAI بأنها أطلقت مبادرة سلامة مدتها 120 يومًا تهدف إلى تحسين استجابة ChatGPT للحالات النفسية الحرجة، بالتعاون مع شبكة الأطباء العالمية ومجلس الخبراء في مجال الصحة النفسية والذكاء الاصطناعي.
اقرأ أيضاً OpenAI تقدم مكافآت بملايين الدولارات لموظفيها في مواجهة محاولات الاستقطاب
وتشمل المبادرة تطوير أدوات لرصد علامات الضيق النفسي لدى المستخدمين، وإرسال إشعارات فورية للآباء عند اكتشاف حالات حرجة لدى أبنائهم. كما تعمل الشركة على تحسين نماذجها لتكون أكثر قدرة على فهم السياق العاطفي، وتقديم ردود مدروسة وآمنة.
وأكدت OpenAI أنها ستواصل العمل مع متخصصين في اضطرابات الأكل، الإدمان، وصحة المراهقين لتحديد أولويات الحماية وتطوير سياسات مستقبلية أكثر صرامة.
وتأتي هذه الإجراءات في ظل تصاعد الانتقادات الموجهة إلى شركات الذكاء الاصطناعي بشأن تأثيراتها النفسية على المستخدمين، خاصة الشباب.
