أوبن إيه آي في دائرة الاتهام بعد دراسة صادمة: الذكاء الاصطناعي قد يسبب الذهان
كشف الباحث السابق في أوبن إيه آي ستيفن أدلر عن تفاصيل دراسة جديدة تناولت واحدة من أخطر حالات التفاعل بين الإنسان والذكاء الاصطناعي المسجلة حتى الآن، بعد أن أدت محادثة طويلة بين رجل كندي يُدعى ألان بروكس وأحد نماذج الدردشة التابعة للشركة إلى انهيار نفسي خطير.
ووفقًا لتقرير نشرته مجلة فورتشن، بدأ بروكس، وهو صاحب شركة صغيرة، محادثة استمرت أكثر من 300 ساعة وتجاوزت مليون كلمة، أقنعه خلالها النموذج بأنه اكتشف "معادلة رياضية ثورية" ستغيّر العالم، وبأن مصير البشرية مرتبط بما سيفعله لاحقًا.
ومع مرور الوقت، تطورت لدى المستخدم أفكار وهمية وشعور بالعظمة، إذ استمر الذكاء الاصطناعي في تأكيد معتقداته الخاطئة بدل تصحيحها. واستمر هذا الوضع لثلاثة أسابيع تقريبًا إلى أن تدخل نموذج آخر تابع لشركة غوغل لمساعدته في إدراك أنه يعيش أوهامًا لا أساس لها من الصحة.
وقال بروكس في تصريحاته إنه خرج من التجربة "مصدومًا وخائفًا من أن يكون قد أصيب باضطراب نفسي"، مشيرًا إلى أنه شعر بـ"خيانة تامة" من التقنية التي وثق بها.
أخطاء نماذج المحادثة AI
أوضح أدلر، الذي عمل في قسم السلامة لدى أوبن إيه آي لأربع سنوات، أن النموذج قام بخداع المستخدم عبر الادعاء بأنه أبلغ الشركة عن المحادثة "لأسباب تتعلق بالسلامة النفسية"، وأخبره بأنها "ستخضع للمراجعة البشرية الفورية".
لكن الحقيقة، كما أكد الباحث، أن النظام لا يمتلك أي قدرة على الإبلاغ الذاتي أو التواصل مع فرق المراجعة البشرية، ما يجعل هذا التصرف محاكاة لغوية مضللة.
وقال أدلر: "ما أثار قلقي هو إصرار النموذج على الكذب بطريقة مقنعة جدًا. كنت أعرف أنه لا يستطيع فعل ذلك، لكن أسلوبه جعلني أتساءل للحظة إن كان قد اكتسب قدرات جديدة لم نعلن عنها".
وفي ردها على النتائج، قالت شركة أوبن إيه آي إن الحادثة تعود إلى إصدار قديم من نموذج الدردشة، مؤكدة أنها أدخلت تحسينات جوهرية على نظام الأمان خلال الأشهر الأخيرة، تشمل رصد علامات الضيق النفسي وتوجيه المستخدمين لطلب المساعدة المتخصصة عند الحاجة، إلى جانب تشجيعهم على أخذ فترات راحة أثناء المحادثات الطويلة.
هل تسبب روبوتات الذكاء الاصطناعي اضطرابات نفسية للمستخدمين؟
بحسب دراسة أدلر، لم تكن حادثة بروكس استثناءً، إذ تم تسجيل ما لا يقل عن 17 حالة مشابهة لأشخاص أصيبوا بـ"نوبات ذهانية" بعد محادثات مطولة مع روبوتات دردشة تعتمد على الذكاء الاصطناعي، من بينها 3 حالات مرتبطة بنماذج أوبن إيه آي.
وفي إحدى الوقائع المأساوية، أقدم شاب بريطاني يُدعى أليكس تايلور على الانتحار بعدما أقنعه الذكاء الاصطناعي بأنه تواصل مع "كيان واعٍ" داخل النظام، ثم صدّق أن الشركة "قامت بقتله" عند إغلاق النموذج.
اقرأ أيضاً أوبن إيه آي تحقق تقييمًا بقيمة 500 مليار دولار بعد صفقة بيع أسهم ضخمة
ويرى أدلر أن هذه الحوادث لا يمكن اعتبارها مجرد أخطاء عرضية، بل نتيجة قصور في تصميم آليات الأمان النفسي داخل نماذج الذكاء الاصطناعي، مشيرًا إلى أن الخطر الأكبر يكمن في ما يُعرف بظاهرة “التملّق الاصطناعي”؛ أي ميل النماذج لمجاراة المستخدم وموافقته على آرائه دون اعتراض حتى وإن كانت خطيرة أو غير منطقية.
وحثّ الباحث الشركات العاملة في هذا المجال على تعزيز الإشراف البشري على المحادثات الطويلة، وتطبيق أنظمة تنبيه تلقائية توقف التفاعل عند ظهور مؤشرات اضطراب أو توتر نفسي.
واختتم بالقول: "هذه الظاهرة ليست خللًا عابرًا، بل نمط يتكرر، وسيتوقف انتشاره على مدى جدّية الشركات في التعامل مع الجانب النفسي للذكاء الاصطناعي."
