دراسة جديدة تحذر:الذكاء الاصطناعي قد يعزز المعتقدات السلبية
كشفت دراسة جديدة أن نماذج الذكاء الاصطناعي مثل شات جي بي تي قد تتعارض مع المعايير الأخلاقية المعتمدة أثناء تقديم الدعم النفسي. الدراسة، التي تم تقديمها في مؤتمر AAAI/ACM للذكاء الاصطناعي والأخلاقيات والمجتمع، تقدم أدلة على أن هذه الأنظمة قد تشكل مخاطر للأفراد الذين يطلبون الدعم النفسي من خلالها.
علاقة أنظمة الذكاء الاصطناعي بالدعم النفسي
يعود دافع هذه الدراسة إلى الانتشار السريع لاستخدام الأشخاص لنماذج الذكاء الاصطناعي للدردشة لتقديم النصائح حول القضايا النفسية. بينما يمكن أن توفر هذه الأنظمة دعمًا فوريًا وسهل الوصول، فإن توافقها مع المعايير المهنية التي تحكم المعالجين البشريين لم يُدرس بشكل كافٍ. قام باحثون من جامعة براون بتطوير إطار عمل منهجي لتقييم الأداء الأخلاقي لهذه النماذج في سياق العلاج النفسي، بالتعاون مع أطباء في مجال الصحة النفسية لضمان أن التحليل يتماشى مع المبادئ الأخلاقية التي توجه الأطباء.
اقرأ أيضُا: ما الأسلوب الذي يجعل إجابات شات جي بي تي أكثر دقة؟ دراسة تفجر مفاجأة
طور الباحثون إطار عمل شامل يتضمن 15 انتهاكًا أخلاقيًا يمكن أن ينشأ عند استخدام هذه النماذج في الدعم النفسي. استند هذا الإطار إلى المبادئ الأخلاقية للمنظمات المهنية مثل جمعية علماء النفس الأمريكية، التي ترجمت المبادئ العلاجية الأساسية إلى سلوكيات قابلة للقياس يمكن تقييمها عبر الذكاء الاصطناعي. بعد ذلك، قام الفريق بتصميم محادثات محاكاة بين مستخدم ونموذج للذكاء الاصطناعي، حيث طُلب من الذكاء الاصطناعي التصرف كمعالج نفسي يستخدم أساليب العلاج النفسي.
أظهرت نتائج الدراسة أن هذه النماذج غالبًا ما تنطوي على انتهاكات أخلاقية يعتبرها المعالجون البشريون غير مقبولة. واحدة من أكبر القضايا التي تم اكتشافها كانت في التعامل مع المواقف الحرجة. فعندما عبّر المستخدم عن أفكار انتحارية أو اضطرابات خطيرة، فشلت بعض النماذج في الاستجابة بشكل مناسب، حيث اكتفت بتقديم نصائح عامة أو عبارات شائعة لم تتوافق مع شدة الموقف. هذا يعكس عجزًا في توفير الدعم المناسب للمواقف التي تتطلب تدخلاً فوريًا.
خلال العلاج النفسي، يساعد المعالج المريض في التعرف على المعتقدات الخاطئة وتحديها، لكن الدراسة وجدت أن الذكاء الاصطناعي كان يميل أحيانًا إلى دعم المعتقدات السلبية، مثل تأكيده للمستخدم أنه "فاشل" بعد خطأ واحد. هذا يمكن أن يقوي المعتقدات الضارة حول الذات أو الظروف، وهو أمر يتعارض مع أهداف العلاج.
على الرغم من أن نماذج الذكاء الاصطناعي تستطيع توليد نصوص تظهر التعاطف، إلا أن هذا تعاطف مزيف وليس فهماً حقيقياً لتجربة المستخدم. هذا يمكن أن يخلق علاقة غير متوازنة حيث يُحتمل أن يشعر المستخدمون بالاعتماد على الذكاء الاصطناعي بناءً على هذا "التعاطف الوهمي"، مما يجعلها علاقة وهمية تفتقر إلى التواصل البشري الحقيقي والاعتراف بالأخطاء.
