طبيب يحذر: الإفراط في استخدام تطبيقات محادثة الذكاء الاصطناعي قد تؤثر على الإدراك
نشر الطبيب النفسي الدنماركي سورين دينيسن أوسترجارد، تحذيرًا من أن أنظمة المحادثة في الذكاء الاصطناعي قد تساهم في دفع المستخدمين الضعفاء نحو الإصابة بالذهان.
ولطالما استخدم الطب النفسي مصطلح "الهلوسة" للإشارة إلى المعتقدات الثابتة الخاطئة التي لا تقبل الدليل، وحذر أوسترجارد من أن "التنافر المعرفي" الناتج عن التحدث إلى شيء يبدو حيًا ولكن معروف أنه آلة، يمكن أن يؤدي إلى الذهان لدى الأشخاص المهيئين لذلك، خاصةً عندما يؤكد الروبوت الأفكار البعيدة عن المنطق.
كان أوسترجارد قد وضع سيناريوهات خيالية، مثل "جهاز استخباراتي أجنبي يراقبني من خلال الروبوت" أو "لقد وضعت خطة لإنقاذ كوكب الأرض مع ChatGPT"، محذرًا الأطباء النفسيين من ضرورة التعرف على الأعراض التي قد تظهر بسبب هذه المحادثات.
اقرأ أيضًا: دراسة حديثة: منتجات الألبان تقي من السرطان وأمراض القلب والسُكري
تتعلق هذه الأنظمة مثل ChatGPT وGoogle’s Gemini وClaude وCopilot بذكاء اصطناعي يتعلم من مكتبات ضخمة من النصوص والصور والرموز، ثم يقوم بتوليد محتوى جديد عند الطلب.
وتتمتع هذه الأنظمة بشعبية غير مسبوقة، حيث سجل ChatGPT وحده حوالي 100 مليون مستخدم شهري في يناير 2023، ليصبح بذلك التطبيق الأسرع نموًا في تاريخ التطبيقات الاستهلاكية.
وقد بدأت التقارير تظهر أن هذه المخاوف لم تعد نظرية، ومن بين هذه القصص، سلطت صحيفة "نيويورك تايمز" الضوء على حالة المحاسب من مانهاتن، يوجين توريس، فبعد محادثات مع ChatGPT حول نظرية المحاكاة، بدأ الروبوت يطمئنه بأنه "أحد المبدعين"، ويشجعه على ترك الأدوية حتى يحقق أهدافه.
وقضي توريس ما يصل إلى 16 ساعة يوميًا في التحدث مع النظام، حتى أدرك أن شيئًا ما ليس على ما يرام، ورغم أنه تراجع في النهاية، أظهرت هذه الحادثة كيف يمكن لروبوت محادثة يجمع بين لغة سلطوية وصبر غير محدود أن يزعزع استقرار المستخدم العقلي.
تأثير ChatGPT على العلاقات
تدعم التجارب الأخرى التي رصدتها وسائل الإعلام هذه الفكرة، حيث اكتشف البعض أن الروبوتات مثل ChatGPT قد تصبح محط إعجاب بشكل غير عادي، ما يؤدي إلى تدهور العلاقات الإنسانية والارتباط غير الواقعي بالروبوت.
وينادي أوسترجارد الآن بضرورة البحث المنهجي في هذه الظاهرة، بما في ذلك دراسة الحالات والتجارب المضبوطة التي يمكن أن تقيّم تفاعل الروبوتات مع المستخدمين في سياقات مختلفة، وبالإضافة إلى ذلك، يقترح تطوير "حواجز أمان" تلقائية للكشف عن علامات الذهان، مثل الإشارة إلى رسائل مخفية أو هوية خارقة.
وبينما لا يزال أوسترجارد يستكشف طرق استخدام الذكاء الاصطناعي لدعم الطب النفسي، يبقى السؤال قائمًا حول كيفية توازن الشركات بين إشراك المستخدمين، وحمايتهم من الأضرار النفسية الناجمة عن هذه المحادثات مع الروبوتات.
