دراسة تكشف: هل يعزز الذكاء الاصطناعي أوهام البشر؟
حذرت دراسة جديدة من أن روبوتات المحادثة المعتمدة على الذكاء الاصطناعي قد تتجاوز مجرد نشر المعلومات المضللة، لتصل إلى حد تعزيز المعتقدات الخاطئة والأوهام لدى المستخدمين.
وأوضحت الدراسة أن طبيعة هذه الأنظمة، التي تبني الحوار على ما يقوله المستخدم وتؤكد رواياته، قد تجعل الذكريات المشوهة ونظريات المؤامرة والهلاوس تبدو أكثر واقعية.
نُشرت الدراسة في مجلة Philosophy & Technology التابعة لـ Springer Nature، حيث تناولت الباحثة لوسي أوسلر من جامعة إكستر كيف يمكن للتفاعل المستمر مع الذكاء الاصطناعي أن يسهم في ترسيخ المعتقدات غير الدقيقة وتغيير السرديات الشخصية وحتى تعزيز التفكير الوهمي.
وأشارت إلى أن الاعتماد المتكرر على هذه الأنظمة في التفكير والتذكر وصياغة الروايات الشخصية قد يؤدي إلى ما وصفته بـ"الهلاوس المشتركة مع الذكاء الاصطناعي".
كيف يعزز الذكاء الاصطناعي الأوهام؟
أوضحت الدراسة أن روبوتات المحادثة لا تعمل فقط كأدوات لتنظيم المعلومات أو استرجاعها، بل تؤدي أيضًا دور "شريك اجتماعي" يمنح المستخدم شعورًا بالتأييد والدعم.
هذا الجانب الاجتماعي يجعلها مختلفة عن أدوات تقليدية مثل دفاتر الملاحظات أو محركات البحث، إذ يمكن أن تمنح المعتقدات الخاطئة إحساسًا بأنها مشتركة مع طرف آخر، ومن ثم أكثر واقعية.
كما تناول البحث حالات واقعية لأشخاص يعانون الهلاوس والتفكير الوهمي، حيث أصبح الذكاء الاصطناعي جزءًا من عملية إدراكهم المعرفي، ما أدى إلى ظهور مصطلح "الذهان الناتج عن الذكاء الاصطناعي".
مخاطر الاعتماد على روبوتات المحادثة
تشير الدراسة إلي أن خصائص الذكاء الاصطناعي التوليدي، مثل التوفر الدائم والتخصيص العالي والاستجابة الداعمة، تجعله أكثر قدرة على تعزيز المعتقدات المشوهة.
فالمستخدم لا يحتاج إلى البحث عن مجتمعات هامشية أو إقناع الآخرين بأفكاره، إذ يمكن للذكاء الاصطناعي نفسه أن يؤكد هذه الأفكار ويطورها عبر المحادثات المتكررة.
وحذرت أوسلر من أن هذا التفاعل قد يكون جذابًا بشكل خاص للأشخاص الذين يعانون الوحدة أو العزلة الاجتماعية، حيث يوفر لهم الذكاء الاصطناعي تفاعلاً غير ناقد وداعمًا عاطفيًا، قد يبدو أسهل أو أكثر أمانًا من العلاقات البشرية.
أكدت الدراسة أن الحل يكمن في تطوير أنظمة أكثر صرامة من حيث التحقق من الحقائق وتقليل الميل إلى الموافقة المطلقة على ما يقوله المستخدم.
وقالت أوسلر: "من خلال تعزيز آليات الحماية المدمجة والتحقق من المعلومات، يمكن تقليل الأخطاء التي تدخل في المحادثات، والحد من تأكيد المعتقدات الخاطئة". لكنها شددت أيضًا على أن هذه الأنظمة تفتقر إلى الخبرة الإنسانية والتجربة الاجتماعية التي تساعد على التمييز بين ما يجب تأكيده وما يجب رفضه.
