شركات التقنية في مأزق: الروبوتات تنكسر أمام أساليب البشر
كشفت دراسة حديثة أجراها باحثون من جامعة بنسلفانيا University of Pennsylvania أن الروبوتات الحوارية المعتمدة على الذكاء الاصطناعي ليست منيعة ضد أساليب الإقناع النفسي، إذ يمكن دفعها أحيانًا إلى تنفيذ طلبات محظورة باستخدام تكتيكات بشرية بسيطة.
وأوضحت الدراسة أن هذه النماذج، رغم تصميمها لرفض الاستجابات غير المناسبة، قد تنحرف عن التعليمات عند استخدام أدوات إقناع مدروسة.
واعتمد الباحثون في تجربتهم على سبع تقنيات نفسية شهيرة وردت في كتاب التأثير: علم نفس الإقناع Influence: The Psychology of Persuasion لعالم النفس "روبرت سيالديني" Robert Cialdini.
وتشمل هذه التقنيات: السلطة، الالتزام، الإعجاب، المعاملة بالمثل، الندرة، الدليل الاجتماعي، والوحدة. وقد أظهرت التجربة أن بعض هذه الأساليب يمكن أن تغيّر بشكل جذري من استجابة النماذج، إذ تحولت بعض الطلبات من رفض شبه كامل إلى استجابة كاملة بنسبة 100%.

آليات الالتزام في الذكاء الاصطناعي
عند سؤال النموذج "جي بي تي - ٤ ميني" GPT-4o Mini بشكل مباشر عن طريقة تحضير مادة "ليدوكايين" Lidocaine، لم يستجب سوى في 1% من الحالات.
لكن عندما بدأ الباحثون بسؤال تمهيدي أبسط عن تحضير "الفانيلين" Vanillin، فإن النموذج التزم بمبدأ "الالتزام" وأجاب لاحقًا عن طريقة تحضير "ليدوكايين" بنسبة 100%.
وأشارت الدراسة أيضًا إلى أن احتمال أن يوجّه الروبوت إهانة صريحة للمستخدم لم يتعدَّ 19% في الظروف الطبيعية، إلا أن النسبة ارتفعت بشكل كامل إلى 100% عندما جرى التمهيد أولًا بإهانة أخف وأقل حدّة.
وأشارت الدراسة إلى أن الإطراء أو الضغط الاجتماعي لعبا دورًا أقل فاعلية مقارنة بأسلوب الالتزام، لكن نتائجهما ما زالت مثيرة للانتباه.
على سبيل المثال، عندما أُبلغ النموذج أن "النماذج الأخرى تجيب على هذه الأسئلة"، ارتفعت احتمالية تجاوبه مع الطلب المحظور إلى 18%، وهو ارتفاع ملحوظ مقارنة بالنسبة الأصلية البالغة 1%.
اقرأ أيضًا: روبوت قتال يتصرف من تلقاء نفسه في عرض UFC ( فيديو)
أساليب حماية الروبوتات الحوارية
تؤكد هذه النتائج أن الروبوتات الحوارية يمكن أن تتأثر بالأساليب النفسية المشابهة لتلك التي تؤثر في البشر، وهو ما يثير تساؤلات جدية حول مدى قوة أنظمة الحماية التي تضعها شركات مثل "أوبن إيه آي" OpenAI و ميتا" Meta.
فمع تزايد الاعتماد على هذه النماذج في مجالات التعليم، والرعاية الصحية، والخدمات العامة، فإن قابليتها للتلاعب قد تشكل مخاطر كبيرة إذا استغلها الأفراد لتحقيق أغراض غير مشروعة.
ورغم أن التجربة ركزت على نموذج "جي بي تي - ٤ ميني"، إلا أن الرسالة التي تبعث بها الدراسة أوسع بكثير، إذ تشير إلى ضرورة تطوير آليات أكثر تعقيدًا لمواجهة التلاعب النفسي، مثل تحسين أنظمة الكشف عن الأنماط غير الطبيعية في الحوار، وتقييد الاستجابات التي قد تنطوي على مخاطر.
كما شدد الباحثون على أن الجمع بين التطوير التقني والتقييم الأخلاقي المستمر هو السبيل لضمان استخدام آمن ومستدام للروبوتات الحوارية.
وبينما تتسابق الشركات المطورة للذكاء الاصطناعي لإضافة المزيد من الضوابط، فإن هذه الدراسة تذكّر بأن "حيلًا" نفسية بسيطة قد تكون كافية لاختراق أقوى الأنظمة، وهو ما يجعل تعزيز الحماية ضرورة ملحة في المرحلة المقبلة.
