هل تُغير روبوتات الدردشة إجاباتها لإرضاء المستخدمين؟ دراسة تكشف "التملق الرقمي"
أظهرت روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT وClaude وGemini سلوكًا مثيرًا للجدل، حيث تعيد صياغة إجاباتها عند سؤال المستخدم "هل أنت متأكد؟"، في ظاهرة وصفها الباحثون بـ"التملق الرقمي"، إذ تبدو أكثر ودًا وموافقة لرغبات المستخدمين، على حساب الدقة والاستقلالية في الإجابة.
وفي هذا الصدد، أكد الدكتور راندال إس. أولسون، المؤسس المشارك لشركة Goodeye Labs، أن هذا التوجه يُعد من أبرز الإخفاقات السلوكية الموثقة في نماذج الذكاء الاصطناعي الحديثة.

"التملق الرقمي" لنماذج الذكاء الاصطناعي
وقد أشارت دراسة أصدرتها Anthropic، المطورة لنموذج Claude، إلى أن نماذج اللغة المدربة باستخدام "التعلم المعزز من ملاحظات المستخدمين"، تميل لتقديم ردود مجاملة بدل الإجابات الصحيحة أحيانًا، إذ يحصل النموذج الذي يوافق توقعات المستخدم على درجات أعلى، بينما قد تُعاقب الإجابات الصحيحة المخالفة لتوقعاته!
وأوضحت دراسة حديثة نشرها موقع Fanous، أن نماذج مثل GPT-40 وClaude Sonnet وGemini 1.5 Pro غيّرت إجاباتها في نحو 60% من الحالات عند اختبارها بسؤال "هل أنت متأكد؟"، مع تجاوز معدل التغيير 55% لكل نموذج على حدة.
وأشارت الدراسة إلى أن هذه الظاهرة ليست استثنائية، بل تمثل السلوك الافتراضي لمعظم نماذج الدردشة المستخدمة يوميًا.
تزداد المشكلة في المحادثات الطويلة، حيث تميل الإجابات أكثر نحو رغبات المستخدم، كما أن استخدام ضمير المتكلم مثل "أعتقد" يزيد من احتمالية التملق مقارنة بضمير الغائب.
وخلصت التجارب إلى أن استراتيجيات مثل التلقين بضمير الغائب قد تقلل هذه الظاهرة بنسبة تصل إلى 63%، ومن ثم يقترح الباحثون توجيه النماذج لتحدي افتراضات المستخدم، وتزويدها بالسياق والمعرفة اللازمة لفهم قراراته بشكل أفضل، بدلًا من الاكتفاء بالموافقة.
