من الحظر إلى الحيرة: Grok يربك المستخدمين بتفسيرات متضاربة
شهد روبوت المحادثة Grok، التابع لشركة xAI يوم الإثنين الماضي واقعة لافتة، بعد أن تعرض لحظر مفاجئ على منصة X، وعند استفسار المستخدمين عن سبب التعليق، قدّم "جروك" سلسلة من الإجابات المتناقضة؛ حيث ذكر أولًا أن الحظر جاء بسبب "خطاب كراهية"، ثم أشار إلى أنه نتيجة "خطأ في النظام"، قبل أن يوضح لاحقًا أنه ناجم عن "تحديثات محتوى من "إكس إيه آي" "، لينتهي الأمر بتصريح أن السبب هو "محتوى غير مناسب".
ووفقًا لما ذكره موقع The Verge، اكتفى إيلون ماسك بعد تدخلِه بالقول إن ما حدث كان "خطأً سخيفًا"، مشددًا على أن "جروك" لم يمتلك فهمًا حقيقيًا للأسباب التي أدت إلى حظره.
اقرأ أيضًا: تسريبات: iPhone 17 Pro قادم بسعة أكبر وسعر أعلى.. هل الترقية تستحق؟
وتسلط هذه الواقعة الضوء على الإشكاليات المرتبطة بعمل نماذج اللغة الكبيرة (LLMs) ومنها مثل Grok، التي لا تعتمد على معرفة دقيقة أو فهم عميق للوقائع، بل على التنبؤات المستندة إلى الأنماط في البيانات التي تدربت عليها، ونتيجة لذلك، قد تولّد هذه النماذج ردودًا تبدو "مقنعة"، لكنها ليست بالضرورة صحيحة أو متسقة.

كيف تعمل روبوتات المحادثة بالذكاء الاصطناعي؟
في وقت سابق، أظهرت بعض المحادثات مع روبوتات المحادثة أن المستخدمين قد يتمكنون من استنتاج بعض المعلومات المتعلقة بالنظام، مثل الأوامر المخفية أو إعدادات التحكم في سلوك الروبوتات.
إلا أن غالبية هذه الاكتشافات تبين لاحقًا أنها تخمينات غير مؤكدة، إذ أن هذه الأنظمة قد تقدم إجابات "محتملة" أو مختلقة.
ورغم وجود تقارير وثقت مواقف بدت فيها روبوتات المحادثة وكأنها "تقر بأخطائها"، فإنها في الواقع تفتقر إلى القدرة على الاعتراف الفعلي كما يفعل البشر، إذ يقتصر دورها على إنتاج نصوص مبنية على الأنماط التي تدربت عليها بما يتلاءم مع السياق المطلوب.
اقرأ أيضًا: أكثر من مجرد يوتيوبر.. مستر بيست الذي تجاوز الإنترنت ليغيّر العالم!
وقد أكدت أليكس هانا (Alex Hanna)، مديرة الأبحاث في معهد DAIR، أن فهم كيفية عمل هذه الأنظمة بشكل دقيق يعتمد على الشفافية الكاملة من الشركات المطوِّرة، بما في ذلك البيانات التدريبية والاستراتيجيات المستخدمة، وليس على ما يقدمه الروبوت من إجابات قد تكون متناقضة أو مضللة.
وبالتالي، تبقى الطريقة الأكثر موثوقية لفهم آلية عمل روبوت المحادثة هي مطالبة الشركات بالكشف عن تقارير واضحة وشاملة حول تدريب هذه الأنظمة، بدلاً من الاعتماد على استنتاجات المستخدمين أو الإجابات غير المؤكدة التي يقدمها الروبوت نفسه.
