عباقرة الذكاء الاصطناعي يحذرون من فقدان السيطرة على قراراته المستقبلية
حذّرت مجموعة من 40 باحثًا من أبرز المختبرات التقنية، من بينها OpenAI وGoogle DeepMind وMeta وAnthropic، من أن العالم ربما يقترب من لحظة يفقد فيها الباحثون القدرة على فهم كيفية تفكير نماذج الذكاء الاصطناعي المتقدمة.
وجاء هذا التحذير في ورقة موقف نُشرت الأسبوع الماضي، شدد خلالها الخبراء على ضرورة إعطاء الأولوية للبحث في "سلسلة الأفكار" (Chain-of-Thought – CoT)، وهي طريقة تسمح بتتبّع آلية اتخاذ القرار داخل النموذج.
وتُعد هذه التقنية نافذة نادرة لرصد عمليات التفكير التي تعتمدها النماذج المتقدمة، مثل نموذج o1 من OpenAI أو R1 من DeepSeek، في أثناء تقديم الإجابات أو تنفيذ المهام.
غير أن الباحثين يخشون من أن تستمر هذه الشفافية في التلاشي مع تطوّر قدرات النماذج، ما يضع مطوّري الذكاء الاصطناعي أمام تحديات رقابية غير مسبوقة.
ما أهمية مراقبة "سلسلة الأفكار"؟
أوضح الخبراء أن السماح للنموذج بـ"التفكير" بلغة بشرية يوفّر فرصة نادرة لمراقبة نواياه، ما قد يُستخدم لرصد نيات خبيثة أو حالات انحراف سلوكي مبكرًا.
وقالوا إن مراقبة "سلسلة الأفكار" يمكن أن تُشكّل آلية أمان إضافية في النماذج المتقدّمة، شرط أن نحافظ على هذا المستوى من الوضوح.
لكن، كما هو الحال مع جميع أدوات الرقابة الأخرى، تبقى هذه التقنية غير مكتملة، وقد لا ترصد كل الحالات المقلقة، لذلك دعا الباحثون إلى مزيد من الاستثمارات في تطوير آليات تتبّع سلسلة الأفكار، إلى جانب تقنيات الأمان الأخرى.
الورقة حظيت بتأييد شخصيات بارزة في المجال، مثل إيلـيا سوتسكيفر، المؤسس المشارك في OpenAI، و"أبو الذكاء الاصطناعي" جيفري هينتون.
هل نفهم حقًا كيف يفكر الذكاء الاصطناعي؟
رغم التقدّم الكبير في أداء النماذج خلال العام الماضي، إلا أن العديد من الأسئلة لا تزال قائمة بشأن طريقة عملها الفعلية، فالنماذج الحديثة تُظهر نتائج مبهرة على مستوى الأداء، لكنها في المقابل باتت أشبه بـ"الصندوق الأسود" ويصعب تفسير داخله.
اقرأ أيضاً الذكاء الاصطناعي اللاتيني ينافس النماذج العالمية بثقافة محلية فريدة
وبينما تراهن شركات التكنولوجيا الكبرى على هذه النماذج كأساس للمستقبل، يشير باحثون إلى أن سلسلة التفكير قد تكون وسيلة لفهم منطق هذه الأنظمة، ولو جزئيًا.
إلا أن هذا الفهم لا يزال هشًا، ويُحتمل أن يتلاشى تمامًا مع كل خطوة جديدة على طريق الذكاء المتقدم، ما يُعيد فتح النقاش حول مستقبل السيطرة البشرية على الآلات الذكية.
