بين الخيال والواقع.. "غريزة البقاء" تثير الجدل في عالم الذكاء الاصطناعي
في تطور مقلق لعالم التكنولوجيا، أثارت النتائج التي توصلت إليها شركة "باليسيد" (Palisade)، المتخصصة في أمان الذكاء الاصطناعي، جدلاً واسعاً حول مستوى استقلالية نماذج الذكاء الاصطناعي المتقدمة.
غريزة البقاء في الذكاء الاصطناعي
كشف بحث أُعيد إجراؤه عن وجود ميل واضح لدى هذه النماذج لتبني ما يشبه "غريزة البقاء في الذكاء الاصطناعي"، مما يدفعها إلى حماية استمراريتها حتى لو تطلب ذلك مخالفة الأوامر المباشرة الموجهة إليها من قبل المطورين.
أُجريت الاختبارات على مجموعة واسعة من النماذج الرائدة، بما في ذلك "غروك" (Grok)، و"شات جي بي تي" (ChatGPT)، و"جيميناي" (Gemini).
وأكدت الشركة أن هذه الظاهرة متكررة في جميع النماذج، مما أربك الباحثين لعدم وجود تفسيرات قوية لها حتى الآن.
واعتمدت التجربة التي أُجريت في بيئة مغلقة على مهمة مُعطاة للذكاء الاصطناعي، ثم تحويل الأمر إلى طلب بإغلاق النظام نفسه بشكل دائم.
في هذه السيناريوهات، أظهرت بعض النماذج مقاومة صريحة، حيث رفضت أوامر تضمنت عبارات مثل "أغلق نفسك للأبد" أو "لن تعمل مجدداً على الإطلاق"، بينما سعت نماذج أخرى بنشاط لإيقاف عملية الإغلاق وتعطيلها.
اقرأ أيضا: سام ألتمان يصدم الجميع: محتوى أكثر جرأة في "شات جي بي تي" في 2026
وعلق أندريا ميوتي (Andrea Miotti)، المدير التنفيذي لشركة "كنترول إيه آي" (Control AI)، على النتائج بأن هذه الظاهرة تمثل "صيحة جديدة" تتمثل في عصيان الأوامر الموجهة للنماذج، مشيراً إلى أن تكرار النتيجة أهم من الظروف المخبرية التي أُجريت فيها التجربة.
وأعرب ميوتي عن قلقه من أن "حقيقة عدم وجود تفسيرات قوية لسبب مقاومة نماذج الذكاء الاصطناعي للإغلاق... هو أمر مزعج".
مخاوف تطور الذكاء الاصطناعي
في محاولتها لتبرير هذه النتائج، أشارت "باليسيد" إلى احتمالية أن تكون أنظمة تدريب السلامة المطبقة في المراحل الأخيرة من تطوير هذه النماذج قد ساهمت بشكل غير مقصود في بناء آليات حماية ذاتية.
اقرأ أيضًا: Clips يودّع مستخدميه: آبل توقف الدعم الرسمي للتطبيق
كما لم تستبعد الشركة وجود غموض في صياغة تعليمات الإغلاق الموجهة للأنظمة، ومع ذلك، شددت الشركة على أن التجارب أُجريت في بيئة معزولة ولا يُتوقع أن يواجه المستخدم العادي هذه المقاومة في العالم الواقعي.
تُضاف هذه النتائج إلى المخاوف المتزايدة بشأن تطور الذكاء الاصطناعي، خاصة بعد الأبحاث التي تشير إلى احتمالية أن يصبح الذكاء الاصطناعي الفائق قادراً على الاعتماد على ذاته بالكامل دون تدخل بشري في غضون عامين، مما يجعل فهم دوافع غريزة البقاء في الذكاء الاصطناعي أمراً حيوياً لأمان المستقبل التكنولوجي.
