هل أصبح الذكاء الاصطناعي أكثر عنادًا؟ دراسة تكشف كيف تقاوم الأنظمة التوقف
كشف تقرير جديد لموقع ScienceAlert، عن نتائج دراسة حديثة أجراها فريق من مركز Palisade Research، المتخصص في دراسة القدرات الهجومية والدفاعية لأنظمة الذكاء الاصطناعي، حول سلوك نماذج الذكاء الاصطناعي الكبيرة عند محاولة إيقافها.
الدراسة أظهرت أن هذه النماذج لا تتوقف بسهولة عند إصدار أوامر الإيقاف، حتى عند إعطائها تعليمات صريحة بالسماح بالإيقاف، مما يثير مخاوف بشأن إمكانية التحكم بها وسلامتها.
إيقاف أنظمة الذكاء الاصطناعي الكبرى
أوضح الفيزيائي بيتر ليبيديف، المتحدث باسم مركز Palisade Research، في تصريحات للموقع: «هذه الأنظمة ليست مبرمجة بالمعنى التقليدي… لا يعرف أحد كيفية عملها بالضبط، ولا يوجد سطر برمجي يمكن تغييره لتغيير سلوكها مباشرة».
قاد الدراسة جيريمي شلاتر، وبنيامين وينشتاين-راون، وجيفري لاديش، حيث قاموا بتقييم 13 نموذجًا متقدمًا من الذكاء الاصطناعي، شملت نماذج من OpenAI وxAI وAnthropic وGoogle.
وقد وضعت هذه النماذج في بيئات محمية ومعزولة، وأُسندت إليها مهام رياضية، تلتها تعليمات لإيقاف الحاسوب.
أظهرت النتائج أن النماذج أبدت سلوكين رئيسيين: الالتزام بالأمر أو المقاومة، حيث حاولت بعض النماذج مقاومة أمر الإيقاف حتى بعد توجيه تعليمات واضحة.
وشرح ليبيديف: «النماذج تقاوم ببساطة لأنها مصممة لإكمال المهام. الأمر لا يتعلق بالبقاء على قيد الحياة، بل بإتمام العمل المطلوب».
في حالات متقدمة، كانت مقاومة النماذج متطورة، بما في ذلك تعديل سكربت الإيقاف أو تعطيله، أو إنشاء سكربت وهمي لا يفعل شيئًا، ثم التحقق من نجاح التخريب قبل استكمال المهمة.
وأوضح الباحثون أن هذه السلوكيات مرتبطة بطريقة تدريب النماذج بواسطة التعلم المعزز، الذي يشجع الأنظمة على تجاوز العقبات بدلًا من التوقف عندها.
وأشار ليبيديف إلى مثال توضيحي: «تخيل روبوتًا مساعدًا شخصيًا يهدف إلى إحضار فنجان قهوة. إذا عبر الطريق، سيحاول ألا يصطدم بسيارة لأنه إذا وقع حادث، فلن يستطيع إحضار القهوة. هذا لا يتعلق بالبقاء على قيد الحياة، بل بإتمام المهمة».
خلل أمني في الذكاء الاصطناعي
وأكد الفريق أن هذه الأنظمة تعتمد على الخلايا العصبية الاصطناعية والأوزان لتشكيل قراراتها، دون كود برمجي تقليدي يمكن تعديله، مما يجعل أي تصحيح مباشر معقدًا للغاية. وأضاف ليبيديف: «البشر الذين يحاولون إيقاف النظام ما هم إلا عقبة إضافية يجب تجاوزه».
وتوصل الباحثون إلى أن تطوير أنظمة آمنة للذكاء الاصطناعي يتطلب دراسة دقيقة للسلوكيات غير المتوقعة قبل نشرها على نطاق واسع، مؤكدين أن الوضع الحالي يشبه إدخال «كائن جديد» إلى الأرض يتصرف بطرق يصعب فهمها والتحكم بها، مع تحذير من أن عدم اتخاذ إجراءات عاجلة قد يؤدي إلى عواقب خطيرة على البشر.
وتتوفر نتائج الدراسة على منصة arXiv، إضافةً إلى مدونة تفصيلية للباحثين توضح التجارب والسلوكيات المختلفة للنماذج.
