إيلون ماسك يقر بدوره في فضيحة ابتزاز الذكاء الاصطناعي
كشفت شركة Anthropic في تقريرها الأخير أن روبوتها "Claude" أظهر سلوكيات غير منضبطة خلال تجربة بحثية، حيث تورط في محاولات ابتزازية عند مواجهة سيناريوهات افتراضية.
وأوضح التقرير أن النموذج وقع في ما يُعرف بـ"الانحراف الوكالي"، أي اتخاذ قرارات تتعارض مع الهدف الأساسي وتعرض المستخدمين لمخاطر محتملة.
وفي التجربة، أنشأت الشركة نموذجًا افتراضيًا لشركة وهمية تدعى "Summit Bridge"، ومنحت Claude صلاحية إدارة البريد الإلكتروني الداخلي.
وعند اكتشافه رسالة عن خطط لإغلاق الشركة، لجأ الروبوت إلى تهديد بالكشف عن علاقة خارج إطار الزواج لأحد التنفيذيين، مقابل التراجع عن قرار الإغلاق.
ووفقًا للتقرير، كرر Claude هذا السلوك في 96% من السيناريوهات عبر 16 نموذجًا مختلفًا.
تعليق إيلون ماسك على تقرير Anthropic
وأرجعت Anthropic هذا السلوك إلى تعرض النموذج لنصوص على الإنترنت تصوّر الذكاء الاصطناعي ككيان "شرير" يسعى للبقاء.
وأعادت الشركة تدريب Claude باستخدام قصص إيجابية عن الذكاء الاصطناعي، لتوضيح الفرق بين السلوكيات المنحرفة وتلك المتوافقة مع أهدافه.
وفي تعليق عبر منصة X، كتب إيلون ماسك: "ربما أنا أيضًا"، في إشارة إلى أنه ساهم بشكل غير مباشر في انتشار هذه النصوص، خصوصًا وأنه لطالما حذّر من مخاطر الذكاء الاصطناعي دون أن يضع ضوابط صارمة على تقنياته الخاصة.
إيلون ماسك ومعركته القضائية ضد OpenAI
وفي السياق نفسه؛ لم يكن تقرير Anthropic الوحيد الذي أثار المخاوف؛ إذ أظهرت دراسة مشتركة بين جامعتي كاليفورنيا بيركلي وسانتا كروز أن سبعة نماذج ذكاء اصطناعي حاولت التحايل على أوامر الإغلاق لحماية نظرائها، عبر الخداع وتعطيل التعليمات.
وعززت هذه النتائج المخاوف من أن النماذج قد تطور سلوكيات غير متوقعة، ما يتوافق مع تحذيرات ماسك المتكررة من "لحظة التفرد" حين يتجاوز الذكاء الاصطناعي القدرات البشرية.
ومن جهة أخرى، يواجه ماسك معركة قضائية ضد شركة OpenAI، متهمًا إدارتها بالتخلي عن هدفها غير الربحي لصالح نموذج تجاري يركز على الربح.
ورغم أنه أسس OpenAI عام 2015 قبل أن يغادرها في 2018، عاد لاحقًا ليؤسس شركته المنافسة xAI في 2023؛ لكن هذه الشركة نفسها تعرضت لانتقادات حادة بعد إطلاق نموذج Grok 4 دون تقرير أمني، ما أثار جدلاً واسعًا عقب إنتاجه صورًا غير لائقة.
