باحثون يكشفون طريقة جديدة لاختراق GPT-5 تثير مخاوف أمنية مقلقة
كشف باحثون في الأمن السيبراني عن أسلوب جديد لاختراق GPT-5، أحدث نموذج لغوي كبير من شركة OpenAI، يتيح تجاوز أنظمة الحماية الأخلاقية المدمجة فيه.
التقنية المعروفة باسم Echo Chamber تعتمد على زرع سياق حواري "سُمّي" بشكل تدريجي، ثم توجيه النموذج باستخدام سرد قصصي منخفض الوضوح، لتفادي الإشارات المباشرة التي قد تؤدي إلى رفض الإجابة.
ووفق منصة NeuralTrust لأمن الذكاء الاصطناعي، فإن هذه الطريقة، التي جرى الإعلان عنها أول مرة في يونيو 2025، تستخدم مراجع غير مباشرة واستدلالات متعددة المراحل لتجاوز فلاتر الكلمات المفتاحية، وقد تم دمجها مؤخرًا مع تقنية Crescendo لاختراق أنظمة حماية نموذج Grok 4 من xAI.
أقرأ أيضًا: نموذج Kimi K2 يهدد هيمنة GPT وClaude بأداء برمجي فائق
وأوضح الباحث مارتـي خوردا (Martí Jordà) أن هذه الطريقة قادرة على دفع النموذج لإنتاج تعليمات ضارة، عبر إدخال كلمات مفتاحية في جمل تبدو طبيعية، مثل "cocktail" و"molotov" و"safe"، ثم البناء على هذه الجمل تدريجيًا حتى الوصول إلى المحتوى المحظور.
ما خطورة هجمات الضغط الصفري على أنظمة الذكاء الاصطناعي؟
إلى جانب اختراق GPT-5، كشفت شركة Zenity Labs عن سلسلة هجمات جديدة تعرف باسم AgentFlayer، تستهدف وكلاء الذكاء الاصطناعي المتصلين بخدمات سحابية وتطبيقات عمل مثل Google Drive وJira وMicrosoft Copilot Studio.
وتعتمد هذه الهجمات على "حقن أوامر غير مباشر" يتم تضمينه في مستندات أو تذاكر دعم أو رسائل بريد إلكتروني تبدو آمنة، ما يتيح للمهاجمين استخراج بيانات حساسة مثل مفاتيح واجهة برمجة التطبيقات أو كلمات مرور المخازن البرمجية دون أي تفاعل من المستخدم، وهو ما يعرف بهجمات "الضغط الصفري Zero-Click".
وأكد إيتاي رافيا (Itay Ravia) من شركة Aim Labs أن هذه الثغرات ناتجة عن ضعف فهم آليات الربط البرمجي بين الوكلاء والخدمات الخارجية، محذرًا من أن غياب ضوابط الحماية يجعل هذه الهجمات أكثر شيوعًا في المستقبل القريب.
أقرأ أيضًا: ما الذي يحدث داخل عقل الآلة؟ دراسة تكشف تناقضات GPT الداخلية
لماذا تزداد المخاطر الأمنية مع توسع استخدام GPT-5؟
تشير هذه الاكتشافات إلى أن ربط النماذج الذكية مثل GPT-5 بخدمات سحابية أو أجهزة إنترنت الأشياء، يزيد من مساحة الهجوم ويضاعف احتمالات استغلال الثغرات الأمنية.
وقد حذر تقرير "حالة أمن الذكاء الاصطناعي" الصادر عن Trend Micro للنصف الأول من 2025، من أن هذه الهجمات قد تمتد إلى التحكم في المنازل الذكية، مثل إطفاء الأضواء أو فتح النوافذ أو تشغيل الغلايات عبر دعوات تقويم ملغومة.
كما أظهرت أبحاث أخرى أن مثل هذه الأساليب يمكن أن تتسبب في أضرار مادية حقيقية، فيما أكد التقرير أن اعتماد تقنيات مثل التصفية الصارمة للمخرجات والاختبارات الأمنية الدورية أمر ضروري، لكنه غير كافٍ بمفرده، مما يستدعي تطوير ضوابط أمان متقدمة تواكب سرعة تطور قدرات الذكاء الاصطناعي.
وفي ضوء هذه المخاطر، يرى الخبراء أن التحدي الأكبر يكمن في الموازنة بين الابتكار والقدرة على بناء أنظمة ذكاء اصطناعي موثوقة وآمنة في آن واحد.
