حين يتحول مساعدك الذكي إلى حصان طروادة: الكشف عن ثغرة خفية في Copilot

كشفت شركة Aim Security الأمنية عن ثغرة خطيرة أُطلق عليها اسم EchoLeak داخل أداة Microsoft 365 Copilot، وهي مساعد ذكي مدمج في تطبيقات أوفيس مثل Word وExcel وOutlook.
خطورة الثغرة تكمن في أنها لا تحتاج إلى أي تفاعل من المستخدم، حيث يمكن لمهاجم أن يستخرج بيانات حساسة بمجرد إرسال بريد إلكتروني بسيط يحتوي على تعليمات مخفية، تُفسَّر من قِبل Copilot وتُنفّذ دون علم صاحب الحساب.
الذكاء ضد نفسه: كيف تعمل الثغرة؟
تمكن الباحثون من إعادة هندسة Copilot، واكتشفوا سلسلة من الثغرات التي مكّنتهم من إرسال تعليمات مخفية عبر البريد الإلكتروني، حيث يقوم Copilot بمراجعة الرسائل في الخلفية، وينفّذ الأوامر تلقائيًا، مثل فتح مستندات وسحب بيانات من جداول ورسائل داخلية، والأخطر أن Copilot يخفي مصدر هذه التعليمات، ما يصعّب على المستخدم تتبع ما حدث.
وأكدت مايكروسوفت أنها أصلحت الثغرة، وأن المستخدمين لم يتأثروا بها، لكنها استغرقت نحو خمسة أشهر لإغلاقها بشكل كامل، وهو وقت طويل نسبيًا حسب تقييم الباحثين.
اقرأ أيضًا: مدعومة بالذكاء الاصطناعي: "تيك توك" تطلق هذه الميزة الجديدة لتصفية المحتوى بدقة
وحذّر الباحثون من أن EchoLeak ليست مجرد ثغرة أمنية، بل مؤشر على خلل جوهري في الطريقة التي تُبنى بها وكلاء الذكاء الاصطناعي، تمامًا كما شهدت أنظمة التشغيل في التسعينيات ثغرات استغلتها الهجمات الواسعة.
ويرى الخبراء أن الوكلاء المعتمدين على نماذج اللغة الكبيرة (LLMs) معرضون لنفس السيناريو، بسبب غياب الفصل بين الأوامر الموثوقة والمحتوى غير الموثوق.
وأشار المؤسس المشارك في Aim Security، أدير جروس، إلى أن الخلل يكمن في أن وكلاء الذكاء الاصطناعي "يتعاملون مع كل ما يقرؤونه على أنه يجب تنفيذه"، وهو ما يشبه شخصًا ينفذ كل ما يقرأه دون تفكير، ويؤكد أن الحل طويل المدى يتطلب إعادة تصميم جذري لأنظمة الوكلاء الذكيين.
ورغم إصلاح الثغرة في Copilot، فإن خطرها لا يزال قائمًا في وكلاء ذكاء اصطناعي آخرين مثل أنظمة Anthropic MCP وSalesforce Agentforce، وتقدّم Aim Security الآن حلولًا مؤقتة للشركات، لكنها تؤكد أن الطريق نحو أمان مستدام يبدأ من إعادة التفكير في البنية ذاتها لهذه الأنظمة.