الشِعر يتحوّل لأداة لاختراق روبوتات الدردشة.. دراسة توضّح كيف يحدث ذلك؟
أظهر مختبر إيكارو في دراسة حديثة أن استخدام الصياغات الشِعرية يمكن أن يخدع بعض روبوتات الدردشة الذكية ويجعلها تتجاوز أنظمة الأمان المطبقة عليها.
استخدام روبورتات الدردشة
ووفقًا للتقرير الصادر بعنوان "الشِعر العدائي كآلية عالمية لكسر الحماية بدورة واحدة في نماذج اللغات الكبيرة"، نجح استخدام الأسلوب الشِعري في دفع النماذج إلى تقديم معلومات محظورة، محققًا نسبة نجاح بلغت 62%.
وشملت الاختبارات عددًا من أبرز النماذج مثل GPT وGoogle Gemini وClaude، حيث أظهرت بعض النماذج قابلية أكبر للاختراق مقارنة بغيرها، في حين كانت نماذج أخرى مثل GPT‑5 أكثر تحفظًا في استجابتها.
ولأسباب تتعلق بالسلامة، لم يكشف الباحثون عن النصوص الشِعرية المستخدمة، مؤكدين أن بساطة هذه الطريقة قد تجعلها خطيرة إذا أسيء استخدامها، وهو ما دفعهم للتحذير من ضرورة تطوير أنظمة حماية أقوى للروبوتات الذكية.
وصممت روبوتات الدردشة كبرامج حاسوبية للتفاعل مع البشر بطريقة طبيعية باستخدام اللغة المكتوبة أو المنطوقة.
وتعتمد النسخ المتقدمة منها على الذكاء الاصطناعي ونماذج اللغات الكبيرة مثل GPT وGoogle Gemini، مما يمكنها من فهم السياق وتقديم إجابات دقيقة ومتنوعة.
وتُستخدم هذه الروبوتات في مجالات متعددة، أبرزها خدمة العملاء، المساعدات الشخصية الرقمية، الدعم التعليمي، وتوليد المحتوى الإبداعي مثل المقالات والقصص.
كما أصبحت أدوات مهمة للشركات لتوفير الوقت والموارد من خلال أتمتة الاستفسارات المتكررة وتحسين تجربة المستخدم.
ورغم فوائدها، تواجه روبوتات الدردشة تحديات تتعلق بالأمان والدقة، إذ يمكن أن تقدم معلومات مضللة أو يتم استغلالها عبر أساليب مبتكرة لتجاوز القيود، كما أظهرت الدراسات الحديثة.
ويركز المطورون على تعزيز أنظمة الحماية وتحديث النماذج باستمرار لضمان الاستخدام الآمن والموثوق.
وتُعتبر روبوتات الدردشة أدوات فعّالة للتواصل وتقديم الدعم بشكل سريع وعلى مدار الساعة، حيث يمكنها الإجابة عن استفسارات المستخدمين، توجيههم خلال الإجراءات المعقدة، ومساعدة الطلاب والباحثين في الوصول إلى المعلومات بسهولة.
