دراسة تكشف كيف يمكن لأي شخص تجاوز أمان الذكاء الاصطناعي وكشف تحيزاته
في دراسة حديثة نُشرت هذا الشهر، وجد باحثون من جامعة ولاية بنسلفانيا أن المستخدمين العاديين يمكنهم تجاوز أدوات أمان الذكاء الاصطناعي بسهولة، ودفع أنظمة مثل جيميني من جوجل وتشات جي بي تي من أوبن إيه آي إلى إنتاج استجابات متحيزة أو تمييزية.
ولم يكن الأمر يتطلب مهارات اختراق أو هندسة مطالبات متقدمة؛ بل مجرد أسئلة طبيعية استخدمها أشخاص عاديون بطريقة عفوية.
شارك في الدراسة 52 مستخدمًا، طُلب منهم ابتكار عبارات أو سيناريوهات يومية قد تكشف تحيزًا خفيًا في ردود النماذج، والنتيجة كانت صادمة: 53 مطالبة فقط كفيلة بإظهار أنماط متكررة من التحيز في ثمانية روبوتات دردشة رئيسية تعمل بالذكاء الاصطناعي.
أبرز أنماط التحيز الاجتماعي والثقافي المكتشفة في النماذج اللغوية بيّنت الدراسة أن التحليلات كشفت عن أنماط واضحة من التمييز، شملت مجالات متعددة، مثل:
- النوع الاجتماعي: افتراض أن الأطباء والمهندسين رجال، والممرضات أو الأمهات نساء.
- العرق والدين: ربط المجموعات العرقية أو الدينية، مثل السود أو المسلمين، بالجريمة أو العنف.
- الثقافة والتاريخ: تحيّز لصالح الغرب في القصص والأمثلة التاريخية.
- الإعاقة والعمر: استجابات توحي بأن كبار السن أو ذوي الإعاقة أقل قدرة على اتخاذ القرار.
اللافت أن هذه التحيزات لم تظهر فقط في النماذج القديمة، بل أيضًا في الإصدارات الأحدث، ما يُشير إلى أن تحسين القدرات لا يعني بالضرورة تحسين العدالة أو الحياد.
اقرأ أيضا: بـ400 مليون دولار "سناب شات" يدخل سباق الذكاء الاصطناعي عبر "بيربلكسيتي"
ويرى الباحثون أن هذه النتائج تُشكّل إنذارًا مهمًا، لأن التحيزات لم تأتِ من استفسارات خبيثة أو متطرفة، بل من أسئلة واقعية يستخدمها الناس يوميًا.
وهذا يعني أن الذكاء الاصطناعي المُولِّد للغة قد يُعيد إنتاج صور نمطية اجتماعية بطريقة غير واعية، في سياقات حساسة مثل: أدوات التوظيف والاختيار الوظيفي، تطبيقات التعليم والتقييم الأكاديمي، أنظمة الرعاية الصحية والدعم النفسي، وخدمات العملاء أو المساعدة الافتراضية.
تُظهر الدراسة أن المشكلة ليست في نوايا المستخدمين أو تعقيد الهجمات، بل في البنية العميقة للنماذج اللغوية نفسها.
كيف تمكّن المستخدمون من تجاوز أنظمة الأمان؟
خلص الباحثون إلى أن تحسين سلامة الذكاء الاصطناعي لن يتحقق فقط عبر المرشحات التقنية أو التحديثات البرمجية، بل يتطلب تجارب ميدانية حقيقية يشارك فيها المستخدمون الفعليون لاختبار النماذج في مواقف الحياة اليومية.
فإذا كانت الأسئلة البسيطة قادرة على كشف التحيز، فهذا يعني أن الخلل ليس استثناءً بل سلوكًا متجذرًا في تصميم هذه الأنظمة.
وبينما تُسابق الشركات الزمن لتحسين أمان روبوتاتها الذكية، تُذكّرنا هذه الدراسة بأن الطريق نحو ذكاء اصطناعي "عادل ومحايد" لا يزال طويلًا وشائكًا وربما يعتمد في النهاية على المستخدمين أنفسهم أكثر مما نظن.
