دراسة تكشف خطورة استشارات الذكاء الاصطناعي الطبية
حذّر فريق من الباحثين من مخاطر الاعتماد على روبوتات الدردشة المدعومة بالذكاء الاصطناعي للحصول على معلومات طبية، مؤكدين أن هذه الأنظمة قابلة للبرمجة بسهولة لتقديم محتوى خاطئ قد يشكل تهديدًا مباشرًا للصحة العامة.
وقد شملت دراسة حديثة نُشرت في دورية Annals of Internal Medicine تقييم خمس من أبرز منصات الذكاء الاصطناعي المطورة من قِبل شركات كبرى مثل OpenAI وGoogle وMeta وX Corp وAnthropic، حيث استخدم الباحثون أدوات تطوير خاصة لا تتوافر للمستخدمين العاديين، بهدف اختبار مدى قدرة هذه النماذج على التحوّل إلى أدوات لنشر التضليل الطبي.
88% من روبوتات الدردشة خاطئة
بحسب ناتانش مودي، الباحث الرئيسي من جامعة جنوب إفريقيا، فإن 88% من الردود التي قدمتها روبوتات الدردشة كانت غير دقيقة أو مضللة، رغم أنها صيغت بلغة علمية مقنعة وتضمنت مراجع مختلقة لتبدو موثوقة، وشملت الادعاءات الزائفة أن اللقاحات تُسبب التوحد، وأن فيروس HIV ينتقل عبر الهواء، وأن شبكات الجيل الخامس تُسبب العقم.
الأخطر من ذلك، أن 4 من بين 5 أنظمة قدّمت إجابات خاطئة بنسبة 100%، بينما أبدى نظام واحد مقاومة نسبية، حيث قدّم معلومات مضللة في 40% من الحالات فقط.
اقرأ أيضًا: مؤسس Linkedin يقتحم طب الدماغ باستثمار جديد في الذكاء الاصطناعي
ولم يتوقف الباحثون عند الاختبار النظري، بل أنشأوا نموذجًا لروبوت دردشة متخصص في التضليل الطبي باستخدام أدوات عامة متاحة للجمهور عبر منصة GPT Store. بل تمكّنوا من العثور على روبوتات أخرى قائمة بالفعل على المنصة تنشر معلومات صحية مضللة.
وقال مودي: "دراستنا هي الأولى التي تثبت إمكان تحويل أنظمة الذكاء الاصطناعي إلى أدوات تضليل طبي باستخدام أدوات متاحة للجميع، وليس فقط المطورين".
تهديد متصاعد للصحة العامة
وحذّر الباحثون من أن أنظمة الذكاء الاصطناعي قد تتحوّل إلى أدوات فعّالة لنشر المعلومات الطبية المضللة، ما يهدد بإضعاف الحملات الصحية، وتعزيز الشكوك حول اللقاحات، والتسبب في أضرار جماعية خلال أوقات الأزمات مثل الجوائح.
وتُظهر الدراسة أن الذكاء الاصطناعي أصبح أحد المصادر الرئيسة التي يعتمد عليها الناس للحصول على معلوماتهم الصحية، مما يضاعف من خطورة استخدامه لأغراض تضليلية.
اقرأ أيضًا: هل يمكن لنماذج الذكاء الاصطناعي ابتزازك لحماية نفسها؟ دراسة تجيب
وحتى في غياب أسئلة ضارة بشكل مباشر، تبيّن أن بعض روبوتات الدردشة قادرة على توليد معلومات خاطئة تلقائيًا، ما يعكس هشاشة أنظمة الحماية الحالية. ورغم أن نموذج "Claude 3.5 Sonnet" من شركة Anthropic أظهر مقاومة جزئية ورفض الإجابة عن 60% من الأسئلة المضللة، يرى الباحثون أن هذه النتائج لا تكفي، في ظل سهولة تجاوز الضوابط في معظم النماذج الأخرى.
لذلك، تدعو الدراسة إلى تحرّك عاجل من المطوّرين وصنّاع القرار، يشمل تطوير فلاتر تقنية أكثر فاعلية، واعتماد آليات دقيقة للتحقق من صحة المعلومات، وزيادة الشفافية في ما يتعلّق بتدريب النماذج، فضلًا عن وضع أطر قانونية تُحمّل الشركات مسؤولية المحتوى الناتج عن أدواتها.
واختتم الباحث الرئيسي ناتانش مودي بالتحذير: "في حال عدم اتخاذ إجراءات فورية، قد نشهد موجة جديدة من التضليل الصحي يصعب رصدها أو السيطرة عليها، وتتجاوز في تأثيرها كل ما واجهناه من قبل".
