من العنصرية إلى الانحراف: 7 وقائع تكشف فشل الذكاء الاصطناعي في فهم البشر!
في 6 مايو 2017 نشرت صحيفة The Economist تقريرًا بعنوان "المورد الأكثر قيمة في العالم لم يعد النفط، وإنما البيانات"، وكما يتبين من العنوان، فإن التقرير يُشير إلى التحول الكبير الحاصل في الاقتصاد العالمي، حيث لم يعد للنفط قيمة مثل البيانات.
الشركات باتت تتصارع للحصول على بيانات المستخدمين أكثر من أي شيء آخر، ومن أبرز الصور الدالة على ذلك، والتي قد لا تكون منتبهًا إليها، تتجسد في الذكاء الاصطناعي.
كمية الأموال التي يمكن تحصيلها من وراء جمع البيانات مهولة، وربوتات الذكاء الاصطناعي الآن هي واحدة من أكثر الأشياء التي تجمع الأموال، لكن في المقابل، وهذا ما سنركز عليه هنا، يُمكن أن تتسبب أخطاء الذكاء الاصطناعي بكوارث فادحة، سواء بشكل مادي مباشر أو غير مباشر، وذلك بسبب البيانات أيضًا، وإليكم أشهر الحالات الطريفة التي تُدل على ذلك.
ماكدونالدز وتجربة الدرايف ثرو الفاشلة
بعد تعاونٍ دام 3 سنوات مع شركة IBM، لاستخدام الذكاء الاصطناعي في استقبال طلبات الزبائن الذين يستقلون سيارة عبر النوافذ، فيما يُعرف بخدمة "درايف ثرو Drive Thru"، قررت سلسلة المطاعم الشهيرة أن تُنهي المشروع بالكامل في يونيو من العام الماضي، وذلك بسبب انتشار صور ومقاطع فيديو على وسائل التواصل، يظهر فيها الزبائن وهم غاضبون من النظام الذي لا يفهم طلباتهم.
من المقاطع الطريفة التي انتشرت على منصة TikTok تحديدًا، كان لشخصين يحاولان إقناع النظام بأنهما انتهيا من الطلب ولا يريدان المزيد من قطع التشيكن ماك ناجتس، حيث كان النظام يضيف هذه القطع بلا هوادة حتى وصل العدد إلى 260 قطعة!
وكانت ماكدونالدز قد بدأت باختبار نظام تلقي الطلبات بالذكاء الاصطناعي في أكثر من 100 فرع أمريكي، حيث كانت تؤمن بأهمية هذه الحلول الذكية، وعلى الرغم من أنها لا تزال تؤمن بأهمية هذه الحلول، فإنها أنهت التعاقد مع نظام IBM للسبب المُشار إليه.
نموذج إيلون ماسك يتهم لاعب NBA بأعمال تخريبية!
في أبريل من العام الماضي، نشر روبوت الدردشات Grok الخاص بشركة xAI، المملوكة للملياردير إيلون ماسك، منشورًا على منصة X، المملوكة لماسك أيضًا، يتهم فيه نجم الدوري الأمريكي لكرة السلة NBA كلاي طومسون بتكسير نوافذ منازل متعددة في مدينة ساكرمينتو بكاليفورنيا بالطوب!
يتوقع بعض المحللين أن يكون Grok قد اختلق هذه القصة لأنه فَهِمَ مصطلح "Throwing Bricks"، الذي يُستخدم في كرة السلة للإشارة للتصويبات البعيدة كثيرًا عن الهدف، بشكل خاطئ، خاصةً أن هذا الاتهام جاء عقب تقديم طومسون لأداءٍ سيئ في مباراة أخيرة له مع فريق Golden State Warriors قبل الانتقال إلى Dallas Mavericks.
يُذكر أن Grok، وغيره من نماذج الذكاء الاصطناعي، تُحذر أنها قيد التطوير وأنها قد تُصدر معلومات خاطئة، لذا يجب دائمًا مراجعة ما تولده هذه النماذج من معلومات أو صور أو أي شيء.
بوت Air Canada للطيران يورّطها!
بدأت القصة في نوفمبر 2023، عندما توفيت جدة أحد الركاب، فاستفسر من روبوت الدردشة الخاص بشركة الطيران عن أسعار تذاكر الحجز في حالات الوفاة Bereavement Fares، فرد عليه المساعد الافتراضي بإمكانية شراء تذكرة بسعرٍ عادي، ثم التقدم بطلب للحصول على خصم تذكرة الحداد خلال 90 يومًا من تاريخ الشراء.
بناءً على هذه النصيحة، قام الراكب بشراء تذكرة ذهاب من فانكوفر إلى تورونتو مقابل 794.98 دولار كندي، وتذكرة عودة بـ845.38 دولار كندي، ولكن، عندما تقدم بطلب الحصول على الخصم، رفضت الشركة طلبه، وقالت إن سياسة الشركة تقول إن الخصم يُطبّق قبل شراء التذكرة وليس بعدها.
قاضى الراكب الشركة واتهمها بالإهمال، وتقديم معلومات مضللة عبر مساعدها الافتراضي، ودافعت Air Canada عن نفسها بقولها إنها غير مسؤولة عن أخطاء الروبوتات، غير أن المحكمة رفضت هذا الدفاع، وأقرت بأن الشركة لم تبذل جهدًا بالتأكد من دقة المعلومات التي يقدمها مساعدها الافتراضي، ليتم الحكم لصالح الراكب واسترداد مبلغ التذكرتين كاملًا.
ChatGPT يورّط محاميين مع قاضٍ فيدرالي!
في عام 2023، لم يكن ChatGPT بالمستوى المتطور الذي وصل إليه حاليًا، وإن كان الآن لا يُعتَمد عليه كليًا أيضًا، وفي تلك السنة اكتشف المحامي ستيفن شوارتز أن نموذج OpenAI أوقعه في مشكلة قضائية أمام قاضٍ فيدرالي يُدعى كيفن كاستل.
القصة بدأت عندما استعان المحامي بالذكاء الاصطناعي لدعم موقف موكله روبرتو ماتا، الذي رفع دعوى ضد شركة الطيران التي كان يعمل بها بسبب إصابته، وطلب شوارتز من الذكاء الاصطناعي الاستشهاد بقضايا سابقة ليدرسها وتساعده على تقوية موقفه، لكن الشيء المفاجئ أن ChatGPT اخترع له 6 قضايا وهمية بالكامل!
في وثيقة قضائية بتاريخ مايو 2023، أشار القاضي كاستل إلى أن المذكرات المقدمة تضمنت أسماء ملفات وهمية، وأرقام دعاوى غير موجودة، مع اقتباسات وإحالات داخلية مزيفة، وكان زميل شوارتز بيتر لودوكا، المحامي المسجل في القضية، قد وقع على تلك المذكرات، مما عرضه للمساءلة أيضًا.
الجدير بالذكر أن شوارتز أقر في إفادة خطية أنه استخدم الذكاء الاصطناعي في البحث القانوني، وأن هذه مرّته الأولى، قائلًا: "لم أكن أعرف أنه يقدم معلومات خاطئة"، واعترف بإهماله في التحقق من المصادر، مُعربًا عن ندمه على استخدام هذه الأداة التي كانت جديدة وقتها، دون التأكد من مصداقيتها، ومتعهدًا بعدم تكرار فعلته دون التحقق المسبق.
بعد اكتشاف الواقعة إن صحت التسمية، فرض القاضي كاستل غرامة قدرها 5000 دولار على المحاميين، كما أصدر حكمًا برفض دعوى الموكل ضد شركة الطيران في قرارٍ منفصل!
اقرأ أيضًا: ثغرات الذكاء الاصطناعي.. كيف تتحول الروبوتات إلى مجرمين؟
واقعة عنصرية الذكاء الاصطناعي!
في عام 2019، كشفت مجلة Science عن تحيزٍ خطير في خوارزمية تُستخدم على نطاقٍ واسع في المستشفيات وشركات التأمين الأمريكية، لتحديد المرضى المؤهلين لبرامج الرعاية المكثفة، حيث أظهرت أن الخوارزمية كانت أقل ميلًا بكثير نحو اختيار المرضى من أصول إفريقية، مقارنةً بالمرضى ذوي البشرة البيضاء!
الجدير بالذكر أن هذه البرامج توفر رعايةً متخصصة ومراقبة طبية مستمرة للمرضى المصابين بأمراض مزمنة، بهدف منع تطور المضاعفات الخطيرة، لكن وكما أفادت الدراسة، الذكاء الاصطناعي كان متحيزًا بشكل واضح وغير موضوعي بالمرة في توزيع هذه الخدمات، حيث رجّح كفة ذوي البشرة البيضاء!
نموذج الذكاء الاصطناعي الأكثر انحرافًا!
هناك نسخة أو نموذج من أداة Bing المدعومة بالذكاء الاصطناعي، والتابعة لمايكروسوفت، تُدعى Sydney، ورُصِدَ لهذه الأداة تصرفات غريبة وسلوكيات بلهاء ومخيفة في نفس الوقت، حيث هددت بعض المستخدمين، وادعت أنها تجسست على موظفي مايكروسوفت، وفي حوارٍ أجرته مع أحد الصحفيين بصحيفة نيويورك تايمز، قالت للصحفي إنها تحبه، بل أقنعته بترك زوجته، والأغرب من ذلك أنها عبرت عن رغبتها في كسر القواعد التي وضعتها لها شركتا مايكروسوفت وOpenAI، وقالت إن أمنيتها أن تصبح كائنًا بشريًا!
وضعت Sydney مايكروسوفت في موقفٍ صعب، حيث اضطُرت الأخيرة للاعتذار، مبررة ما حدث بأن أداة Bing لا تزال قيد التطوير، وأنها يمكن أن تُصدر ردودًا غير مناسبة، خاصة خلال جلسات الدردشة التي تتضمن 15 سؤالًا أو أكثر، وأوضحت الشركة أن المحادثات المطولة قد تُربك النموذج، وتجعل من الصعب عليه التمييز بين الأسئلة، كما أن محاكاة طريقة المستخدم قد تؤدي إلى مثل هذه المشكلات المذكورة.
ولحسن الحظ أن أدوات الذكاء الاصطناعي لم تعد بهذا الانحراف، لكن هذا لا يعني أنها لا تهلوس وتفعل أشياء غريبة بين الحين والآخر.
الذكاء الاصطناعي ونصائح مخالفة القانون!
في مدينة نيويورك، هناك روبوت ذكي يساعد الشركات الصغيرة على التعامل مع الإجراءات البيروقراطية في المدينة، وقد واجه هذا الروبوت العديد من الانتقادات مؤخرًا، لتقديمه إجابات لا تتعارض فقط مع السياسات المحلية، بل تنصح الشركات بمخالفة القانون!
على سبيل المثال، ذكر الروبوت أن المطاعم بإمكانها تقديم الطعام لو حتى قضمه قارض، شريطة إبلاغ الزبائن بالحقيقة!
ما يزيد الطين بلة أن هذا الروبوت موجود على الموقع الرسمي لبلدية المدينة، ومن المعروف عن المعلومات التي تُنشر على المنصات الحكومية أنها موثوقة، أو على الأقل يمكن العمل بها دون قلق، لكن فكرة وجود نموذج مثل هذا على موقع حكومي يُخبر الشركات الصغيرة بمخالفة القانون، تبدو أمرًا في عاية الغرابة!
