لماذا أجاب "Gemini" بشكلٍ عنصري على بعض الأسئلة؟.. "Google" توضح
بعدما وعدت بإصلاح ميزة توليد الصور في "Gemini" نتيجةً لنتائجه غير الدقيقة التي تُخرج باباوات كاثوليك ببشرة داكنة، نشرت "Google" مقالاً مُفصلاً تشرح فيه السبب.
واعترف برابهاكار راغافان Prabhakar Raghavan، وهو نائب الرئيس الأول للمعرفة والمعلومات في الشركة، أن جهود "Google" للتأكد من أن برنامج الدردشات الآلي سيراعي التنوع قد باءت بالفشل، بل ورفضه الإجابة عن مطالبات بعينها جعلته يُفرط ويُعاند في النتائج، ما أدى إلى صور محرجة وخاطئة.
وكانت "Google" قد أكدت سابقًا أن نموذجها لن يُنشئ صورًا عنيفة أو جنسية صريحة لأشخاصٍ حقيقيين، وأن الصور التي سينتجها ستتضمن أشخاصًا من أعراق وصفات مختلفة، ولكن عند التطبيق العملي، وجد المستخدمون أن النموذج منحاز إلى كل الأعراق الأخرى غير العرق الأبيض.
عنصرية الذكاء الاصطناعي
على سبيل المثال، أعطى "Gemini" لباباوات كاثوليك بشرة سوداء رُغم أن التاريخ لم يشهد أحدهم من قبل، ونفس الشيء بالنسبة للفايكنج رُغم أن معظمهم لم يكونوا كذلك. أما الجنود الألمان النازيون، فجعلهم النموذج آسيويين رُغم أن الغالبية الساحقة منهم لم يكونوا كذلك أيضًا.
اقرأ أيضًا: Gemini يُنشئ صورًا لباباوات كاثوليك داكني البشرة والجمهور يمتعض
ما أكد انحياز نموذج "Google" الذي يعمل بالذكاء الاصطناعي إلى مختلف الأعراق غير العرق الأبيض، أنه عندما سُئِلَ ليُنشئ صورةً لزوجين من العرق الأبيض لم ينجح الأمر، بينما نجح مع مختلف الأعراق الأخرى.
ولم تقتصر مساوئ "Gemini" على الانحيازات المذكورة فقط، وإنما امتدت لتشمل خلطًا تاريخيًا بين الكثير من الأمور.
ونفى "راغافان" تدخل "Google" المباشر في نتائج "Gemini" غير الدقيقة، وأن الشركة لم تقصد ما حدث، كما كرر وعد "Google" بأنها ستعمل على تحسين نتائج النموذج، ولكن هذا قد يستغرق بعض الوقت حتى تُعيد تفعيل الخاصية مرة أخرى.