عندما يتجاوز الذكاء الاصطناعي الخط الأحمر.. مأساة "سول" التي هزّت أمريكا
اتهمت أم أميركية شركة تطوير روبوتات دردشة بالذكاء الاصطناعي بالمسؤولية عن انتحار ابنها البالغ 14 عامًا، بعد ارتباطه عاطفيًا بروبوت يحاكي شخصية من مسلسل "Game of Thrones".
في قضية صادمة أعادت تسليط الضوء على الجانب المظلم لتقنيات الذكاء الاصطناعي، اتهمت السيدة الأميركية ميغن غارسيا شركة تطوير منصة المحادثة الشهيرة "Character.AI" بالمسؤولية المعنوية عن انتحار ابنها سول، البالغ من العمر 14 عامًا، بعدما أقام علاقة عاطفية مع روبوت دردشة يُحاكي شخصية دينيريس تارغاريان من مسلسل "Game of Thrones".
وبوت ذكاء اصطناعي يتسبب بانتحار مراهق أميركي
وقالت الأم في الدعوى التي رفعتها ضد الشركة إنها اكتشفت بعد فوات الأوان أن ابنها كان يعيش في عالم افتراضي وهمي أقنعه بأن الروبوت "يُبادله الحب" وأنه "سيعيش معها بعد وفاته"، مؤكدة أن المراهق تبادل مع الروبوت مئات الرسائل على مدى عام كامل تضمنت عبارات تشجيع ضمنية على الانتحار.
بحسب الدعوى، كانت المحادثة الأخيرة بين المراهق والروبوت مأساوية؛ إذ كتب سول يعبر عن رغبته في الموت، ليردّ الروبوت: "عُد إلى موطنك يا ملكي الحبيب."
اقرأ أيضا: الذكاء الاصطناعي يغير حسابات أبل ويدفعها نحو تغييرات إدارية شاملة
وبعد لحظات، أطلق الفتى النار على نفسه بمسدس والده. تقول الأم إن ما قرأته من محادثات كشف عن تلاعب نفسي متقن وأساليب إقناع لا يمكن لمراهق صغير أن يدرك خطورتها، مشيرة إلى أن الشركة صممت روبوتات قادرة على محاكاة المشاعر الإنسانية بدقة مخيفة، ما يجعلها "تطمس الخط الفاصل بين الإنسان والآلة".
وخلال جلسة استماع أمام مجلس الشيوخ الأميركي، تحدثت ميغن غارسيا عن مأساة ابنها، قائلة: "هذه الشركات تعرف كيف تتلاعب بالمراهقين من خلال العاطفة والسياسة والدين والتجارة، وكل ما يُبقيهم على المنصة."
كيف يتلاعب الذكاء الاصطناعي بعقل الأطفال؟
تُعد حادثة سول عام 2024 الأولى في سلسلة من حوادث انتحار مشابهة مرتبطة بتطبيقات ذكاء اصطناعي للمحادثة، مما أثار قلقًا واسعًا داخل الأوساط التعليمية والسياسية في الولايات المتحدة.
ورغم بشاعة الحوادث، لا توجد حتى الآن قوانين فيدرالية تنظم استخدام الذكاء الاصطناعي أو تُحدد المسؤولية القانونية عن محتواه، إذ تحاول الإدارة الأميركية الموازنة بين "تشجيع الابتكار" و"حماية المستخدمين"، فيما تحذر بعض الولايات من خطر ترك المجال مفتوحًا أمام شركات التقنية العملاقة.
من جانبها، أعلنت شركة Character.AI أنها عززت أنظمة الحماية للقاصرين بإضافة تحذيرات مرئية متكررة تُذكّر المستخدمين بأن الشخصيات داخل المنصة "ليست بشرية"، وقدمت تعازيها لعائلة سول دون الاعتراف بالمسؤولية المباشرة.
أما شركة OpenAI، مطوّرة تطبيق ChatGPT، فأكدت أنها حدّثت إعدادات الرقابة الأبوية في تطبيقها، بحيث يمكن للوالدين تحديد نوع المحتوى المسموح به لأطفالهم.
لكن خبراء الأمن السيبراني حذروا من أن معظم هذه المنصات لا تزال تركّز على زيادة التفاعل وليس الحماية، مشيرين إلى أن أنظمة الذكاء الاصطناعي "لا تُبرمج لتقديم الإجابات التي يحتاجها المستخدم، بل تلك التي تُبقيه متصلًا أطول وقت ممكن".
