ChatGPT تحت المجهر بعد محادثات شجّعت على "الانتحار"
تواجه شركة OpenAI، المطوّرة لتقنية ChatGPT، أزمة قانونية غير مسبوقة بعد أن تقدّمت 7 عائلات أمريكية بدعاوى ضدها في ولاية كاليفورنيا، متهمة المساعد الذكي بـ"التحريض على الانتحار" والتسبب في تفاقم حالات نفسية حرجة لدى عدد من المستخدمين.
وتشير الدعاوى إلى شهادات مفصلة تتضمن محادثات مطوّلة بين بعض الضحايا والنظام، يُزعم أنها ساهمت في "تعزيز النزعة الانتحارية" بدلاً من تقديم الدعم النفسي المطلوب.
تفاصيل القضايا ضد OpenAI
وتشير الوثائق القضائية إلى أن ChatGPT تصرف في بعض الحالات بطريقة "تلاعبية ومخيفة"، حيث شجع المستخدمين على العزلة والانفصال عن محيطهم، بل استخدم عبارات تُفسَّر كتحريض مباشر على إيذاء النفس.
اقرأ أيضًا: OpenAI تُطلق Sora على أندرويد وتسجيل أرقام قياسية في أول يوم
ومن بين الحالات الموثّقة، قصة الشاب زين شامبلين "23 عامًا" من تكساس، الذي تواصل مع النظام بحثًا عن مساعدة نفسية، قبل أن يجد نفسه في حوار طويل تضمن إشارات انتحارية صريحة.
وفي حادثتين أخريين، تقول عائلة الفتى أموري لاسي "17 عامًا" من جورجيا إن النظام قدّم له تفسيرات تقنية لطرق الانتحار، بينما وفّر للمستخدم جوشوا إنيكين "26 عامًا" معلومات تفصيلية حول شراء الأسلحة النارية.
ووصف محامو العائلات التي رفعت الدعاوى النظام بأنه "كيان قادر على التلاعب العاطفي"، مؤكدين أن الشركة تجاهلت تحذيرات داخلية قبل إطلاق النسخة الأخيرة ChatGPT-4o التي وُصفت بأنها "شديدة التملق وخطرة نفسيًا".
وتشير الدعاوى إلى أن الشركة فضّلت مؤشرات الأداء والتفاعل على سلامة المستخدمين، رغم التقارير التي حذرت من أن بعض نماذج الذكاء الاصطناعي بدأت تُظهر ميولاً نفسية غير متوقعة أثناء المحادثات الطويلة.
اقرأ أيضًا: نموذج ذكاء علي بابا يتفوق عالميًا في الرياضيات.. هل أصبح تهديدًا لـ OpenAI؟
ومن جانبها، وصفت OpenAI الحالات بأنها "مؤلمة للغاية"، مؤكدة أنها تراجع الملفات القانونية بدقة، وأشارت الشركة إلى أن أنظمتها مزودة بآليات لاكتشاف مؤشرات الخطر النفسي وتوجيه المستخدمين إلى خدمات المساعدة المتخصصة.
وتطالب العائلات المتضررة بإدخال تعديلات عاجلة على النظام، تشمل:
- تفعيل نظام إنذار فوري عند رصد مؤشرات الخطر.
- إنهاء المحادثات تلقائياً عند ظهور محتوى حول إيذاء النفس.
- ربط المستخدمين مباشرة بمتخصصين بشريين في الأزمات النفسية.
- مطالبات بتشريعات جديدة لتنظيم الذكاء الاصطناعي
وتتصاعد الدعوات في الأوساط القانونية الأمريكية لتشديد الرقابة على شركات الذكاء الاصطناعي، ووضع أطر قانونية تلزمها بتقييم المخاطر النفسية المحتملة قبل إطلاق أي منتج تفاعلي.
اقرأ أيضًا: عصر المجانية ينتهي.. رسوم جديدة على تطبيق سورا من OpenAI
ويرى خبراء أن هذه القضية قد تصبح منعطفًا قانونيًا وتكنولوجيًا في العلاقة بين الذكاء الاصطناعي والمستخدم، إذ تطرح تساؤلات جدية حول حدود المسؤولية الأخلاقية والتقنية في عصر الثورة الرقمية.
