زيكو كولتر: هل هو الرجل الذي سيوقف الذكاء الاصطناعي الخطير؟
برز اسم زيكو كولتر، أستاذ علم الحاسوب والذكاء الاصطناعي في جامعة كارنيجي ميلون الأمريكية، ليصبح من أكثر الأسماء تأثيرًا في تحديد مستقبل الذكاء الاصطناعي حول العالم، إثر تعيينه رئيسًا للجنة الأمان داخل شركة OpenAI.
وتمتلك اللجنة التي يديرها كولتر سلطة وقف أو تأجيل إصدار أي نظام ذكاء اصطناعي متقدم، إذا أثبتت مراجعاتها أنه يشكل خطرًا أمنيًا، أو يؤثر سلبًا على الصحة النفسية، أو يمكن استغلاله لتطوير أسلحة بيولوجية أو شن هجمات إلكترونية متقدمة.
من هو زيكو كولتر ؟
يحمل كولتر مسيرة أكاديمية غنية بدأت منذ سنوات دراسته الأولى، حيث تخصص في التعلم الآلي، ليقود لاحقاً قسم الحوسبة الآلية بواحدة من أعرق الجامعات في العالم.
وهو مرتبط بتاريخ OpenAI منذ تأسيسها عام 2015، ويُعرف عنه تفضيله الوضوح العلمي ووضع الضوابط الأخلاقية عند تطوير الأنظمة فائقة الذكاء.
وقد ازدادت أهمية منصب كولتر بعد اتفاقات أبرمتها OpenAI مع الجهات التنظيمية في كاليفورنيا وديلاوير، تمنحه حق حضور اجتماعات مجلس الإدارة والإطلاع الكامل على تقييمات الأمان، ما يعيد الاعتبار لأولويات السلامة وحوكمة التقنية بعد موجة تسارع إطلاق المنتجات دون مراجعة كافية.
اقرأ أيضا: ألتمان: إيرادات OpenAI تنمو بسرعة مذهلة.. والاكتتاب ليس قريبًا بعد
ويهتم كولتر بضرورة الموازنة بين الإبداع وقيم الحماية، ويرى أن الذكاء الاصطناعي يجب أن يبقى محفوفًا بأسوار الأمان لصالح الأفراد والمجتمعات.
وتشير الأوساط التقنية والقانونية أن نجاحه في فرض هذه المعايير سيعيد رسم النموذج العالمي لصناعة الذكاء الاصطناعي، كما يُنتظر أن يحد من نفوذ رأس المال مقابل أولوية السلامة المجتمعية في العقود المقبلة.
