بيان عالمي يحذر من تطوير الذكاء الفائق بدون ضوابط صارمة
أطلق أكثر من 850 شخصية عامة وخبير تقني، من بينهم ستيف وزنياك، الشريك المؤسس لشركة أبل، وريتشارد برانسون، مؤسس مجموعة "فيرجن"، بيانًا يطالب بإيقاف تطوير ما يُعرف بالذكاء الفائق، وهو شكل متقدم من الذكاء الاصطناعي المتوقع أن يتجاوز القدرات البشرية في جميع المجالات المعرفية.
نتائج الذكاء الفائق
البيان الذي نشر الأربعاء، حمل توقيعات عدد من أبرز رواد الذكاء الاصطناعي مثل العالِمين يوشوا بنجيو وجيف هينتون، المعروفين بـ"آباء الذكاء الاصطناعي الحديث"، بالإضافة إلى البروفيسور ستيوارت راسل من جامعة كاليفورنيا في بيركلي.
وأشار البيان إلى مخاطر تطوير الذكاء الفائق، التي تشمل زيادة البطالة، وانتهاك الحريات الفردية، وفقدان السيطرة على الأنظمة، إلى جانب تهديد الأمن القومي وحتى وجود الإنسان.
وطالب الموقعون بفرض وقف مؤقت على تطوير الذكاء الفائق، حتى يتم التوصل إلى توافق علمي واسع ودعم شعبي يضمن تطويره بطريقة آمنة وتحت رقابة صارمة.
وشملت قائمة الموقعين شخصيات من مختلف المجالات الأكاديمية والإعلامية والسياسية والدينية، من بينهم مسؤولون أمريكيون سابقون مثل مايك مولين، الرئيس الأسبق لهيئة الأركان المشتركة، وسوزان رايس، مستشارة الأمن القومي السابقة.
اقرأ أيضًا: كيف يهدد الذكاء الاصطناعي بقاء ويكيبيديا؟
اللافت أن القائمة ضمت شخصيات إعلامية محافظة بارزة مثل ستيف بانون وغلين بيك، الداعمين للرئيس الأمريكي دونالد ترامب، ما يشير إلى اتساع المخاوف وتجاوزها للانقسامات السياسية.
كما شهد البيان مشاركة الأمير هاري وزوجته ميغان ماركل، مما يعكس اتساع الجبهة الرافضة لتسريع تطوير الذكاء الفائق دون وضع ضوابط كافية.
يأتي هذا التحرك في ظل منافسة محتدمة بين شركات التكنولوجيا الكبرى مثل "OpenAI"، و"xAI" التابعة لإيلون ماسك، و"ميتا"، التي أسست قسمًا خاصًا لتطوير الذكاء الفائق.
وبينما يرى البعض أن هذه التطورات تفتح آفاقًا جديدة للابتكار، يحذر آخرون من أن البشرية قد تدخل مرحلة حرجة مع تحديات لا يمكن التراجع عنها.
