تحذير علمي: استنساخ الصوت بالذكاء الاصطناعي سيتجاوز "حاجز التمييز" في 2026
مع تطور تقنيات الذكاء الاصطناعي، أصبح من الصعب التمييز بين الفيديوهات الحقيقية والمزيفة، ما يثير المخاوف حول انتشار الاحتيال والتضليل الإعلامي. وتشير التقديرات إلى أن 2026 ستكون عامًّا تنتشر فيه مقاطع الفيديو العميقة (Deepfakes) بشكل كبير، خصوصًا مع تطور استنساخ الصوت والوجوه الرقمية.
أجرى الباحث سيوي ليو، عالم الحاسوب المتخصص في أبحاث الفيديو المزيف والوسائط الاصطناعية بجامعة بوفالو، بحثا جديدا حول هذا الشأن ونشر تفاصيله في مقال علمي مؤخرا عبر موقع "the conversation".
أدوات المستهلكين لإنشاء Deepfakes
قال سيوي ليو في مقاله: "خلال عام 2025، شهدنا تقدمًا مذهلًا في تقنيات الفيديو العميق. الوجوه والأصوات وأداء الأجسام بالكامل أصبحت تُنتج بجودة عالية لدرجة أنها تخدع المشاهد العادي بسهولة، سواء في مكالمات الفيديو منخفضة الدقة أو المحتوى المنتشر على وسائل التواصل الاجتماعي، وحتى المؤسسات تواجه صعوبة في التفريق بين الأصلي والمزيف".
وأضاف ليو "التقدم الأساسي جاء من نماذج توليد الفيديو التي حافظت على التناسق الزمني والهوية البصرية للشخصيات. هذه النماذج تنتج وجوهًا مستقرة ومتسقة دون تشوهات كانت تُعتبر علامات لاكتشاف الفيديو المزيف سابقًا".
وتابع عالم الحاسوب المتخصص في أبحاث الفيديو المزيف والوسائط الاصطناعية "يمكن أيضا فصل هوية الشخص عن الحركة، بحيث يمكن تطبيق نفس الحركة على عدة شخصيات أو استخدام شخصية واحدة في حركات مختلفة، مما يرفع مستوى الواقعية بشكل كبير".
وأوضح سيوي ليو "أما الصوت المستنسخ، فقد تخطى ما أسميه ‘العتبة التي لا يمكن تمييزها. بضع ثوانٍ من التسجيل تكفي الآن لتوليد نسخة صوتية دقيقة تشمل النبرة والإيقاع والعاطفة والتنفس والتوقفات الطبيعية".
المخاطر الاجتماعية والمالية للوسائط الاصطناعية
واستطرد "هذه التقنيات المذكورة أدت إلى زيادة هائلة في عمليات الاحتيال، إذ تتلقى بعض الشركات آلاف المكالمات اليومية باستخدام أصوات مزيفة".
يرى سيو ليو أن المستهلكين العاديين أصبحوا قادرين على إنتاج هذه الوسائط بسهولة من خلال أدوات مثل Sora 2 من OpenAI وVeo 3 من Google، بالإضافة إلى الذكاء الاصطناعي لتوليد النصوص مثل ChatGPT وGemini.
تتيح الأدوات المذكورة سابقا لأي شخص وصف فكرة وإنشاء فيديو كامل بصوت وصورة في دقائق، وبعبارة أخرى، القدرة على إنتاج deepfakes على نطاق واسع ودون خبرة تقنية أصبحت متاحة للجميع".
وأوضح ليو "هذه الزيادة في الكمية والواقعية تخلق تحديات ضخمة للكشف عن المحتوى المزيف، خصوصًا في بيئة إعلامية سريعة الحركة. وقد شهدنا بالفعل أضرارًا حقيقية، من التضليل الإعلامي والتحرش المستهدف إلى الاحتيال المالي".
واختتم ليو حديثه قائلا إنه يجب تطوير أدوات كشف قوية، وتعليم المستخدمين كيفية التحقق من محتوى الوسائط الرقمية قبل تصديقها أو مشاركتها.
