DeepSeek تكشف عن ابتكار يخفض كلفة الذكاء الاصطناعي للنصف
كشفت شركة ديب سيك، المتخصصة في الذكاء الاصطناعي ومقرها الصين، عن نموذجها التجريبي الجديد V3.2-exp، الذي يعتمد على تقنية مبتكرة تُعرف باسم Sparse Attention. ويُعد هذا النموذج خطوة بارزة في تقليل تكاليف الاستدعاء عبر واجهات البرمجة (API) بنسبة تصل إلى النصف، خاصة في العمليات طويلة السياق. الإعلان جاء عبر منصة Hugging Face، مصحوبًا بورقة بحثية منشورة على GitHub.
تقنية Sparse Attention
يرتكز الابتكار على آلية معقدة توظّف ما يُعرف بـ"المفهرس السريع" (Lightning Indexer) لتحديد المقاطع الأكثر أهمية داخل نافذة السياق. وبعد ذلك، يقوم نظام "اختيار الرموز الدقيقة" (Fine-Grained Token Selection) بانتقاء الرموز الأساسية من تلك المقاطع ليجري معالجتها ضمن نافذة الانتباه المحدودة للنموذج. هذه البنية المزدوجة تتيح للنموذج معالجة نصوص طويلة بكفاءة أعلى مع تقليل الضغط على الخوادم.
أظهرت الاختبارات الأولية أن تكلفة استدعاء واجهة برمجة واحدة يمكن أن تنخفض إلى النصف عند التعامل مع سياقات طويلة. وبينما تحتاج النتائج إلى مزيد من التحقق، فإن النموذج متاح بشكل مفتوح ومجاني على Hugging Face، ما يتيح للجهات الخارجية إجراء تقييمات مستقلة لقياس مدى دقة هذه الادعاءات.
اقرأ أيضًا: المدير التقني لشركة ميتا يكشف كيف تحل النزاعات في بيئة العمل؟
ويمثل هذا النموذج أحدث محاولات تقليص تكاليف الاستدلال، أي التكاليف التشغيلية للنماذج المدربة مسبقًا، وهي تختلف عن كلفة التدريب نفسها. ففي حين يواصل الباحثون عالميًا البحث عن حلول، تسعى ديب سيك، إلى تحسين كفاءة بنية المحوّل (Transformer) التقليدية عبر إدخال تعديلات جوهرية في آليات الانتباه.
تأتي هذه الخطوة بعد أشهر من إطلاق الشركة لنموذجها R1، الذي استند بشكل كبير إلى التعلم المعزز وحقق تكلفة تدريب منخفضة مقارنة بمنافسيه الأمريكيين. ورغم أن R1 لم يحدث ثورة واسعة كما توقّع البعض، فقد عزز سمعة ديب سيك كأحد اللاعبين غير التقليديين في المشهد العالمي للذكاء الاصطناعي.
ورغم أن تقنية Sparse Attention قد لا تثير الضجة نفسها التي رافقت نموذج R1، فإنها تحمل إمكانات عملية قد تدفع الشركات الأمريكية إلى تبني استراتيجيات جديدة لخفض تكاليف الاستدلال، مما يعزز التنافس في سوق يشهد تطورات متسارعة.
