تطورات GPT-4.5 تُمكّن OpenAI من إعادة تدريب GPT-4 بسهولة
في تحول لافت على صعيد تطور نماذج الذكاء الاصطناعي، قال الرئيس التنفيذي لشركة OpenAI، سام ألتمان، إن الشركة أصبحت قادرة على إعادة بناء نموذج GPT-4 باستخدام فريق صغير يتراوح بين 5 و10 مهندسين فقط، وذلك بعد أن كان تطوير النموذج سابقًا يتطلب مئات الأشخاص وجهود معظم فرق الشركة.
وخلال حلقة من بودكاست OpenAI نُشرت الجمعة، طرح ألتمان هذا السؤال على فريق تطوير نموذج GPT-4.5، مشيرًا إلى أن هذه القفزة التقنية جاءت بفضل ما تم اكتسابه من خبرات وأدوات أثناء بناء GPT-4.5 ونسخة GPT-4o الجديدة.
اقرأ أيضًا: الذكاء الاصطناعي يتوقع السكتة القلبية المفاجئة قبل أسبوعين
بفضل GPT-4.5 وGPT-4o: نماذج متقدمة وفرق أصغر
أوضح أليكس باينو، قائد فريق ما قبل التدريب في مشروع GPT-4.5، أن العمل على إعادة تدريب GPT-4 الآن سيكون أقل تكلفة وأكثر كفاءة، قائلًا: "لقد دربنا GPT-4o، وهو نموذج بمستوى GPT-4 تقريبًا، باستخدام تقنيات وأدوات تم تطويرها في إطار أبحاث GPT-4.5... وتم ذلك بفريق صغير نسبيًا".
وأضاف الباحث دانيال سيلسام، المتخصص في خوارزميات الكفاءة البيانية، أن "مجرد معرفة أن شيئًا ما أصبح ممكنًا يعد بمثابة رمز غش للعقل، ويجعل العملية أسهل بكثير".
OpenAI تتجاوز مرحلة القيود الحسابية
في تصريح لافت، أكد سام ألتمان أن OpenAI لم تعد تعاني من "قيود حسابية" فيما يتعلق بإنتاج أفضل النماذج، وهو ما وصفه بـ"التحديث المجنون" في عالم الذكاء الاصطناعي، مضيفًا: "لطالما كان الوصول إلى قوة حوسبة كافية هو العائق الرئيس، لكن لم يعد هذا هو الحال".
وبينما تستثمر شركات التكنولوجيا الكبرى مثل مايكروسوفت، وأمازون، وغوغل، ومِيتا، أكثر من 320 مليار دولار في البنية التحتية للذكاء الاصطناعي هذا العام، أعلنت OpenAI أنها جمعت مؤخرًا جولة تمويل قياسية من "سوفت بنك" ومستثمرين آخرين بقيمة 40 مليار دولار، لترفع بذلك تقييمها إلى 300 مليار دولار.
اقرأ أيضًا: الذكاء الاصطناعي يكشف علامات الكذب في الحديث اليومي
نحو قفزات جديدة: الخوارزميات وكفاءة البيانات هي التحدي القادم
رغم هذا التقدم الكبير، يشير الباحث دانيال سيلسام إلى أن التحدي التالي سيكون في "كفاءة البيانات"، مؤكدًا أن نماذج GPT الحالية فعّالة جدًا في معالجة المعلومات، لكنها تصطدم بسقف فيما يتعلق بعمق الفهم المستخلص من البيانات المتاحة.
وأضاف: "مع استمرار زيادة قوة الحوسبة، لن تنمو كمية البيانات بنفس الوتيرة... البيانات ستصبح العائق الجديد، ويجب علينا تطوير خوارزميات جديدة لاستخلاص قيمة أكبر من نفس الكم من البيانات".
