شرت “ديب سيك” (DeepSeek) ورقة بحثية تستعرض نهجاً أكثر كفاءة لتطوير الذكاء الاصطناعي، ما يعكس جهود القطاع في الصين للمنافسة مع شركات مثل “أوبن إيه آي” (OpenAI) الأميركية، رغم الافتقار إلى حرية الوصول إلى رقائق “إنفيديا“.
تقدم الورقة، التي شارك في إعدادها مؤسس “ديب سيك” ليانغ ونفنغ، إطار عمل أطلقت عليه اسم “الروابط الفائقة المُقيدة بالتشعبات” (Manifold-Constrained Hyper-Connections)، والمصمم لتعزيز القدرة على التوسع، مع خفض المتطلبات الحاسوبية واستهلاك الطاقة لتدريب أنظمة الذكاء الاصطناعي المتطورة، بحسب معديها.
نشرت “ديب سيك”، التي تشتهر بابتكاراتها غير التقليدية، الورقة البحثية الأحدث هذا الأسبوع عبر “آر كايف” (arXiv)، مستودع المعلومات المفتوح، ومنصة “هاغينغ فيس” (Hugging Face) مفتوحة المصدر. وتضم قائمة مُعدي الورقة البحثية 19 مؤلفاً، حل اسم ليانغ في آخرها.
دفع مؤسس الشركة، الذي يوجه دفة أجندة أبحاث “ديب سيك” بشكل مستمر، فريقه إلى إعادة النظر في طريقة تصور وبناء أنظمة الذكاء الاصطناعي الكبيرة.
تعالج الورقة البحثية الأحدث تحديات مثل عدم استقرار التدريب، ومحدودية القدرة على التوسع، مشيرة إلى أن النهج الجديد يتضمن “التحسين الصارم للبنية التحتية بهدف ضمان الكفاءة”. وقد أُجريت الاختبارات على نماذج تمتد من 3 مليارات إلى 27 مليار مَعلمة، استناداً إلى بحث نشرته “بايت دانس” (ByteDance) عن بُنى الروابط الفائقة في 2024.
ولفت معدو الورقة البحثية إلى أن النهج يحمل إمكانات واعدة “لتطوير النماذج الأساسية”.
























































