شاومي تطلق نموذج ذكاء اصطناعي مفتوح المصدر لتحدي OpenAI في عالم التقنية

كتب : محمود الهواري
07:47 م
17/12/2025
في خطوة جديدة تعكس تطورًا ملحوظًا في مجال الذكاء الاصطناعي، أعلنت شركة شاومي الصينية عن إطلاق نموذج MiMo-V2-Flash، نموذج ذكاء اصطناعي مفتوح المصدر، يهدف إلى منافسة أبرز النماذج العالمية مثل DeepSeek وMoonshot AI وAnthropic وOpenAI، مما يفتح آفاقًا واسعة أمام المطورين والشركات للاستفادة من تقنيات متقدمة تساعدهم على تحسين الأداء والإنتاجية.
MiMo-V2-Flash: نموذج ذكاء اصطناعي مفتوح المصدر بكفاءة عالية
يتوفر نموذج MiMo-V2-Flash بشكل عالمي عبر منصة MiMo Studio المخصصة لمطوري شاومي، بالإضافة إلى منصات Hugging Face وواجهة برمجة التطبيقات API الخاصة بها، مما يتيح سهولة الوصول والاستخدام، بحسب تقرير نشره موقع SCMP، مع قدرة النموذج على تنفيذ مهام متعددة تشمل الاستدلال الذكي والبرمجة، بالإضافة إلى تقديم دعم قوي كمساعد عام للمهام اليومية بكفاءة عالية.
مراحل متقدمة في تطوير الذكاء الاصطناعي العام
وصف الباحث لوو فولي، الذي انضم لفريق MiMo بعد خبرته في DeepSeek، النموذج بأنه يمثل “الخطوة الثانية على طريق الذكاء الاصطناعي العام AGI”، مشيرًا إلى قدرة الأنظمة المستقبلية على محاكاة أو تجاوز القدرات المعرفية للبشر، الأمر الذي يضع MiMo-V2-Flash في مركز الصدارة ضمن جهود تطوير الذكاء الاصطناعي الشامل.
سرعة معالجة عالية وتكلفة تشغيل منخفضة
يتمتع MiMo-V2-Flash بسرعة معالجة تصل إلى 150 وحدة نصية في الثانية، مع تكلفة تشغيل منخفضة تبلغ 0.1 دولار لكل مليون وحدة إدخال، و0.3 دولار لكل مليون وحدة إخراج، ما يجعل النموذج من الأكثر اقتصادًا وأعلى أداءً في السوق، ويتيح فرصًا ممتازة للشركات التي تبحث عن حلول ذكية فعالة من حيث التكلفة.
أداء متفوق في الاستدلال والبرمجة والمهام المعقدة
حقق النموذج نتائج متقدمة تقارب أداء نماذج Kimi K2 Thinking من Moonshot AI و DeepSeek V3.2 في اختبارات الاستدلال، وتفوق على Kimi K2 Thinking في مهام النصوص الطويلة، حيث سجل 73.4% في معيار SWE-Bench Verified الخاص بالمهام المعتمدة على الوكلاء، متحديًا بذلك النماذج مفتوحة المصدر ومقتربًا من مستوى نموذج GPT-5-High من OpenAI، فيما اقترب أداؤه في البرمجة من اسماء بارزة مثل Claude 4.5 Sonnet، ولكن مع تكلفة أقل بكثير.
بنية تقنية حديثة تعزز دقة وكفاءة النموذج
يعتمد MiMo-V2-Flash على بنية Mixture-of-Experts المتطورة، التي تقسم النموذج إلى شبكات فرعية متخصصة حسب نوع البيانات، مع عدد هائل من المعاملات يصل إلى 309 مليارات، مما يعزز دقة الاستجابة وقدرة النموذج على معالجة وتوليد مخرجات معقدة، مسهماً في دفع حدود التطور في الذكاء الاصطناعي مفتوح المصدر.










