Xiaomi ปล่อยโมเดล AI MiMo-V2-Flash เป็นโอเพนซอร์ส สัญญาความสามารถระดับท็อปในราคาที่ถูกกว่ามาก

ทีมบรรณาธิการ BigGo
Xiaomi ปล่อยโมเดล AI MiMo-V2-Flash เป็นโอเพนซอร์ส สัญญาความสามารถระดับท็อปในราคาที่ถูกกว่ามาก

ในการเคลื่อนไหวสำคัญภายในแวดวง AI ที่มีการแข่งขันสูง Xiaomi ยักษ์ใหญ่ด้านเทคโนโลยีจากจีน ได้เปิดตัวและปล่อยโมเดลภาษาขนาดใหญ่ล่าสุดของตนอย่างเป็นทางการ นั่นคือ MiMo-V2-Flash โดยมีการประกาศในงาน 2025 Xiaomi Human-Car-Home Ecosystem Partners Conference โมเดลนี้ถูกวางตำแหน่งเป็นทางเลือกที่มีประสิทธิภาพสูงและคุ้มค่าเมื่อเทียบกับโซลูชันโอเพนซอร์สชั้นนำ พร้อมด้วยคะแนนเบนช์มาร์กที่น่าประทับใจและสถาปัตยกรรมที่มีประสิทธิภาพสูงอย่างมากซึ่งออกแบบมาเพื่อความเร็ว

ผู้ท้าชิงใหม่ในวงการโอเพนซอร์ส

MiMo-V2-Flash ของ Xiaomi เข้าสู่สนามที่มีผู้เล่นมากมายด้วยข้อเสนอที่กล้าหาญ นั่นคือการเทียบเคียงความสามารถของโมเดลระดับท็อปอย่าง DeepSeek-V3.2 และ Kimi-K2 ในขณะที่ลดต้นทุนการดำเนินงานลงอย่างมาก โมเดลนี้ใช้สถาปัตยกรรม Mixture of Experts (MoE) โดยมีพารามิเตอร์ทั้งหมด 309 พันล้านตัว โดยมี 15 พันล้านตัวที่ทำงานระหว่างการอนุมาน การออกแบบนี้เป็นหัวใจสำคัญของประสิทธิภาพของมัน ช่วยให้สามารถให้เหตุผลที่ซับซ้อนได้โดยไม่ต้องแบกรับภาระการคำนวณจากการเปิดใช้งานพารามิเตอร์ทั้งหมดสำหรับทุกงาน ภายใต้สัญญาอนุญาต MIT ที่เปิดกว่านี้ น้ำหนักพื้นฐานของโมเดลพร้อมให้ใช้งานแล้วบน Hugging Face เชิญชวนนักพัฒนาและนักวิจัยให้ทดลองและสร้างสรรค์ต่อยอดจากมัน

ข้อมูลจำเพาะของโมเดลและราคา

  • สถาปัตยกรรม: Mixture of Experts (MoE)
  • พารามิเตอร์ทั้งหมด: 309 พันล้าน
  • พารามิเตอร์ที่ทำงานอยู่: 15 พันล้าน
  • หน้าต่างบริบท: 256k โทเค็น
  • ความเร็วในการอนุมาน: ~150 โทเค็น/วินาที
  • ราคา: USD 0.1 ต่อล้านโทเค็น (อินพุต), USD 0.3 ต่อล้านโทเค็น (เอาต์พุต)
  • สัญญาอนุญาต: MIT (โอเพนซอร์ส)

ออกแบบมาเพื่อความเร็วและราคาที่จับต้องได้

นวัตกรรมหลักของ MiMo-V2-Flash อยู่ที่การปรับปรุงโครงสร้างสถาปัตยกรรม ซึ่งมุ่งเป้าไปที่สองเป้าหมายหลักคือความเร็วในการอนุมานที่สูงมากและต้นทุนต่ำ Xiaomi อ้างว่าโมเดลนี้สามารถสร้างโทเคนได้ด้วยความเร็ว 150 โทเคนต่อวินาที ที่น่าตื่นเต้นยิ่งกว่านั้นคือ มันสามารถดันราคาการอนุมาน AI ลงมาอยู่ที่ 0.1 ดอลลาร์สหรัฐ ต่อล้านโทเคนสำหรับข้อมูลนำเข้า และ 0.3 ดอลลาร์สหรัฐ ต่อล้านโทเคนสำหรับข้อมูลส่งออก ซึ่งเป็นการตั้งมาตรฐานใหม่ด้านความคุ้มค่า สิ่งนี้ทำได้ผ่านเทคโนโลยีหลักสองประการ ประการแรก กลไกความสนใจแบบหน้าต่างเลื่อนแบบไฮบริดช่วยลดความจำเป็นในการใช้หน่วยความจำสำหรับการประมวลผลบริบทยาวลงเกือบหกเท่า ในขณะที่ยังคงรองรับหน้าต่างบริบทยาว 256k โทเคน ประการที่สอง โมดูลการทำนายหลายโทเคนแบบเนทีฟ (MTP) ช่วยให้โมเดลสามารถทำนายโทเคนในอนาคตหลายตัวได้แบบขนาน ทำให้ความเร็วในการอนุมานเพิ่มขึ้น 2 ถึง 2.6 เท่า

นวัตกรรมทางเทคนิคหลัก

  1. Hybrid Sliding Window Attention: ใช้สัดส่วน 5:1 ของเลเยอร์ Sliding Window (128 โทเค็น) ต่อเลเยอร์ Global Attention ลดหน่วยความจำ KV cache ได้ประมาณ 6 เท่า
  2. Multi-Token Prediction (MTP): ทำนายโทเค็นได้ 2.8-3.6 โทเค็นโดยเฉลี่ยในแบบขนาน ช่วยเร่งการอนุมานได้ 2.0-2.6 เท่า
  3. Multi-Teacher Online Policy Distillation (MOPD): วิธีการฝึกที่อ้างว่ามีประสิทธิภาพด้านการคำนวณมากกว่าไปปไลน์ RL แบบดั้งเดิมถึง 50 เท่า

ประสิทธิภาพในการทดสอบและความสามารถ

ผลการทดสอบเบื้องต้นแสดงภาพของโมเดลที่มีความสามารถสูง โดยเฉพาะในด้านเทคนิค ในการเขียนโปรแกรม MiMo-V2-Flash ได้คะแนน 73.4% ในแบบทดสอบ SWE-bench Verified ซึ่งเกี่ยวข้องกับการแก้ไขบั๊กซอฟต์แวร์ในโลกจริง ซึ่งเป็นผลลัพธ์ที่รายงานว่าสูงกว่าโมเดลโอเพนซอร์สอื่นๆ ทั้งหมดและเข้าใกล้ประสิทธิภาพของระบบปิดที่ก้าวหน้า นอกจากนี้ยังทำได้ดีในแบบทดสอบคณิตศาสตร์และความรู้ทางวิทยาศาสตร์ โดยอยู่ในอันดับต้นๆ สองอันดับแรกในบรรดาโมเดลโอเพนซอร์ส นอกเหนือจากการทดสอบมาตรฐานแล้ว โมเดลนี้ยังพร้อมสำหรับการใช้งานจริง โดยรองรับการคิดเชิงลึก การค้นหาทางเว็บ และการโต้ตอบแบบเอเจนต์หลายรอบที่ซับซ้อน ประสิทธิภาพของมันในงานที่ใช้เอเจนต์ เช่น การจำลองการสื่อสารและการค้าปลีก แสดงให้เห็นถึงความสามารถในการเข้าใจและดำเนินการตามขั้นตอนเชิงตรรกะหลายขั้นตอน

คะแนนมาตรฐานสำคัญ

  • SWE-bench Verified (การแก้ไขโค้ด/บั๊ก): 73.4%
  • SWE-Bench Multilingual: 71.7%
  • Agent Benchmarks (τ²-Bench): การสื่อสาร: 95.3 การค้าปลีก: 79.5 การบิน: 66.0 BrowseComp Search Agent: 45.4 (58.3 กับการจัดการบริบท)

แนวทางใหม่ในการฝึกฝนโมเดล

รายงานทางเทคนิคของ Xiaomi เน้นย้ำถึงวิธีการฝึกฝนที่ไม่ธรรมดาและมีประสิทธิภาพซึ่งเรียกว่า Multi-Teacher Online Policy Distillation (MOPD) แนวทางนี้ห่างไกลจากกระบวนการแบบเดิมที่ใช้ทรัพยากรการคำนวณสูง ซึ่งประกอบด้วยการปรับแต่งภายใต้การดูแลตามด้วยการเรียนรู้แบบเสริมกำลัง แต่แทนที่โมเดลนักเรียน (MiMo-V2-Flash) จะสร้างผลลัพธ์ของตัวเอง และโมเดลครูผู้เชี่ยวชาญหลายตัวจะให้ข้อเสนอแนะแบบหนาแน่นในแต่ละโทเคน วิธีการนี้ถูกอ้างว่ามีประสิทธิภาพในการคำนวณมากกว่า 50 เท่า ทำให้โมเดลนักเรียนสามารถเรียนรู้ได้อย่างรวดเร็วและบรรลุประสิทธิภาพสูงสุดของครูด้วยทรัพยากรที่น้อยกว่ามาก กรอบการทำงานนี้ยังช่วยให้เกิดวงจรเสริมกำลังด้วยตนเอง โดยที่นักเรียนที่เชี่ยวชาญสามารถกลายเป็นครูสำหรับการพัฒนารุ่นโมเดลถัดไปได้

การวางตำแหน่งสำหรับอนาคตของเอเจนต์ AI

ผู้บริหารของ Xiaomi รวมถึงประธาน Lu Weibing และหัวหน้า MiMo คนใหม่ Luo Fuli ได้วางกรอบการเปิดตัวครั้งนี้มากกว่าแค่โมเดลอีกตัวหนึ่ง พวกเขาอธิบาย MiMo-V2-Flash ว่าเป็น "พื้นฐานภาษาใหม่สำหรับยุคเอเจนต์" โดยเน้นย้ำถึงบทบาทของมันในการสร้างระบบที่ไม่เพียงแต่จำลองภาษา แต่เข้าใจและโต้ตอบกับโลก หน้าต่างบริบทยาวของโมเดลและความสามารถในการบูรณาการกับเครื่องมือสำหรับนักพัฒนาอย่าง Claude Code และ Cursor มีเป้าหมายเพื่อทำให้มันเป็นผู้ช่วยประจำวันที่ใช้งานได้จริงสำหรับการเขียนโค้ดและระบบอัตโนมัติของงานที่ซับซ้อน ด้วยการที่ API ของโมเดลปัจจุบันถูกนำเสนอให้ใช้ฟรีในช่วงเวลาจำกัด Xiaomi กำลังมุ่งหวังให้เกิดการนำไปใช้อย่างรวดเร็วและรับฟังความคิดเห็นจากชุมชนเพื่อขับเคลื่อนการพัฒนาของมันในพื้นที่ AI ที่เคลื่อนไหวอย่างรวดเร็ว