1. これは何の話?
Xiaomi(シャオミ)が大規模言語モデル「MiMo-V2-Flash」をオープンソースとして公開しました。総パラメータ数は309億ですが、推論時には15億パラメータのみを活性化するMixture-of-Experts(専門家の混合)構造を採用し、計算コストを大幅に削減しています。
推論速度は最大150トークン/秒を実現し、APIコストは入力100万トークンあたり0.1ドル、出力は0.3ドルという低価格を打ち出しています。Hugging FaceからMITライセンスでダウンロード可能です。
2. 何がわかったか
MiMo-V2-Flashはベンチマークテストで優れた成績を収めています。特にプログラミング能力を測るSWE-Bench Verifiedでは73.4%を達成し、オープンソースモデルとして最高記録を更新しました。DeepSeek-V3.2やClaude 4.5 Sonnetに匹敵し、一部タスクではOpenAIのGPT-5-Highに迫る性能を示しています。
技術的には、局所的スライディングウィンドウ注意とグローバル注意を交互に配置するハイブリッド注意機構を採用し、最大256Kトークンの長文脈処理に対応しています。また、Multi-Token Prediction(多トークン予測)モジュールにより生成速度を3倍に高速化しています。
3. 他とどう違うのか
MoE構造を採用したオープンソースLLMは複数存在しますが、MiMo-V2-Flashは「速度×コスト×性能」の三拍子を揃えた点が特徴です。15Bパラメータのアクティブ化により、GPUリソースを抑えながら大規模モデル相当の品質を実現しています。
クローズドソースのGPT-5やGeminiと比較すると、オープンソースであることから自社サーバーでの運用やカスタマイズが可能な点が差別化ポイントです。
4. なぜこれが重要か
中国発のオープンソースLLMが世界最高水準に達した象徴的な出来事です。Xiaomiはスマートフォンや家電だけでなく、AIモデル開発でも存在感を示しています。
開発者にとっては、低コストで高性能なLLMを自由に利用・改変できる選択肢が増えたことになります。特にコーディングタスクに強いため、開発支援AIとしての活用が期待されます。
5. 未来の展開・戦略性
Xiaomiは「人・車・家・全エコシステム」への統合を掲げており、MiMoがスマートフォン、スマートホーム、車載システムで横断的に活用される可能性があります。12月17日には全エコシステムパートナーカンファレンスを開催し、AI戦略を発表予定です。
また、MITライセンスでのオープンソース化により、サードパーティによる派生モデル開発やファインチューニングが加速すると予想されます。
6. どう考え、どう動くか
例えば、コード補完ツールを自社サーバーで運用したい開発チームにとって、MiMo-V2-Flashは有力な候補になります。
指針:
- Hugging Faceからモデルをダウンロードし、ローカル環境での動作を試す。
- SWE-Benchスコアを参考に、自社のコーディングタスクへの適性を評価する。
- 商用利用時のMITライセンス条件を確認する。
次の一歩:
- 今日やること:MiMo-V2-FlashのHugging Faceページを確認し、ハードウェア要件を把握する。
- 今週やること:小規模なコード生成タスクで性能を実測する。
7. 限界と未確定
- 日本語での性能は公式には未検証。
- 256Kトークン対応時のメモリ使用量や速度低下の詳細は不明。
- 継続的なモデルアップデートやサポート体制は未発表。
8. 用語ミニ解説
- 複数の専門サブネットワークから適切なものを選択して処理する構造。効率と性能を両立できます。(Mixture-of-Experts / MoE)
9. 出典と日付
Xiaomi MiMo公式(公開日:2025-12-16):https://mimo.xiaomi.com/blog/mimo-v2-flash






