1. これは何の話?

Xiaomi(シャオミ)が大規模言語モデル「MiMo-V2-Flash」をオープンソースとして公開しました。総パラメータ数は309億ですが、推論時には15億パラメータのみを活性化するMixture-of-Experts(専門家の混合)構造を採用し、計算コストを大幅に削減しています。

推論速度は最大150トークン/秒を実現し、APIコストは入力100万トークンあたり0.1ドル、出力は0.3ドルという低価格を打ち出しています。Hugging FaceからMITライセンスでダウンロード可能です。

2. 何がわかったか

MiMo-V2-Flashはベンチマークテストで優れた成績を収めています。特にプログラミング能力を測るSWE-Bench Verifiedでは73.4%を達成し、オープンソースモデルとして最高記録を更新しました。DeepSeek-V3.2やClaude 4.5 Sonnetに匹敵し、一部タスクではOpenAIのGPT-5-Highに迫る性能を示しています。

技術的には、局所的スライディングウィンドウ注意とグローバル注意を交互に配置するハイブリッド注意機構を採用し、最大256Kトークンの長文脈処理に対応しています。また、Multi-Token Prediction(多トークン予測)モジュールにより生成速度を3倍に高速化しています。

3. 他とどう違うのか

MoE構造を採用したオープンソースLLMは複数存在しますが、MiMo-V2-Flashは「速度×コスト×性能」の三拍子を揃えた点が特徴です。15Bパラメータのアクティブ化により、GPUリソースを抑えながら大規模モデル相当の品質を実現しています。

クローズドソースのGPT-5やGeminiと比較すると、オープンソースであることから自社サーバーでの運用やカスタマイズが可能な点が差別化ポイントです。

4. なぜこれが重要か

中国発のオープンソースLLMが世界最高水準に達した象徴的な出来事です。Xiaomiはスマートフォンや家電だけでなく、AIモデル開発でも存在感を示しています。

開発者にとっては、低コストで高性能なLLMを自由に利用・改変できる選択肢が増えたことになります。特にコーディングタスクに強いため、開発支援AIとしての活用が期待されます。

5. 未来の展開・戦略性

Xiaomiは「人・車・家・全エコシステム」への統合を掲げており、MiMoがスマートフォン、スマートホーム、車載システムで横断的に活用される可能性があります。12月17日には全エコシステムパートナーカンファレンスを開催し、AI戦略を発表予定です。

また、MITライセンスでのオープンソース化により、サードパーティによる派生モデル開発やファインチューニングが加速すると予想されます。

6. どう考え、どう動くか

例えば、コード補完ツールを自社サーバーで運用したい開発チームにとって、MiMo-V2-Flashは有力な候補になります。

指針:

  • Hugging Faceからモデルをダウンロードし、ローカル環境での動作を試す。
  • SWE-Benchスコアを参考に、自社のコーディングタスクへの適性を評価する。
  • 商用利用時のMITライセンス条件を確認する。

次の一歩:

  • 今日やること:MiMo-V2-FlashのHugging Faceページを確認し、ハードウェア要件を把握する。
  • 今週やること:小規模なコード生成タスクで性能を実測する。

7. 限界と未確定

  • 日本語での性能は公式には未検証。
  • 256Kトークン対応時のメモリ使用量や速度低下の詳細は不明。
  • 継続的なモデルアップデートやサポート体制は未発表。

8. 用語ミニ解説

  • 複数の専門サブネットワークから適切なものを選択して処理する構造。効率と性能を両立できます。(Mixture-of-Experts / MoE)

9. 出典と日付

Xiaomi MiMo公式(公開日:2025-12-16):https://mimo.xiaomi.com/blog/mimo-v2-flash