1. これは何の話?

エッジAI開発者やオンデバイスAIに関心のある読者向けに、Google が FunctionGemma を発表しました。これはGemma 3 270M をベースに関数呼び出し(Function Calling)向けにファインチューニングしたモデルで、自然言語のコマンドをAPIアクションに変換するエッジエージェント構築を可能にします。2025年の Gemma ファミリーは1億から3億以上のダウンロードに成長しており、開発者からの要望No.1だった「ネイティブ関数呼び出し」がついに実現しました。
2. 何がわかったか

- ファインチューニング効果 ─ Mobile Actionsデータセットでの評価において、ベースモデルの58%からファインチューニング後85%へ精度が向上。専用訓練の効果が実証されています。
- エッジ対応 ─ NVIDIA Jetson Nano、スマートフォンなど、エッジデバイスで動作可能。完全オフラインでプライバシーを保護しながらAI処理を実行できます。
- 統一アクション&チャット ─ APIを呼び出す構造化出力と、結果をユーザーに自然言語で説明する能力を兼ね備えています。
- 幅広いエコシステム ─ Hugging Face、Unsloth、Keras、NVIDIA NeMoでファインチューニング可能。LiteRT-LM、vLLM、MLX、Llama.cpp、Ollama、Vertex AI、LM Studioでデプロイ可能。
3. 他とどう違うのか
クラウド前提の大規模モデルによる関数呼び出しと異なり、270Mパラメータのコンパクトさでローカル実行を優先しています。単独のエージェントとして動作するか、より大きなモデル(Gemma 3 27Bなど)のトラフィック・コントローラーとして動作する設計です。
4. なぜこれが重要か
「チャット」から「アクション」への転換が進む中、エッジデバイスで確実に動作する関数呼び出しAIは、スマートホーム、モバイルアシスタント、IoTデバイスなどで需要が高まっています。プライバシー重視のユースケースでは、クラウド送信なしにローカルで処理完結できることが決定的なメリットです。
5. 未来の展開・戦略性
Googleは「チャットボットからアクションの時代へ」と位置付けており、FunctionGemmaはその入口です。スマートフォンやウェアラブル、車載デバイスなど、低レイテンシ・プライバシー重視のシナリオで独自エージェント開発が進むと予想されます。
6. どう考え、どう動くか
例えば「おやすみモード」と言えば照明を消し、アラームをセットし、ドアをロックする—というスマートホーム自動化を、完全オフラインで構築したい開発者に最適です。
指針:
- Hugging FaceからFunctionGemmaをダウンロードし、サンプルプロンプトで動作確認する。
- 自社アプリケーションのAPI仕様を整理し、関数呼び出しに適したスキーマを設計する。
- Mobile Actionsデータセットとファインチューニングガイドでカスタム訓練を試す。
次の一歩:
- 今日やること:Google AI Edge Galleryアプリでデモを体験する。
- 今週やること:ファインチューニング用Colabノートブックでカスタムデータセットを試す。
7. 限界と未確定
- 「ゼロショット プロンプティング」だけでは精度が限定的で、高精度にはファインチューニングが推奨されています。
- 270Mパラメータという制約上、非常に複雑なマルチステップ推論には限界があります。
- 日本語を含む多言語での関数呼び出し精度は、公式発表時点では詳述されていません。
8. 用語ミニ解説
- AIモデルが外部のAPIや関数を呼び出すために、構造化されたリクエストを生成する機能です。(Function Calling / 関数呼び出し)
- クラウドではなく端末(スマートフォン、IoTデバイスなど)側でAI処理を行うことです。(Edge AI / エッジAI)
9. 出典と日付
Google The Keyword「FunctionGemma: Bringing bespoke function calling to the edge」(公開日:2025-12-18):https://blog.google/technology/developers/functiongemma/










