
みずほFGが「GPT-5.2同等精度」の金融特化LLMを自社開発——Qwen3-32Bベースでオンプレ環境でのセキュア運用を実現
みずほFGは、自社環境(オンプレミス)で安全に稼働し、トップクラスの精度を持つ金融領域特化の独自LLMの開発に成功しました。
Organization / 14 件

みずほFGは、自社環境(オンプレミス)で安全に稼働し、トップクラスの精度を持つ金融領域特化の独自LLMの開発に成功しました。

QwenのOpenSource最前線を担った林俊旸がアリバを退職申請。後任にはGoogleDeepMind出身の周浩が浮上し、阿里AIの戦略転換が急加速している。

Alibaba CloudがAI Coding Planを提供開始。Qwen3-Coder-Plusを月額固定で利用可能(Lite 18,000回/月、Pro 90,000回/月)。Cline・Claude Code・Qwen Codeに対応したコーディングAI定額プラン。

AlibabaのQwen3.5シリーズがHuggingFaceに公開。MoE構造の0.8B~397Bまで8サイズ展開で、フラッグシップQwen3.5-397B-A17BはHuggingFace上で100万以上のダウンロードを記録(2026-03-03確認時点)。FP8量子化版も提供。

Qwen3-Coder-Nextは80B MoEでありながら推論時は3Bアクティブ構成で、Unslothの手順により約46GB環境でのローカル実行を狙えるコーディング特化モデルです。

Alibaba Qwenチームが公開したQwen3-TTSは、自然言語で声質を設計でき、3秒の音声から声をクローン可能。10言語対応、97msの超低レイテンシを実現したオープンソース音声合成モデルです。

Alibabaが発表したQwen3-VL-EmbeddingとRerankerは、テキスト・画像・動画を横断するマルチモーダル情報検索に特化したモデル。MMEB-V2とMMTEBでSOTA達成。2B/8Bサイズで企業のRAGシステム強化に活用可能です。

G2RLは勾配方向の多様性に基づきLLMの探索を誘導する強化学習手法で、Qwen3モデルでMATH500やAIME等の推論ベンチマークを改善しました。

Alibaba Qwenチームがコーディング支援ツール「Qwen-Code」のv0.5.0をリリースしました。ロシア語サポート追加、終了時のセッション再開コマンド表示、ターミナルベル設定、VSCode IDEコンパニオンの改良など、開発者体験向上に焦点を当てたアップデートです。

SAPOはLLMの強化学習における不安定性を解消する新手法です。従来のハードクリッピングに代わり、温度制御によるソフトゲートで学習信号を保持しながら安定化を実現。Qwen3-VLで適用され効果を実証しています。

OpenRouter State of AI 2025:100兆トークン分析で見えた「LLMの真実」. これは何の話? AIの利用実態を100兆トークン規模で分析した、OpenRouterによる「State of AI 2025」レポートの解説です。

長文脈LLMの推論でボトルネックとなるメモリ消費を、精度を犠牲にせずに最大78%削減する新フレームワーク「KV Pareto」が登場。128kトークンを一般PCで動かす未来が近づく

RLなしでLLM長文推論を高めるSemantic Soft Bootstrapping. これは何の話? LLMの長文推論能力(CoT)を、強化学習(RL)を使わずに強化する新しい手法「Semantic Soft Bootstrapping (SSB)」の提案です。
AlibabaのQwenチームがDeepResearch 2511アップデートを公開し、Normal/Advancedモードの切り替え、資料アップロード、検索性能向上、レポート形式の詳細指定などを追加しました。