
Qwen3-VL-Embedding発表:マルチモーダル情報検索の新標準
Alibabaが発表したQwen3-VL-EmbeddingとRerankerは、テキスト・画像・動画を横断するマルチモーダル情報検索に特化したモデル。MMEB-V2とMMTEBでSOTA達成。2B/8Bサイズで企業のRAGシステム強化に活用可能です。
LLM / 7 件

Alibabaが発表したQwen3-VL-EmbeddingとRerankerは、テキスト・画像・動画を横断するマルチモーダル情報検索に特化したモデル。MMEB-V2とMMTEBでSOTA達成。2B/8Bサイズで企業のRAGシステム強化に活用可能です。

G2RLは勾配方向の多様性に基づきLLMの探索を誘導する強化学習手法で、Qwen3モデルでMATH500やAIME等の推論ベンチマークを改善しました。

Alibaba Qwenチームがコーディング支援ツール「Qwen-Code」のv0.5.0をリリースしました。ロシア語サポート追加、終了時のセッション再開コマンド表示、ターミナルベル設定、VSCode IDEコンパニオンの改良など、開発者体験向上に焦点を当てたアップデートです。

SAPOはLLMの強化学習における不安定性を解消する新手法です。従来のハードクリッピングに代わり、温度制御によるソフトゲートで学習信号を保持しながら安定化を実現。Qwen3-VLで適用され効果を実証しています。

AIの利用実態を100兆トークン規模で分析した、OpenRouterによる「State of AI 2025」レポートの解説です。 「みんな実際には何にAIを使っているのか?」「オープンソースは本当に流行っているのか?」といった疑問に対し、推測ではなく実データで答えています。2024年末の「o1」リリースを転換点として、AIの利用形態が単なるテキスト生成から「自律的な推理(Agentic Inference)」へと劇的にシフトしたこと、

長文脈LLMの推論でボトルネックとなるメモリ消費を、精度を犠牲にせずに最大78%削減する新フレームワーク「KV Pareto」が登場。128kトークンを一般PCで動かす未来が近づく

LLMの長文推論能力(CoT)を、強化学習(RL)を使わずに強化する新しい手法「Semantic Soft Bootstrapping (SSB)」の提案です。 従来の強化学習は計算コストが高く、報酬設定も難しいという課題がありました。 本手法は、モデル自身が生み出した「正解」と「誤答」をヒント(意味的コンテキスト)として自分自身に入力し、そこからより良い推論プロセスを学ぶ「自己蒸留」のアプローチをとっています[1]。 SSBを用いるこ