Liquid AI、オンデバイスAI向け小型基盤モデルLFM2.5を発表
分析
LFM2.5のオンデバイスエージェントアプリケーションへの焦点は、低遅延でプライバシーを保護するAIの重要なニーズに対応しています。28Tトークンへの拡張と強化学習によるポストトレーニングは、モデルの品質と指示追従への多大な投資を示唆しています。多様なモデルインスタンス(日本語チャット、ビジョン言語、オーディオ言語)の利用可能性は、特定のユースケースをターゲットとした、よく考えられた製品戦略を示しています。
重要ポイント
引用・出典
原文を見る"It’s built to power reliable on-device agentic applications: higher quality, lower latency, and broader modality support in the ~1B parameter class."