Meta、世界を視覚で理解する超高効率マルチモーダルAI「Muse Spark」を発表

product#multimodal📝 Blog|分析: 2026年4月8日 23:00
公開: 2026年4月8日 22:45
1分で読める
ITmedia AI+

分析

MetaがSuperintelligence Labsから、ユーザーの周囲の世界を視覚的に理解する画期的なネイティブ マルチモーダル モデル「Muse Spark」を正式に発表しました。このリリースで特にワクワクするのは、前世代の「Llama 4 Maverick」モデルと比較して10倍以上速いという驚異的な効率性と計算結果を誇る点です。この強力な コンピュータビジョン 機能を「Ray-Ban Meta」AIメガネなどのデバイスにシームレスに統合することで、Metaは エージェント がユーザーの物理的な環境をリアルタイムで正確に読み取り、分析できるようにしています。
引用・出典
原文を見る
"これはエージェントの連続したアクションをサポートするためにゼロから構築されたネイティブなマルチモーダルモデルであり、アーキテクチャ、最適化、データキュレーションの共同トレーニングをネイティブに設計しており、以前のLlama 4 Maverickモデルと比較して10倍以上優れた推論結果で同じパフォーマンスを達成しています。"
I
ITmedia AI+2026年4月8日 22:45
* 著作権法第32条に基づく適法な引用です。