分析
Googleが正式にGemma 4を公開し、当日のAIニュースを完全に席巻する非常に強力なオープンソースモデルが登場しました。非常に柔軟なApache 2.0ライセンスでリリースされたこの新しい世代の大規模言語モデル(LLM)は、推論、エージェントワークフロー、エッジでのマルチモーダル機能に特化して最適化されています。驚異的な効率性と前例のないDay 0ハードウェアエコシステムサポートにより、Gemma 4は開発者がコンシューマーデバイス上で最先端のAIを直接実行することを可能にし、ローカルAIの限界を押し広げています。
重要ポイント
- •Gemma 4は、テキスト、画像、音声をサポートし、256Kという印象的なコンテキストウィンドウを持つ非常に高性能な「トリモーダル」オープンモデルである。
- •26B A4Bモデルは素晴らしいローカルパフォーマンスを披露し、RTX 4090 1枚で1秒間に162トークンを処理し、M4 Mac miniやiPhoneでも容易に動作する。
- •前例のないDay 0のエコシステムサポートにより、vLLM、Ollama、Intelハードウェア、Hugging Face全体でシームレスなワンクリックデプロイとローカル実行が可能である。
- •ネイティブfunction callingとハイブリッドアテンションメカニズムにより、高度なエージェントワークフローに非常に適している。
- •Googleは、この新しいアーキテクチャがサイズが10倍のモデルを上回ると主張しており、効率性における飛躍的な進歩を強調している。