Liquid AI发布LFM2.5:用于设备端AI的小型基础模型
分析
LFM2.5专注于设备端代理应用,满足了对低延迟、保护隐私的AI的关键需求。扩展到28T tokens和强化学习后训练表明对模型质量和指令遵循进行了大量投资。提供多样化的模型实例(日语聊天、视觉语言、音频语言)表明制定了周全的产品策略,针对特定用例。
要点
引用 / 来源
查看原文"It’s built to power reliable on-device agentic applications: higher quality, lower latency, and broader modality support in the ~1B parameter class."