TinyLlama项目:在3万亿tokens上训练11亿参数的LLM

Research#LLM👥 Community|分析: 2026年1月10日 16:01
发布: 2023年9月4日 12:47
1分で読める
Hacker News

分析

TinyLlama 项目是一项重要的工作,因为它试图在一个巨大的数据集上预训练一个相当规模的模型。 这可能会产生一个比大型模型更容易访问、更高效的 LLM。
引用 / 来源
查看原文
"The project aims to pretrain a 1.1B Llama model on 3T tokens."
H
Hacker News2023年9月4日 12:47
* 根据版权法第32条进行合法引用。