突破性小型LLM超越大型竞争对手
分析
一项令人兴奋的新进展! 一位研究人员创建了一个出乎意料高效的生成式人工智能。 通过使用“递归混合”方法,这个新构建的 大语言模型 (LLM) 性能优于具有更多参数的模型,展示了创新架构的力量。
引用 / 来源
查看原文"我构建了一个1.98亿参数的LLM,使用递归混合——基于输入复杂度的自适应计算,其性能优于GPT-2 Medium (3.45亿参数)"
"我构建了一个1.98亿参数的LLM,使用递归混合——基于输入复杂度的自适应计算,其性能优于GPT-2 Medium (3.45亿参数)"