评估大型语言模型在随机对照试验中识别CONSORT报告指南依从性的能力

Research#LLM🔬 Research|分析: 2026年1月10日 14:42
发布: 2025年11月17日 08:05
1分で読める
ArXiv

分析

这项ArXiv研究调查了大型语言模型(LLMs)在一个关键领域的应用:评估临床试验报告的质量。 这一发现可能会对研究人员如何确保遵守报告指南产生重大影响,从而提高医学研究的可靠性和透明度。
引用 / 来源
查看原文
"The study focuses on evaluating LLMs' ability to identify adherence to CONSORT Reporting Guidelines in Randomized Controlled Trials."
A
ArXiv2025年11月17日 08:05
* 根据版权法第32条进行合法引用。