トークン化のボトルネック:語彙拡張が事前学習済み言語モデルにおける化学表現学習をどのように改善するか

Research#llm🔬 Research|分析: 2026年1月4日 09:54
公開: 2025年11月18日 11:12
1分で読める
ArXiv

分析

この記事は、事前学習済み言語モデル(LLM)の限られた語彙内で化学構造を表現することの課題について議論している可能性があります。次に、カスタムトークン化や化学固有のトークンの追加を通じて語彙を拡張することが、LLMの化学表現の理解と生成能力をどのように向上させるかを検討しています。焦点は、化学に関連するタスクにおけるLLMのパフォーマンスの向上です。
引用・出典
原文を見る
"The article's abstract or introduction would likely contain a concise statement of the problem and the proposed solution, along with some key findings. Without the article, a specific quote is impossible."
A
ArXiv2025年11月18日 11:12
* 著作権法第32条に基づく適法な引用です。