GQ-VAE:可変長トークン学習のための新しいトークナイザー

Paper#LLM🔬 Research|分析: 2026年1月3日 16:36
公開: 2025年12月26日 07:59
1分で読める
ArXiv

分析

この論文は、BPEのような既存のトークナイザーを置き換えることを目的とした、学習されたニューラル・トークナイゼーションのための新しいアーキテクチャであるGQ-VAEを紹介しています。主な利点は、可変長離散トークンを学習できることであり、基盤となる言語モデルに大きなアーキテクチャ変更を必要とせずに、圧縮と言語モデリングのパフォーマンスを向上させる可能性があります。この論文の重要性は、既存のトークナイザーのドロップイン置換を提供することにより、特に大規模な言語モデルの効率とパフォーマンスを向上させる可能性にあります。
引用・出典
原文を見る
"GQ-VAE improves compression and language modeling performance over a standard VQ-VAE tokenizer, and approaches the compression rate and language modeling performance of BPE."
A
ArXiv2025年12月26日 07:59
* 著作権法第32条に基づく適法な引用です。