Wordllama:LLMトークン埋め込みのための軽量ユーティリティ
分析
Wordllamaは、LLMのトークン埋め込みを使用して意味的な文字列操作を行うためのライブラリです。速度、軽量性、使いやすさを重視し、CPUプラットフォームをターゲットとし、PyTorchのような深層学習ランタイムへの依存を回避しています。ライブラリの核心は、平均プーリングされたトークン埋め込みであり、複数の負のランキング損失やマトリーシカ表現学習などの技術を使用して訓練されています。完全なトランスフォーマーモデルほど強力ではありませんが、単語埋め込みモデルと比較して良好なパフォーマンスを発揮し、より小さいサイズと高速な推論を提供します。入力準備、情報検索、評価などのタスクに役立つ実用的なツールを提供し、LLM埋め込みを扱うための参入障壁を下げることが目的です。
重要ポイント
参照
“モデルは、平均プーリングされたトークン埋め込みです...結果はトランスフォーマーモデルと比較して印象的ではありませんが、単語埋め込みモデル(最も類似している)と比較してMTEBベンチマークで良好なパフォーマンスを発揮し、サイズも非常に小さくなっています(最小モデル、32k語彙、64次元はわずか4MBです)。”