Wordllama:LLMトークン埋め込みのための軽量ユーティリティ
分析
Wordllamaは、LLMのトークン埋め込みを使用して意味的な文字列操作を行うためのライブラリです。速度、軽量性、使いやすさを重視し、CPUプラットフォームをターゲットとし、PyTorchのような深層学習ランタイムへの依存を回避しています。ライブラリの核心は、平均プーリングされたトークン埋め込みであり、複数の負のランキング損失やマトリーシカ表現学習などの技術を使用して訓練されています。完全なトランスフォーマーモデルほど強力ではありませんが、単語埋め込みモデルと比較して良好なパフォーマンスを発揮し、より小さいサイズと高速な推論を提供します。入力準備、情報検索、評価などのタスクに役立つ実用的なツールを提供し、LLM埋め込みを扱うための参入障壁を下げることが目的です。
重要ポイント
引用・出典
原文を見る"The model is simply token embeddings that are average pooled... While the results are not impressive compared to transformer models, they perform well on MTEB benchmarks compared to word embedding models (which they are most similar to), while being much smaller in size (smallest model, 32k vocab, 64-dim is only 4MB)."