検閲解除LLM、より豊かな会話のためにコンテキストを強化
分析
新しいオープンソースの大規模言語モデル(LLM)が洗練され、コンテキスト保持とパフォーマンスの大幅な改善が期待されています。 Qwen3.5-27Bをベースにしたこのモデルは、パラメトリックKLダイバージェンスの大幅な削減を誇り、会話能力の向上とより大きなコンテキストウィンドウを実現しています。
重要ポイント
引用・出典
原文を見る"パラメトリックKL(Kullback–Leiblerダイバージェンス)を修正:1.14 → 0.28(75.6%削減)"