Gabliteration:通过权重修改实现大语言模型的细粒度行为控制

Research#LLM🔬 Research|分析: 2026年1月10日 08:53
发布: 2025年12月21日 22:12
1分で読める
ArXiv

分析

本文介绍了 Gabliteration,一种通过调整神经网络权重来选择性地修改大型语言模型 (LLM) 行为的新方法。 这种方法可以对 LLM 的输出进行细粒度控制,从而可能解决偏见或不良反应等问题。
引用 / 来源
查看原文
"Gabliteration uses Adaptive Multi-Directional Neural Weight Modification."
A
ArXiv2025年12月21日 22:12
* 根据版权法第32条进行合法引用。