モジュラー加算表現:幾何学的等価性

Research Paper#Neural Networks, Deep Learning, Modular Arithmetic, Attention Mechanisms, Topology🔬 Research|分析: 2026年1月3日 06:22
公開: 2025年12月31日 18:53
1分で読める
ArXiv

分析

この論文は、異なる注意メカニズムがニューラルネットワークにおけるモジュラー加算に対して根本的に異なる回路をもたらすという考えに異議を唱えています。アーキテクチャのバリエーションにもかかわらず、学習された表現はトポロジー的および幾何学的に等価であると主張しています。この方法論は、ニューロンのグループの集合的な振る舞いを多様体として分析することに焦点を当て、トポロジー的ツールを使用して、さまざまな回路間の類似性を実証しています。これは、ニューラルネットワークがどのように数学的演算を学習し、表現するかについてのより深い理解を示唆しています。
引用・出典
原文を見る
"Both uniform attention and trainable attention architectures implement the same algorithm via topologically and geometrically equivalent representations."
A
ArXiv2025年12月31日 18:53
* 著作権法第32条に基づく適法な引用です。