HY-MT1.5 技術報告の概要

Research Paper#Machine Translation, Natural Language Processing🔬 Research|分析: 2026年1月3日 16:50
公開: 2025年12月30日 09:06
1分で読める
ArXiv

分析

この論文は、HY-MT1.5シリーズの機械翻訳モデルを紹介し、その性能と効率性を強調しています。特に18億パラメータのモデルは、より大規模なオープンソースモデルや商用モデルに対して優れた性能を示し、非常に大規模な独自モデルの性能に迫っています。70億パラメータのモデルは、そのサイズクラスで新たな最先端技術を確立しています。この論文は、全体的なトレーニングフレームワークと、高度な翻訳制約を処理するモデルの能力を強調しています。
引用・出典
原文を見る
"HY-MT1.5-1.8B demonstrates remarkable parameter efficiency, comprehensively outperforming significantly larger open-source baselines and mainstream commercial APIs."
A
ArXiv2025年12月30日 09:06
* 著作権法第32条に基づく適法な引用です。