LLA:ロジックロックアクセラレータによる生成モデルのセキュリティ強化

Research Paper#AI Security, Generative Models, Hardware Security🔬 Research|分析: 2026年1月3日 16:37
公開: 2025年12月26日 05:47
1分で読める
ArXiv

分析

この論文は、生成AIモデルの知的財産保護という重要な問題に取り組んでいます。モデルの盗難、破損、情報漏洩を防ぐために、ハードウェアとソフトウェアの協調設計アプローチ(LLA)を提案しています。ロジックロックアクセラレータの使用と、ソフトウェアベースのキー埋め込みおよび不変変換の組み合わせは、生成AIモデルのIPを保護するための有望なソリューションを提供します。報告されている最小限のオーバーヘッドは大きな利点です。
引用・出典
原文を見る
"LLA can withstand a broad range of oracle-guided key optimization attacks, while incurring a minimal computational overhead of less than 0.1% for 7,168 key bits."
A
ArXiv2025年12月26日 05:47
* 著作権法第32条に基づく適法な引用です。