ウォリド・サバ博士による自然言語理解 [UNPLUGGED]

Research#NLU📝 Blog|分析: 2026年1月3日 07:15
公開: 2022年3月7日 13:25
1分で読める
ML Street Talk Pod

分析

この記事は、ウォリド・サバ博士による、自然言語理解に大規模な統計的言語モデル(BERTOLOGY)を使用することへの批判について論じています。彼は、このアプローチは根本的に欠陥があり、無限のデータを記憶することに似ていると主張しています。議論は、記号論理、統計的学習の限界、および代替アプローチをカバーしています。
引用・出典
原文を見る
"Walid thinks this approach is cursed to failure because it’s analogous to memorising infinity with a large hashtable."
M
ML Street Talk Pod2022年3月7日 13:25
* 著作権法第32条に基づく適法な引用です。