ウォリド・サバ博士による自然言語理解 [UNPLUGGED]
分析
この記事は、ウォリド・サバ博士による、自然言語理解に大規模な統計的言語モデル(BERTOLOGY)を使用することへの批判について論じています。彼は、このアプローチは根本的に欠陥があり、無限のデータを記憶することに似ていると主張しています。議論は、記号論理、統計的学習の限界、および代替アプローチをカバーしています。
重要ポイント
引用・出典
原文を見る"Walid thinks this approach is cursed to failure because it’s analogous to memorising infinity with a large hashtable."