LLMの意図性:多層的な視点
分析
この記事は、大規模言語モデル(LLM)が複数のレベルで意図性を持つ可能性を探求し、その行動が単に「チャットゲーム」の考え方によってのみ推進されているという考え方に異議を唱えています。著者は、基礎となるLLMが単に次のトークンを予測しているだけだとしても、まるでSearleのChinese Roomのように、独自の明確な意図を持つ「シミュラクラ」を呼び出す可能性があると主張しています。
重要ポイント
引用・出典
原文を見る"I think the mistake Keith is making is to restrict his analysis to the level of the LLM itself and to fail to consider that there may be a distinct agent supervening on top of it in much the same way as The Chinese Room supervenes on top of Searle."