主に社会学的な理由から、LLMなどのニューラルネットワークを構築してきた人々は、ビッグデータの膨大な統計分析から知性が「出現」することを期待し、明示的なモデルを使わずに研究を進めてきた。これは意図的なものだ。大まかな第一近似として、LLMが行うことは、言語の断片(場合によっては画像)間の相関関係を抽出することだ。しかし、誰が誰にいつ何をしたかといった明示的なモデルを作成するという、骨の折れる困難な作業(かつては知識工学と呼ばれていた)は不要だ。

奇妙に聞こえるかもしれませんが、LLM内部のデータベースなどの明示的なデータ構造を明示することはできません。「機械がトンプソン氏について知っていることはすべてここに保存されています」とか、「トンプソン氏についてさらに詳しく知ったときに、これがトンプソン氏に関する知識を更新するために使用する手順です」などと言うことはできません。LLMは巨大で不透明なブラックボックスであり、明示的なモデルは全く存在しません。LLMがブラックボックスであると言うことの意味の一つは、内部にある特定の事実集合などのモデルを明示できないということです。(多くの人はLLMが「ブラックボックス」であることを認識していますが、この重要な意味を十分に理解していません。)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

You may also enjoy…