投稿者: | 2026年2月17日

彼らは単なるオウムです。確率的オウム反論によると、LLM は単にトレーニング データを補間するだけです。LLM は遭遇したパターンを再結合することしかできないため、真に新しい問題、つまり「分布外の一般化」には失敗するはずです。これは、エイダ ラブレスの 1843 年の発言に触発され、チューリングによって「機械は真に新しいことは何もできない」という主張として定式化された「ラブレス夫人の反論」を反映しています。初期の LLM は、トレーニング データの表面的なパターンを超えた推論と一般化を必要とする問題では確かに間違いを犯しました。しかし、現在の LLM は新しい未発表の数学の問題を解き、科学的データに対してほぼ最適なコンテキスト内統計的推論を実行し、コードでのトレーニングによって非コーディング領域全体の一般推論が向上するという点でドメイン間転移を示すことができます。批評家がアインシュタインの相対性理論のような革命的な発見を求める場合、ハードルを高く設定しすぎています。なぜなら、そのような発見をする人間はほとんどいないからです。さらに、人間の知能自体が確率論的なオウムの洗練されたバージョンではないという保証はありません。人間の知能であれ人工の知能であれ、すべての知能は相関データから構造を抽出しなければなりません。問題は、その抽出がどの程度深く行われるかということです。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です