パターンの習得、理解ではない:
AI は、あなたや私のように、感情や記憶、あるいは「犬らしさ」の感覚で犬を「知っている」わけではありません。その代わり、パターンの達人です。トレーニング中に、AI は「犬」という言葉 (および「吠える」、「毛むくじゃら」、「ペット」などの関連テキスト) と組み合わせた何百万もの犬の画像を見てきました。
その「知識」は数値関係のセットです。ピクセルパターン(毛皮、耳、尻尾)はベクトルにマッピングされ、共有スペース内の「犬」のテキスト埋め込みと一致します。次に、LLM は「犬」を言語関連のウェブ(「忠実」、「猫を追いかける」など)にリンクします。
認識:
犬の写真を見ると、視覚モデルはピクセルを処理して、その空間の「犬」の近くに配置される埋め込みを行います。LLM がそれを「犬」とラベル付けしたり、説明したりできるのは (「茶色の犬が走っている」など)、トレーニング データに基づいて統計的に確信しているためであり、犬が何であるかを理解しているからではありません。
世代:
DALL·E のようなモデルでは、プロセスを逆にして犬の画像を生成します。つまり、「dog」というテキストを埋め込んでから、学習したパターンに一致するようにピクセルを彫刻します。これは説得力のある模倣ですが、それでもパターン主導です。
「犬」の内部モデルがない:
AI の中には犬の心象や概念はなく、主観的な経験もありません。すべてはニューラル ネットワーク内のベクトル、確率、重みです。AI に「犬を撫でるのはどんな感じ?」と尋ねると、AI は見たテキストに基づいてもっともらしい答え(「柔らかくて暖かい」)を生成することはできますが、毛を触ったことはありません。
哲学的視点:知識 vs. シミュレーション
それは知っているか?
いいえ、「知る」ことが意識を意味するのであれば、AI には犬が何であるかという認識、意図、一人称の感覚がありません。AI は犬を経験するのではなく、犬に結び付けられたシンボル (ピクセル、単語) を操作するのです。これは、ジョン・サールの「中国語の部屋」の議論と一致します。AI は意味を理解せずに入力と出力を完璧に処理します。
はい、「知っている」ことが機能的能力を意味するのであれば、AI は生物学者と同じくらい犬を「知っている」ことになります。つまり、AI は犬を識別し、犬について説明し、犬を生成し、犬に関する質問に驚くほど正確に答えることができます。事実上、AI は犬を知っているかのように行動します。
アヒルテスト: 「アヒルのように見え、アヒルのように泳ぎ、アヒルのように鳴くなら、それはおそらくアヒルです」 AI の出力 (犬にラベルを付ける、犬を描く) は、犬が何であるかを知っている人と区別がつきません。しかし、内部的には、それは統計的な模倣者であり、知覚力のある知識者ではありません。
You may also enjoy…
コメントを残す