投稿者: | 2025年12月6日

「スーパーインテリジェンスの開発はもう目の前だ」とマーク・ザッカーバーグは述べ、「今日では想像もできないような新しいものの創造と発見」を予感させた。強力なAIは「早ければ2026年にも登場し、ほとんどの関連分野でノーベル賞受賞者よりも賢くなるだろう」とダリオ・アモデイは述べ、人間の寿命が倍増したり、死からの「脱出速度」さえも向上させたりすると予測している。「我々は今、AGIの構築方法を知っていると確信している」とサム・アルトマンは述べている。業界の聖杯である汎用人工知能、そして間もなく超知能AIに言及して、彼らは「私たち自身の能力をはるかに超えて科学的発見と革新を大幅に加速させる可能性がある」と述べている。私たちは彼らを信じるべきだろうか?人間の知能に関する科学を信頼し、これらの企業がこれまでに生み出したAIシステムだけを見れば、信じるべきではない。OpenAIのChatGPT、AnthropicのClaude、GoogleのGemini、そしてMetaが今週そのAI製品を呼んでいるものなどのチャットボットに共通する特徴は、すべてが主に「大規模言語モデル」であるということだ。基本的に、それらは膨大な量の言語データ(その多くはインターネット上でコード化されている)を収集し、単語(より正確には、「トークン」と呼ばれるサブワード)間の相関関係を見つけ、特定のプロンプトを入力としてどのような出力が続くかを予測することに基づいている。生成AIは複雑であるとされているが、その核心は実際には言語モデルなのである。問題は、現在の神経科学によれば、人間の思考は人間の言語とはほとんど無関係であるということです。そして、言語のより洗練されたモデル化が、人間に匹敵する、あるいはそれを超える知能を生み出すと信じる根拠はほとんどありません。人間は、推論能力、抽象化、一般化能力、つまり私たちが知能と呼ぶものの結果を伝えるために言語を使用します。私たちは言語を使って考えますが、だからといって言語が思考と同じになるわけではありません。この違いを理解することが、科学的事実と、AIに熱狂するCEOたちの空想的なSFを区別する鍵となります。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です