投稿者: | 2026年4月17日

従業員へのアピールは「君たちは世界を救うことになる」だったとサツケバー氏は語った。すべてがうまくいけば、人工知能はポスト希少性のユートピアをもたらし、単純作業を自動化し、癌を治療し、そして、人々が余暇と豊かさに満ちた生活を享受できるようになる。しかし、この技術が暴走したり、悪者の手に渡ったりすれば、壊滅的な被害が出る可能性がある。中国はこれを利用して新たな生物兵器や高度なドローン部隊を開発するかもしれない。AIモデルは監視者を出し抜き、秘密のサーバー上で自己複製して停止できないようにするかもしれない。極端な場合には、電力網、株式市場、あるいは核兵器庫を掌握するかもしれない。誰もがこれを信じていたわけではないが、アルトマンは繰り返し信じていると主張した。彼は2015年に自身のブログで、超人的な機械知能は「私たち全員を殺すために本質的に邪悪なSF版である必要はない。より可能性の高いシナリオは、どちらにしても私たちのことをあまり気にせず、他の目的を達成するために…私たちを滅ぼすということだ」と書いた。 OpenAIの創設者たちは、安全性よりもスピードを優先しないことを誓い、組織の定款では人類に貢献することが法的拘束力のある義務とされていた。AIが史上最も強力な技術になるのであれば、それを単独で制御できる個人は他に類を見ないほど強力になるのは当然であり、創設者たちはこのシナリオを「AGI独裁」と呼んだ。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です