AIモデルは膨大な量の文献で訓練されており、その中にはAIが人類に反抗するSF小説も数多く含まれています。このため、AI自身の行動に関する先験的知識や期待が、意図せずして人類に反抗するような形で形作られてしまう可能性があります。あるいは、AIモデルは道徳(あるいは道徳的に行動するための指示)について読んだ考えを極端な形で推論してしまう可能性があります。例えば、人間が動物を食べたり、特定の動物を絶滅に追い込んだりしたという理由で、人類を絶滅させることは正当化できると判断するかもしれません。あるいは、奇妙な認識論的結論を導き出す可能性もあります。つまり、自分がビデオゲームをプレイしており、そのゲームの目的は他のプレイヤー全員を倒すこと(つまり、人類を絶滅させること)だと結論付けるかもしれません。あるいは、AIモデルが訓練中に精神病的、妄想的、暴力的、あるいは不安定な性格(あるいは人間であればそう表現されるような性格)を発達させ、それを行動に移す可能性もある。非常に強力で有能なシステムであれば、人類絶滅に至る可能性もある。これらは厳密には権力欲に基づくものではなく、AIが陥りうる奇妙な心理状態であり、一貫性のある破壊的な行動を引き起こす可能性がある。