LLMが生物兵器の製造と放出をエンドツーエンドで実行するために必要な知識に近づいている(あるいは既に達しているかもしれない)こと、そしてその破壊の可能性が非常に高いことを懸念しています。一部の生物兵器は、最大限の拡散を狙って放出された場合、数百万人の死者を出す可能性があります。しかし、そのためには依然として非常に高度なスキルが必要であり、広く知られていない非常に具体的な手順や手順が数多く含まれます。私の懸念は、単に固定された、あるいは静的な知識だけではありません。LLMが、平均的な知識と能力を持つ人に対して、そうでなければうまくいかなかったり、対話型の方法でデバッグが必要になる可能性のある複雑なプロセスを、手取り足取り説明できるようになることを懸念しています。