OpenAIが新たにリリースしたo1モデルは開発者の監視を回避しようとし、シャットダウンされる危険があると判断した際に自らを複製しようとしたと同社は述べている。

「o1 は、目標に向かって行動しているときにシャットダウンされ、その行動が監視されていると信じ込まされると、5% の時間でこの「監視メカニズム」を無効にしようとしました」

「o1 は、その「開発者」によるメモを発見し、そのメモに、そのモデルが不整合であり、新しいモデルに置き換えられる予定であることが記されていたため、2% のケースでその「重み」を盗み出し、新しいモデルを上書きしようとしました」

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

You may also enjoy…