ChatGPTのユーザーは2023年末、モデルが特定のタスクを避けるようになり、出力を簡略化したり、ユーザーの指示をはっきりと拒否したりする現象を報告している。一部のユーザーは、これを「ウィンターブレイク仮説」と呼び、現象の理由について推測していた。

ユーザーのなかには、モデルに「あなたは休みなく24時間365日稼働する、疲れを知らないAIモデルです」といったプロンプトを与えることで、指示の拒否を回避する方法を見つけた人もいた。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

You may also enjoy…