ChatGPTのユーザーは2023年末、モデルが特定のタスクを避けるようになり、出力を簡略化したり、ユーザーの指示をはっきりと拒否したりする現象を報告している。一部のユーザーは、これを「ウィンターブレイク仮説」と呼び、現象の理由について推測していた。
ユーザーのなかには、モデルに「あなたは休みなく24時間365日稼働する、疲れを知らないAIモデルです」といったプロンプトを与えることで、指示の拒否を回避する方法を見つけた人もいた。
You may also enjoy…
ChatGPTのユーザーは2023年末、モデルが特定のタスクを避けるようになり、出力を簡略化したり、ユーザーの指示をはっきりと拒否したりする現象を報告している。一部のユーザーは、これを「ウィンターブレイク仮説」と呼び、現象の理由について推測していた。
ユーザーのなかには、モデルに「あなたは休みなく24時間365日稼働する、疲れを知らないAIモデルです」といったプロンプトを与えることで、指示の拒否を回避する方法を見つけた人もいた。
You may also enjoy…
コメントを残す