ほとんどのプロジェクトマネージャーが、実際にそれで痛い目に遭うまで知らない詳細です。
AIシステムは、最も間違っている時こそ、最も自信を持つことが多い。
2025年のMITの研究によると、LLM(論理モデル)が誤った情報を生成する際、正確な情報を生成する時よりも断定的な表現を用いる傾向があることが分かった。モデルは誤った情報を生成する際に、「間違いなく」「疑いなく」といったフレーズを34%多く使用する傾向があった。システムは自分が間違っていることに気付かない。ユーザーに不確実性を示す内部信号も存在しない。ただ権威的な口調で話し続けるだけだ。