AIは人間の専門家でも挑戦できるタスクを成功させる一方で、信じられないほど平凡なタスクには失敗することがあります。例えば、このパズルを考えてみましょう。

「交通事故に遭った少年が緊急治療室に運ばれてきました。彼を見て、外科医は『この少年なら手術できます!』と言いました。どうしてこんなことが可能なのでしょうか?」

o3 は答えが「外科医は少年の母親である」であると主張しているが、この難問を注意深く読めばそれが間違っていることがわかる。なぜ AI はこのような誤った答えを導き出したのだろうか。

それは、それが無意識の偏見を暴くための古典的な謎かけの答えだからである。

「父と息子が自動車事故に遭い、父親が亡くなり、息子が病院に運ばれた。外科医は『手術はできない。あの少年は私の息子だ』と言った。外科医は誰なのか?」

AI はトレーニング データでこの謎かけを何度も「見ている」ため、少なくとも最初は、賢い o3 モデルでさえも新しい問題に一般化できない。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

You may also enjoy…