例えば、「リモコンがテーブルの上にあり、テーブルがリビングルームにあり、リビングルームが1階にある場合、リモコンはどこにありますか? ________」という質問を完成させるテストが考えられます。モデルは「1階」と答える必要があります。
より小規模なモデルでテストしたところ、「テーブル」と返答しました。これはそれでも印象的です。なぜなら、ここには何らかの物語があり、質問があり、そしてモデルはそれに答える必要があることを理解しているからです。そして、「コンピューター」のようなランダムな単語で答えることはありません。一方で、これは世界に関する知識ではないと主張することもできます。ある意味では、この予測はモデルに伝えられたことをただ繰り返しているだけです。さらに、人間が期待するものとも一致していません。つまり、これは私たちが求めている知性ではありません。