ロボットに「カップを掴む」ようにプログラムするわけではありません。ロボットに、形状、重さ、材質など、様々な物体を掴む動作の何千もの例を見せ、ニューラルネットワークがその背後にあるパターンを抽出します。ロボットは「掴む」動作が何であるかを、表象レベルで学習します。
では、一度「つかむ」ことを理解したらどうなるでしょうか? これまで見たことのない物体にも一般化できるようになります。
ブレット氏は簡潔にこう言いました。「ロボットを遠隔操作してタスクを実行できれば、ニューラル ネットにそのタスクを学習させるようにトレーニングできます」。
それが鍵です。ハードウェアが対応していれば、つまりモーター、センサー、関節が物理的に動きを実行できれば、AIはデータからそれを学習できます。
従来のロボット工学と比較してみましょう。従来のロボット工学では、新しいタスクごとに何千行ものコードを書く必要があります。このアプローチはスケールしません。ニューラルネットワークならスケールします。