記憶は単なる機能ではなく、知性そのものの基礎です。
人間の認知は、経験から一貫した物語を形成し、異質な概念を結びつけ、長期的なパターンから学び、広範な文脈にわたって一貫した理解を維持する能力に依存しています。人間レベルの知能を目指すあらゆるシステムは、記憶の問題を解決しなければなりません。
これまでのAI開発は、モデルサイズと学習データのスケーリングに重点を置いていました。パラメータ、計算量、学習トークンの数が増えるほど、規模が大きければ大きいほど良いという暗黙の前提がありました。この力ずくのアプローチは、収穫逓減と天文学的なコストをもたらしました。
TitansとMIRASは、スケーリングよりもアーキテクチャの革新を重視する、異なる哲学を体現しています。モデルのメモリ構成とアクセス方法を根本的に見直すことで、Googleはより小型で効率的なシステムで優れたパフォーマンスを実現しました。
これはAGI(汎用人工知能)開発にとって重要です。なぜなら、人間レベルの知能とは、個々のタスクをうまく解決するだけでなく、領域、時間、文脈を超えて一貫した理解を維持することだからです。メモリアーキテクチャは、他のすべてを支える足場です。