投稿者: | 2026年1月1日

進化を事前訓練に例えると、ゲノムを通して伝達される情報が非常に少ないという事実をどのように説明するかということです。つまり、3ギガバイトはヒトゲノム全体の大きさです。明らかに、そのほんの一部が脳のコーディングに実際に関連しています。

以前、進化はモデルのハイパーパラメータ、つまり何層必要か、アーキテクチャ、つまり基本的にどのように接続すべきかを示す数値を発見したというアナロジーが提唱されていました。しかし、サンプル効率の向上が学習を助け、一般的にシステムのパフォーマンスを向上させるという点が大きな部分を占めているのであれば、報酬関数と損失関数、そして進化が学習を助ける損失関数を発見したのであれば、非常に少ない情報で知能を構築できることが実に理にかなっています。なぜなら、報酬関数、Pythonでは報酬関数は文字通り1行だからです。つまり、このようなコードを1000行記述するだけで、それほど多くのスペースを占めることはありません。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です