10億より小さい方がいいと思ってるんですか? まあ、いいでしょう? よく分かりません。面白いことをするには、少なくとも10億個のノブが必要になるはずです。もっと小さい方がいいと思ってるんですか?
10億パラメータの認知コアについて話すことで既に逆張りになっている気がしますが、あなたは私より上回っていますね。もう少し規模を小さくできるかもしれませんね。実際的に言えば、モデルにはある程度の知識が必要だと思います。全てを調べさせるのは避けたいですね。そうすると頭の中で考えられなくなってしまうからです。常にあまりにも多くのことを調べていることになります。知識を得るためにはある程度の基礎的なカリキュラムは必要ですが、難解な知識は必要ありません。
You may also enjoy…
コメントを残す