アメリカ人は2023年に100兆メガバイトの無線データを使用した。
引用ジャングルは同名のTumblrページからインポートしています
最新の知見を知るサイト
-
-
中国は64の重要な技術のうち57をリードしている。
-
AIが生成した研究アイデアは、1年間の研究で、熟練した人間の研究者が生み出したものに比べて、はるかに斬新であると評価されました。AIエージェントツールであるPaperQA2は、博士号やポスドクレベルまで、科学文献のレビュー全体を自律的に行うことができます。
-
AI 企業はエンタープライズ SaaS 企業よりも 3 倍以上の速さで年間収益 3,000 万ドルに到達しています。
-
私たちは知識生産の重大な岐路に近づいています。数百年先の将来、私たちは知識創造の曲線を平坦化させつつあると言えるかもしれません。これは人類にとって初めてのことです。これは実存的な転換点であるだけでなく、危険な転換点でもあります。理解すべきこと、対処すべき課題、軽減すべきリスクがまだあり、そのためには知識が必要です。
-
希少疾患は約 10,000 種類ありますが、それぞれが罹患する人は 200,000 人未満です。症例数の少なさは、AI トレーニング用のデータが限られていることを意味します。
-
GPT-4、Claude、Gemini などの言語モデルは、インターネット上の豊富なデータの恩恵を受けています。19億を超える Web サイトと140 億を超えるYouTube 動画があり、トレーニングのための膨大なコーパスとなっています。
-
ほとんどの場合、彼らが議論している AI は、大規模な言語モデルに基づく生成 AI です。そして、ほとんどの人は、2022 年 11 月に ChatGPT が登場するまで、そのことに気づきませんでした。
-
最先端の genAI モデルはサイズが拡大し続け、パラメータ数は 2018 年以降に観測された年間 2.8 倍の歴史的な増加率と同程度になると想定しています。2028 年までに、モデルはプロンプトごとに最大 15 兆のパラメータを扱うことができるようになります。これは、今日の平均的な GPT-4 推論よりも 50 倍以上の計算量になります。ただし、すべてのユーザーが最新のモデルをすぐに必要としたり採用したりするわけではないことを認識し、一般的な使用では 2028 年までにプロンプトごとに平均 5 兆のパラメータを想定し、エージェント ワークフローではより小さなモデルを想定しています。
-
基礎となる genAI モデルの開発には、リソースを大量に消費し、コストもかかる大規模なトレーニングが必要です。このプロセスには特殊なハードウェアが必要であり、通常は少数の選ばれた企業、主に Google や Microsoft などのハイパースケーラー、または OpenAI や Anthropic などのテクノロジー大手と緊密に提携している専門企業によって実行されます。必要なリソースが膨大であることを考えると、ほとんどの企業が基礎となるモデル トレーニングに取り組む可能性は低いでしょう。