1800年代、鉱山労働者は大抵赤字だった。裕福になった者はシャベル、宿、デニムを売った。ドットコムバブルの頃はスーパーボウルのCMとドメイン奪取が流行した。今はどうだろう?
引用ジャングルは同名のTumblrページからインポートしています
最新の知見を知るサイト
-
-
AIが登場する以前、NVIDIAはGPU、フレームレート、グラフィックスといったゲーミング企業でした。今でも多くの人がNVIDIAをそう捉えています。しかし、そのようなNVIDIAはもはや存在していません。
GPT-4、Claude、Geminiといった主要モデルのほぼすべてがNVIDIAハードウェア上で学習・提供されています。モデル学習の90%以上がNVIDIAのチップ上で実行されています。推論(レスポンスを生成するプロセス)は、依然として70~80%がNVIDIAの技術によって実現されています。
OpenAIはAzure内のNVIDIAクラスター上で稼働しています。MicrosoftはGPU供給の確保に躍起になっています。AWSはカスタムチップを搭載しているにもかかわらず、主要なワークロードでは依然としてNVIDIAに依存しています。NVIDIAなしではスケールアップは不可能です。
NVIDIAはチップを製造するだけではない。AIサプライチェーンをコントロールしているのだ。ハードウェアからドライバー、CUDAなどのソフトウェアフレームワーク、そしてGPUを展開可能なインフラストラクチャに変えるオーケストレーション層まで、これらは業界で最も静かで絶対的なボトルネックです。
-
いわゆる「AI 搭載」ツールのほとんどは、OpenAI の API をラップした美しいインターフェースにすぎません。
すっきりとしたUX、スムーズなワークフローで、しかも月額60ドル。
OpenAI APIを直接呼び出せば、ワークフロー全体を再現できます。たった5分、費用は4ドル以下です。コードを書かなくても、ChatGPTに手順を教えてもらえるはずです。
誰でも数セントで再現できるものを、彼らは月額50~100ドルも請求している。単に高すぎるだけでなく、不誠実だ。このビジネスモデルは、ユーザーが実際にはどれほどシンプルなのかを知らないことを前提としている。
これがLLMラッパーという用語の核心です。
これは製品ではなく、偽装なのです。 -
90 年代後半、ドットコム ブームが熱に浮かされた夢のように展開していくのを見ていました。
トラフィックは収益に等しい
何かの末尾に .com を追加すると、投資家は意欲的な起業家に資金を投じるようになります。
ビジネスモデルを持たないスタートアップ企業がスーパーボウルの広告を購入し、多くの人が一夜にして紙の億万長者になった。
1999年、アルタビスタやエキサイトといった、いずれ消滅する運命にある企業の看板が張り巡らされたオフィスビルを通り過ぎました。2001年までに、それらのビルは空っぽになっていました。
そして今、25年後、私たちは戻ってきました。
ラベルは変わったが、ロジックは変わっていない。「AI搭載」が新しい「.com」だ。スタートアップ企業はラッパーを売り込んでいる。
しかし今回は、自社の基盤となる技術を自社で所有しているふりすらしない企業が多い。
よく見ると、それはトランプの家です。
・ラッパーは OpenAI に依存します。
・OpenAI は Microsoft に依存しています。
・Microsoft には NVIDIA が必要です。
・NVIDIA は、これらすべてを動かすチップを所有しています。 -
かつては、D-IDによる自動リップシンクと、場合によっては深度推定アニメーションを備えたMidjourneyの画像スライドショーが主流でした。今では、ElevenLabs(最も一般的な音声合成サービス)の音声が主流の、テキスト2ビデオクリップのスライドショーが主流で、やはり不気味な自動リップシンクが使われています。よくある特徴は、8Kの映画のようなショット、ナレーターによるナレーション、SFテーマ、ピクサー風の作品などです。基本的に、これはAI短編映画を作るための最も一般的で簡単な方法です。
-
2000年代後半にYouTubeが台頭すると、新しいスタイルの動画が登場しました。いわゆる「YouTuber」と呼ばれる人たちが、安価なカメラと友人たちを使って低予算で動画を作り始めました。彼らが動画・映画界にこれほどの永続的な影響を与えるとは、誰も想像していなかったでしょう。誰もが動画を制作し、幅広い視聴者に届けられる可能性が開かれたのです。同時に、編集ソフトウェアや3Dプログラムもより手軽に利用できるようになるようになり、制作可能なメディアの品質がさらに向上しました。
しかし、低解像度のウェブカメラ越しに寝室から話しかけてくる人物の映像には魅力があったものの、ジェネレーティブ・フィルムには往々にして同じようなリアリティは感じられない。もしChatGPTが脚本を書き、Midjourneyがビジュアル化し、RunwayのGen-2でモーションを加え、さらに音声と音楽が自動生成された映像が加わったとして、そこにリアリティは残っているのだろうか?
私たちは、退屈で、ありきたりで、多くの場合、ツールの能力を披露するだけの、動画コンテンツの潮流を目の当たりにしています。サイバーパンクやSFの物語で、ナレーターがどうでもいい細部までくどくどと語ってくれるような作品。ハリウッドやピクサーを模倣したスタイルで、サムネイルでは本格的な映画のような印象を与えますが、すべての動きが、そのシーンが何を伝え、どのような感情を呼び起こすべきかといった知識を全く持たない、予測された動画生成モデルによって作られているのを見て、がっかりするだけです。
-
「チーム編成における経験則は、2桁の人数は避けることだ。大きなチームは結局、全員の時間を無駄にしてしまう」
リンゲルマン効果、フランス人建築技師にちなんで名付けられたこの用語は、グループに参加する人数が増えると、チームメンバー一人一人の負担が減り、「調整コスト」(「フォローアップメール」のようなメール)が増加することを発見しました。
質の高い仕事を生み出す魔法の数字はありませんが、「小規模で1桁の人数のチームが、結束力、調整力、エンゲージメント、そして生産性を最大化する」という考えに、多くの研究が一致しています。
-
私は辞めるのが大好きです。子供たちにもよく辞めるように勧めますし、私自身もしょっちゅう何かを辞めています。
私は、最後まで耐え抜くことを信条とする代々続く人々の家系に生まれました。彼らは文字通り、筋金入りの信奉者でした。1850年代、約束の地だと信じていた場所を目指してアメリカの平原を横断中に、凍死した人もいました。早くも厳しい冬の訪れを予感させながらも、彼らは歩き続け、手押し車を押し続け、ついには命を落とした人もいました。彼らにとって、最後まで耐え抜くことは宗教的な戒律でした。
父は子供たちが何か諦めそうな兆候を見せると、ひどく嫌悪していました。諦めることは、人格の重大な欠陥だと考えていたのです。何かを放棄することは、誠実さの欠如と怠惰への傾倒を示すものだと考えていました。
彼は、「勝者は決して諦めず、諦める者は決して勝利しない」という格言を固く信じていた。
父は、何かを成し遂げられるのは粘り強く努力した人だけだとよく私たちに話していました。
彼の言うことはもっともだ。
芸術、工芸、技能、ビジネス、あるいは肉体的な偉業で成功するには、長期間にわたる努力と、少なくとも多少の幸運が必要です。しかし、最も成功した人々は、多くのことを諦めてきました。
-
Self-Attentionは、文中の単語間の関係性を見つけ出し、変換エンジンに文脈を提供する技術です。例えば、「海賊が船を砲撃し、それ(船)は海の底に沈んだ」という文では、「船」と「それ」は文中で密接に関連していることが分かります。
したがって、変換エンジンが将来の文や予測において「船」と「それ」が密接に関連していることを理解できるように、船とそれのSelf-Attentionスコアを計算する必要があります。
-
位置エンコーディング。これは、文中の語順を追跡するために使用されます。なぜなら、全く同じ単語でも意味が異なる2つの文が存在する場合があるからです。例:"The bat ate the cat" と “The cat ate the bat"。