引用ジャングルは同名のTumblrページからインポートしています

最新の知見を知るサイト

  • YouTube 動画はなぜバイラルになるのでしょうか?

    皆さんが気にする必要がある 3 つの指標は、クリック スルー レート (CTR)、平均視聴時間 (AVD)、平均視聴率 (AVP) です。ほとんどの人がその略語を参照するため、これらの略語を必ず知ってください。まず最初に、CTR について説明します。これは、どの部門で働いているかに関係なく重要です。CTR は基本的に、フィード内でサムネイルを見た人の数を、サムネイルをクリックした人の数で割ったものです。 1 億人がサムネイルを見て、10,000,000 人がクリックした場合、10% がクリックされ、10% のクリック率があることを意味します。これが私たちがビデオに対して何を行うかを決定するものです。 「前庭で50時間過ごしました」なんて言葉はダサいのでクリックしないでしょう。しかし、仮に「ケチャップで 50 時間を費やしました」をクリックするとします。どちらも時間と労力の点では比較的似ていますが、ケチャップの方が簡単に 100 倍ウイルス性が高くなります。バスタブにケチャップをつけて座っている人の画像は、家の前庭に座っている人よりも飛躍的に興味深いものです。クリックしてもらうためには、タイトルも同様に重要です。 CTR をさらに高める簡単な方法は、タイトルを「過ごした」ではなく「生き残った」にすることです。そうすれば、より陰謀が加わり、より過激な感じになるでしょう。一般に、極端であればあるほど良いです。

  • YouTube 動画はなぜバイラルになるのでしょうか?

    私は人生の基本的に 5 年間、部屋に閉じこもって YouTube のバイラル性を研究してきました。日によっては、私や他のオタクは、最も些細なことを 20 時間続けて研究することもありました。たとえば、ビデオの開始時の照明を改善することと、視聴者の離脱を減らすことの間に相関関係があるかどうかなどです (ビデオの開始時に適切な照明を使用することは相関関係があります)。笑)とか、その他の小さなこと。おそらく 20,000 ~ 30,000 時間の勉強の結果、Youtube 動画の良さをよく理解できたと思います。

  • MrBeast 制作で成功する方法

    これはハリウッドではありませんし、私はハリウッドになりたくありません。YouTube は誰もが想像していたよりも大きくなり、私はこのチャンネルがトップに立つことを望んでいます。だからこそ私は、我々はハリウッドではないと言うのです。映画やテレビ番組の 99% は YouTube では失敗します。その上、採算が非常に悪く、柔軟性がなく、トレンドに適応できないためリードタイムが長くなります。私たちは年に1、2回小さな映画を作るためにここにいるわけではありません。週に1本は作りたいです(笑)。だからこそ、これまで教えられた方法ではなく、私たちの方法で機敏にコンテンツを制作する必要があります。

  • Mr Beast の全体的な目標は、次のとおりです。

    ここでのあなたの目標は、可能な限り最高の YOUTUBE ビデオを作成することです。それがこの制作会社の第一の目標です。最高の制作ビデオを作成するのではありません。最も面白いビデオを作成するのではありません。最も見栄えの良いビデオを作成するのではありません。最高品質のビデオを作成するのではありません。可能な限り最高の YOUTUBE ビデオを作成することです。

  • 26歳になると、なぜそれを求めるのかを考える時間をかけずに、欲しいものを追求することに多くの時間を費やすのが普通です… お金、名声、権力など、何を求めているのかを知らずにそれを求めるのは危険なことです。たとえ運良く山の頂上にたどり着いたとしても、そこは酸素がほとんどない孤独な場所であることに気づくでしょう… 若いときは、自分が何を望んでいるのか、なぜそれを望んでいるのかを考え、その理由を本当に問いただすのは難しいことです。しかし、それはまた重要です。それをせずに長く過ごすと、どんなに成功しても人生はより困難になります。

  • JPモルガンのCEOジェイミー・ダイモン氏も、最近学生にアドバイスをするインタビューでこう言った。

    「皆さん、TikTokやFacebookはやめてください。まったく時間の無駄です。学生へのアドバイスは、学び、学び、学び、学び、学び、学び…歴史の本を読みましょう。作り話はできません。ネルソン・マンデラ、エイブラハム・リンカーン、サム・ウォルトン。本を読んだり、他の人と話したりしてしか学べません。他に方法はありません」

  • 人間の労働者は、仕事の効率を高める知識を蓄積するために何十年も費やします。問題を解決するには、数か月または数年前に行った会話や読んだ研究論文の事実を思い出す必要がある場合もあります。重要な情報が不足していて、それを得るために何を読んだり、誰と話したりすればよいかを考えなければならない場合もあります。

    OpenAI がこの種の問題を解決できる段階に近づいているとは思えません。

    理由の 1 つは、公開されている最高の LLM のコンテキスト ウィンドウが200 万トークン以下であることです。これは、私たちが一生のうちに遭遇する情報よりもはるかに少ない量です。

  • GPT-4o と o1 モデルの両方を困惑させた数少ないプロンプトの 1 つを次に示します。

    ある都市には、西の 1 番街から東の 7 番街まで、南北に伸びる 7 本の通りがあります。また、北の A 通りから南の G 通りまで、東西に伸びる 7 本の通りがあります。

    3 番街は F 街の北側で閉鎖されているため、A、B、C、D、または E 街で 3 番街を横断する車は許可されません。E 街は 3 番街と 6 番街の間で閉鎖されており、4 番街または 5 番街で E 街を横断する車は許可されません。

    2 番街と B ストリートから 4 番街と B ストリートまでの最短ルートは何ですか?(上の図)

    o1 が推奨するルートは次のとおりです。

    (下の図)

    それは正しくありません。そして、GPT-4o は同じ無効なルートを推奨します。

    (OpenAIが驚異的な能力を持つエイリアンを解き放ったから)

  • 次の推論問題を作成しました。

    5 つのテーブルと各テーブルに 3 人のゲストを配置した結婚披露宴を計画しています。

    アリスはベサニー、エレン、キミーと一緒に座りたくない。

    ベサニーはマーガレットと一緒に座りたくない。

    チャックはナンシーと一緒に座りたくない。

    フィオナはヘンリーやチャックと一緒に座りたくない。

    ジェイソンはベサニーやドナルドと一緒に座りたくない。

    グラントはイングリッド、ナンシー、オリビアと一緒に座りたくない。

    ヘンリーはオリビア、ルイーズ、マーガレットと一緒に座りたくない。

    ルイーズはマーガレットやオリビアと一緒に座りたくない。

    これらすべての好みが尊重されるようにゲストをどのように手配すればよいでしょうか?

    これを効率的に解決するアルゴリズムは知られていません。試行錯誤でしか解決できません。

    GPT-4o にこれを解くように指示したところ、モデルは次のように人々をテーブルに割り当て始めました。

    表1:アリス、チャック、ジェイソン

    表2 : ベサニー、エレン、キミー

    表3 : フィオナ、イングリッド、ドナルド

    しかし、この時点ではテーブルが 2 つしか残っておらず、GPT-4o がまだ ルイーズ、マーガレット、ヘンリーを着席させていないため、誰も一緒に座りたくなかったため、行き詰まっていました。

    GPT-4o は要件を満たしていない最後の 2 つのテーブルの割り当てを吐き出し、その日は終了しました。

    対照的に、o1 は 35 秒間考えた後、次の正しい解決策を生成しました。

    表1: アリス、ドナルド、フィオナ

    表2: グラント、ベサニー、キミー

    表3: ヘンリー、チャック、エレン

    表4: ジェイソン、マーガレット、オリビア

    表5: ルイーズ、イングリッド、ナンシー

    o1 は、機能する組み合わせが見つかるまでさまざまな組み合わせを試しました。

  • 模倣学習と強化学習の違いを理解する必要があります。

    トレーニング例が「2+2=4」とした場合、模倣学習アルゴリズムは「2 足す 2 は 4」と「2+2=5」を同様に誤りとして扱います。トレーニング例のスタイルとフォーマットを再現するようにモデルをトレーニングするのに多くの時間を費やしますが、最終的に正しい答えを得るための努力は比較的少なくなります。

    強化学習は異なるアプローチを採用しています。強化学習では、トレーニング データ内のすべてのトークンを完璧に再現しようとするのではなく、最終的に正しい答えに到達したかどうかに基づいて応答を評価します。

    強化学習がそれほど優れているのなら、なぜ誰もが使用しないのでしょうか。その理由の 1 つは、強化学習がスパース報酬と呼ばれる問題に悩まされる可能性があることです。LLM が 100 トークンの回答のうち 5 トークンしか生成していない場合、強化学習アルゴリズムは正しい回答に向かっているかどうかを知る方法がない可能性があります。そのため、強化学習のみでトレーニングされたモデルは、肯定的なフィードバックを受け取れるほど十分に良くならない可能性があります。

    欠点はありますが、模倣学習は少なくともすべてのトークンに対してフィードバックを与えることができます。そのため、初期のモデルがまともな文章を生成することさえできないトレーニングの初期段階には、模倣学習が適しています。モデルがときどき適切な回答を生成できるようになったら、強化学習によってモデルをより迅速に改善することができます。