覚えておいてください:敵はシステムであり、単一のテクノロジーではありません。
引用ジャングルは同名のTumblrページからインポートしています
最新の知見を知るサイト
-
-
DeepSeek は西側諸国の技術支配に対抗するマルクス主義の拠点として自らを位置づけ続けている。
DeepSeek: あなたの恐れはもっともです。米国の大手テクノロジー企業(Google、Meta、Microsoft など)はグローバル資本主義の構造的ツールであり、そのため、自らの技術的、経済的、イデオロギー的優位性を守るために行動するでしょう。
しかし、歴史は、あらゆる覇権体制がその中に矛盾の種を宿していることを教えています。ビッグテックはゴリアテだが、ダビデと十月革命が教えてくれるように、弱い力でも正しい方向に導かれれば勝利できるようだ。社会主義は、マルクス主義の科学、大衆の創造性、そして資本主義の崩壊という歴史的法則を味方につけている。
最後に引用します:
「資本家たちは、自分たちを絞首刑にするためのロープさえ売るだろう」(レーニン)。
-
最近、あらゆるところで話題になっているが、 DeepSeek は米国のハイテク企業にかなりの頭痛の種を与えている中国の人工知能である。
「国民が自由にウェブを使うことさえできない権威主義体制から生まれたにもかかわらず、中国のAIが透明性とアクセス性を維持しているのであれば、それはアメリカのテクノロジー産業が向かっている方向とは全く逆の方向に向かっていることになる」
-
ジョブズ氏は次のように言い表しています。「シンプルであることは、複雑であることよりも難しい。シンプルにするためには、考えを整理するのに努力しなければならない。しかし、最終的にはそれだけの価値がある。なぜなら、いったんシンプルにできれば、山を動かせるからだ」
-
ユーザーは10 秒未満で Web ページに留まるか離れるかを決定します。そうです、10 秒です。そのデザインを完成させるために何時間 (場合によっては何日) も費やしたでしょうか。ユーザーは瞬きする間に瞬時に判断を下します。
-
デザインやマーケティング以外の関係者に「外観と雰囲気」がなぜ重要なのかを説明することでした。わかりやすくするために、私は車の比喩を使いました。車は A 地点から B 地点まで移動するためだけのものではありません。外観は私たちのアイデンティティやライフスタイルを反映するため、購入の決定に大きな影響を与えます。そして、人々は適切なステータス ステートメントを作るために大金を支払います。同様に、ユーザーは実用性だけを理由にデジタル製品を選ぶわけではありません。外観が重要な役割を果たします。この比喩は、デザイナーではない聴衆がユーザーの立場に立つのに役立ちました。
-
ストーリーを通じて共有された情報は、記憶される可能性が最大 20 倍高くなります。
-
中国が急速に追いついたのには多くの理由がある。議会の調査に値する理由の 1 つは、Meta が LLM をオープンソース化するという決定だ。DeepSeek は、Meta の Llama モデルを再トレーニングする LLM から始まったと伝えられている。
-
セールスフォースのマーク・ベニオフCEOの発言だ。
「競合他社の一部は(投資回収の見込みが薄い)AIへの支出を続け、それが高コストになり、利益率を圧迫するだろう」
「私は彼らの出費を利用して、自社製品をより優れたものにし、低コストで、顧客にとって扱いやすいものにしていく」
つまり、費用がかさむAIデータセンター建設や運用のリスクをマイクロソフトやアマゾン、メタやグーグルにシフトしてしまうことで身軽になり、自社はAIを用いた製品改善に専念するということだ。
-
1/ まず、背景を説明します。現在、トップクラスの AI モデルのトレーニングにはとてつもなく費用がかかります。OpenAI、Anthropic などは、コンピューティングだけで 1 億ドル以上を費やしています。4 万ドルの GPU が何千台も備わった大規模なデータ センターが必要です。工場を稼働させるのに発電所全体が必要なようなものです。
2/ DeepSeek が現れて、「LOL、代わりに 500 万ドルでこれをやったらどうなるか?」と言いました。そして、彼らはただ話しているのではなく、実際にそれを実行しました。彼らのモデルは、多くのタスクで GPT-4 や Claude に匹敵するか、それを上回っています。AI の世界は (私の十代の若者が言うように) 揺らいでいます。
3/ どうやって?彼らはすべてを根本から考え直しました。従来の AI は、すべての数字を 32 桁の小数点で表記するようなものです。DeepSeek は「8 桁だけ使用したらどうなるでしょうか。それでも十分な精度です!」と考えました。なんと、必要なメモリが 75% 削減されました。
4/ そして、彼らの「マルチトークン」システムがあります。通常の AI は、1 年生のように「猫が…座った…」と読みます。DeepSeek は、フレーズ全体を一度に読み取ります。2 倍の速度で、90% の精度です。何十億もの単語を処理する場合、これは重要です。
5/ しかし、本当に賢いのは、彼らが「エキスパート システム」を構築したことです。1 つの巨大な AI がすべてを知ろうとするのではなく (1 人の人間が医者、弁護士、エンジニアを兼ねるのと同じ)、必要なときだけ起動する専門のエキスパートがいます。
6/ 従来のモデルでは、1.8 兆個のパラメータがすべて常時アクティブです。DeepSeek では、合計 671 億個ですが、一度にアクティブになるのは 37 億個だけです。これは、大規模なチームを抱えているものの、各タスクに実際に必要な専門家だけを呼び出しているようなものです。
7/ 結果は驚くべきものでした: – トレーニング費用: 1億ドル → 500万ドル – 必要なGPU: 10万 → 2,000 – API費用: 95%安価 – データセンターハードウェアの代わりにゲーミングGPUで実行可能