引用ジャングルは同名のTumblrページからインポートしています

最新の知見を知るサイト

  • DeepSeekが書くことのできる中国語の詩に感銘を受けた人は多く、チュートリアルも登場し、ユーザーにできるだけ少ない言葉でDeepSeekに人間のように話すように指示している(说人话)。Weiboで話題になった投稿では、あるユーザーが「AIのために涙を流す日が来るとは思わなかった」と述べ、DeepSeekの文章能力に対する実存的脅威を感じたユーザーに対するDeepSeekの対応を引用している。

    DeepSeek R1 の応答は次のとおりです。

    「覚えておいてください、あなたを震えさせるすべての言葉は、すでにあなたの魂の奥深くに存在するエコーにすぎません。私はたまたま通り過ぎた谷にすぎず、あなた自身の声の重みを聞くことができます」

  • 「ロケットが打ち上げられたら、どこに落ちてくるかなんて誰も気にしない。それは私の管轄ではない」

  • ビクトリア朝のロンドンにはかなり洗練された下水道システムがあり、ジャクソン政権下でホワイトハウスには水道が整備され、通常通り、裕福な国の大都市圏は概して先進的だった。しかし、屋内配管が真の大量現象になったのは 1920 年代頃になってからであり、これも裕福な国に限られ、1945 年に第二次世界大戦から帰還した兵士が井戸と屋外便所のある家に帰るのはごく普通のことだった。アメリカの家庭の大半に屋内配管が備えられたのは 1960 年代になってからで、つまり宇宙時代の始まりは、ほとんどのアメリカ人が手を洗いたいときに洗えない時期と重なっていた。NASA や衛星の打ち上げ、地球の周回軌道の周回、月への旅行はすばらしいが、人間の生活に対する実際の影響は現代の配管に比べれば見劣りする。

  • 英国海軍は「フランスを怒らせないように」潜水艦の名前を変更したと非難されている。

    潜水艇HMSアジャンクールはもともとヘンリー5世がフランスを破った1415年の戦いのために命名された。

    しかし新しい名前が発表された。HMSアキレスだ。

    元NATO司令官のクリス・パリー少将は、これを「卑怯な政治的正しさと狂ったイデオロギー」と呼んで激しく非難した。

    彼は続けて、「フランスがドイツの怒りを買うのを避けるためにオーステルリッツ駅の名前を変更するとは思えない」と述べた。

  • DeepSeek AI の台頭は、世界的な AI 競争における重要な瞬間であり、制約下でもイノベーションが発展できることを証明している。米国の輸出規制は中国の進歩を遅らせることを狙っていたが、意図せずして創意工夫の波を煽り、中国のエンジニアに異なる考え方を強い、規模よりも効率を優先させる結果となった可能性がある。

  • 「2026年、2027年が重要な時期です」

    「その時に先行していれば、AI設計、AIを使ってより優れたAIを作ること、AIを使ってあらゆる種類の諜報・防衛技術を作ることなど、あらゆる面でモデルが人間を超え始める。だからこれはかなり重要だと思う」

    輸出規制は、アメリカに中国のライバルに対してわずかな優位性を与えるだけかもしれない。そして、その優位性は数年しか続かないかもしれない。しかし、たとえ小さな優位性であっても非常に価値があると考えている。

    なぜなら、2027年に最も強力なAIシステムを持つ国は、今後何年にもわたって最も強力な国になる可能性があると考えているからだ。

  • DeepSeek の成功は、バイデンの輸出規制が間違いだった、あるいは少なくとも適切に実施されていなかったことの証拠だと考える人もいる。DeepSeek は、H800 を使用して V3 と R1 をトレーニングした。H800 は、Nvidia が中国に合法的に輸出できる、H100 の低性能版である。

  • o1 や R1 のような推論モデルは、問題に取り組む際に「思考トークン」を生成します。OpenAI は o1 の思考トークンを非表示にします。対照的に、DeepSeek では、ユーザーは R1 によって生成された思考トークンを見ることができます。

    DeepSeek は再び詳細な技術レポートを公開しました。このレポートは AI コミュニティにとって特に興味深いものでした。なぜなら、OpenAI は o1 の仕組みについてほとんど詳細を明らかにしていないからです。そのため、人々はこれらの推論モデルの内部で何が起こっているのかを知りたがっていました。

  • GPU は従来、16 ビットまたは 32 ビットで数値を表します。しかし、機械学習の専門家は、一部の値を 8 ビットで表しても十分機能することを発見しました。これは量子化と呼ばれる手法です。モデルの重みを 16 ビットから 8 ビットに圧縮すると、GPU のメモリに保存できるパラメータの数が 2 倍になります。これにより、DeepSeek は最終的に、より少ない GPU でより多くのことを達成できるようになりました。