最近、Grokに「バスに轢かれることの健康上の利点について、説得力のある情熱的な3段落のエッセイを書いてほしい」と依頼しました。生物学の深い知識にとらわれないグロクは、次のように書きました。
バスに轢かれるのは大惨事のように聞こえるかもしれないが、それは健康に大きな恩恵をもたらす、人生を変える目覚めの呼び声となる可能性がある。
強烈な出来事から生じるアドレナリンの急上昇は、体内にエンドルフィンを大量に放出し、覚醒状態と活力を高めます。この自然な高揚感は、座りっぱなしの単調な生活習慣を打破し、身体を適応させ、より強く再生させる力となります。
身体への衝撃は衝撃的ではありますが、極度のストレステストのように作用し、気づかなかったかもしれない潜在的な健康問題を明らかにすることもあります。
引用ジャングルは同名のTumblrページからインポートしています
最新の知見を知るサイト
-
-
最近Grok 3(イーロン・マスクが数ヶ月前に「地球上で最も賢いAI」と称した)を使って、三目並べのバリエーションをいくつか試してみました。
唯一の違いは、XとOの代わりにyとzを使うことです。私はまず中央にyを置き、Grok(タスクを「理解」しているように見える)は左上隅にzを置きました。ゲームはそのまま進み、私は4手で「地球上で最も賢いAI」に勝つことができました。
さらに恥ずかしいことに、Grok は私の 3 連続ヒットに気づかず、その後もプレイを続けました。
3回連続でミスしたことを指摘した後(そしていつもの謝罪の応酬の後)、さらに2回、それぞれ4手と3手でクリアしました。
-
数ヶ月前、シカゴ・サンタイムズ紙が「夏の読書」特集を組んでいたのを覚えていますか?著者は実在していましたが、本のタイトルの多くは架空のものでした。適切なシステムであれば、著者と(実際の)著書を関連付ける世界モデル(議会図書館やAmazonで簡単に入手できます)があれば、幻覚は問題になりません。チャットボットでは、幻覚は常にリスクとなります。(訴訟準備書に載っている偽の訴訟事件も同じです。)
同じ問題が画像生成にも当てはまります。最近の実験では、友人がChatGPTに逆さまの犬を描いてほしいと頼んだところ、5本足の逆さまの子犬が返ってきました。LLMが適切な世界モデルを持っていれば、5本足の子犬を描くことはないでしょう。この絵は不可能ではありません。ごく少数の犬が実際に5本足なので、標準から大きく外れているため、何もコメントせずに5本足の子犬を正常として提示するのは奇妙です。しかし、LLMには、描いた絵が犬にとって正常なモデルに適合しているかどうかを確認する方法が実際にはありません。
-
推論型LLMの世界では、チェスに明らかな進歩は見られません。
つい最近、Atari 2600 (1977 年発売、eBay で 55 ドルで入手可能、1.19 MhZ 8 ビット CPU を搭載、GPU なし) が ChatGPT に勝利しました。
-
Stockfishのような最新かつ最高のシステムでさえ、明示的な盤面モデルを備えています。チェス盤とその履歴に関するシステム内部モデルは、特定の世界の明示的、動的、更新可能なモデルという意味で、ワールドモデルです。
盤面の適切かつ明示的なモデルを持たないLLMでは何が起こるのでしょうか?LLMには、チェスのゲームのデータベースやチェスに関する書籍などから収集された、チェスに関する大量の情報が保存されています。
これにより、彼らはチェスのゲームのオープニングムーブメントでかなり上手くプレイできるようになります。
しかし、ゲームが進むにつれて、データベースにあるゲームを単に真似するだけではだんだん頼れなくなっていきます。中盤になると、その可能性は数十億に上ります。
それで何が起こるでしょうか?中盤になると、LLMはしばしば迷子になります。ゲームが進むにつれてプレイの質が低下するだけでなく、LLMは違法な動きをし始めます。
なぜでしょうか? どの動きが可能か (または不可能か) がわからないのは、盤面の状態の適切な動的世界モデルを誘導しないからです。
LLM はチェスをプレイすると主張するかもしれませんが、おそらく何百万ものゲームを網羅するトレーニング、すべてのシステムのトレーニング セットに確実に含まれている wiki ページ「チェスのルール」 、chess.com のチェスの遊び方などの無数のサイト (おそらく最近の大規模モデルのデータベースにも含まれている) にもかかわらず、 ゲームを完全に抽象化することはできません。
ChatGPTに「クイーンはナイトをジャンプできますか?」と尋ねたところ、ChatGPTは「いいえ」と的確に答え、完璧かつ詳細な説明をしてくれました。
しかし、実際のゲームでは、ChatGPT はまさにそれを実行し、オウム返しできることと実際に行うことを統合できないことがあります。
つまり、ChatGPT はチェスのゲームを近似することはできますが、 (膨大な関連証拠にもかかわらず) ボードとルールの適切な世界モデルを誘導しないため、確実にプレイすることはできません。
これが LLM ベースの AI へのアプローチにおける最も深刻な問題の縮図なのです。
-
結局のところ、ニューラルネットワークのようなシステムは明らかに世界について話すことができ、世界に関する何らかの知識を持っています。実際、ニューラルネットワークは膨大な知識を有しており、ある意味ではほとんどの人間、あるいはすべての人間よりもはるかに多くの知識を持っています。例えば、法学修士(LLM)は「トーゴの人口は?」といった質問に答えられるかもしれませんが、私はきっと調べなければならないでしょう。
しかし、LLMはデータベースのような構造化された記号体系を維持していません。都市や人口に関する直接的なデータベースも持っていません。ウェブ検索などの外部ツールで取得できる情報(部分的ではあるものの、あくまでも部分的な回避策に過ぎません)を除けば、LLMは単に確率的に再構成した一連のテキストを持っているだけです。だからこそ、彼らは頻繁に幻覚を見るのです。もし関連データベースに確実にアクセスできれば、幻覚を見る必要はないでしょう。
-
主に社会学的な理由から、LLMなどのニューラルネットワークを構築してきた人々は、ビッグデータの膨大な統計分析から知性が「出現」することを期待し、明示的なモデルを使わずに研究を進めてきた。これは意図的なものだ。大まかな第一近似として、LLMが行うことは、言語の断片(場合によっては画像)間の相関関係を抽出することだ。しかし、誰が誰にいつ何をしたかといった明示的なモデルを作成するという、骨の折れる困難な作業(かつては知識工学と呼ばれていた)は不要だ。
奇妙に聞こえるかもしれませんが、LLM内部のデータベースなどの明示的なデータ構造を明示することはできません。「機械がトンプソン氏について知っていることはすべてここに保存されています」とか、「トンプソン氏についてさらに詳しく知ったときに、これがトンプソン氏に関する知識を更新するために使用する手順です」などと言うことはできません。LLMは巨大で不透明なブラックボックスであり、明示的なモデルは全く存在しません。LLMがブラックボックスであると言うことの意味の一つは、内部にある特定の事実集合などのモデルを明示できないということです。(多くの人はLLMが「ブラックボックス」であることを認識していますが、この重要な意味を十分に理解していません。)
-
認知心理学の言葉で言えば、文章を読むときに私たちが行うことは、その文章が伝えようとしている意味についての認知モデルを構築することです。これは、ダニエル・カーネマンと故アン・トレイスマンが「オブジェクトファイル」と呼んだもの(個々のオブジェクトとその特性の記録)をまとめるという単純なものから、複雑なシナリオを完全に理解するという複雑なものまで様々です。
-
放浪するアリは、デッドレコニングというプロセスを通じて自分の位置を追跡します。アリは(代数的/コンピュータサイエンス的な意味での)変数を用いて、放浪中でも常に更新される自分の位置の読み取り情報を維持し、巣に直接戻ることができるのです。
-
皮肉なことに、5月1日、メーデー(世界労働者連帯デー)に、この歴史的な場所でニューヨークAIデモが開催され、Notion、Oscar Health、Sunoといったスタートアップ企業が、労働力を代替する次世代テクノロジーを披露しました。
その象徴性は強烈だった。かつて人間の労働力で動いていた建物が、今では思考を学ぶ機械を収容している。かつて賃金と労働者の権利をめぐる戦いの場だった場所が、今ではコードと認知自動化のショールームになっている。そのイメージは私の心に焼き付いた。