引用ジャングルは同名のTumblrページからインポートしています
最新の知見を知るサイト
-
-
テストは古典的な実験にも使われ、科学論文で11,000回以上も引用されていることを発見した。LLMが心の理論を習得したふりをするためにカンニングペーパーを暗記したような状況ということだ(とはいえ、もしこれが本当なら、AIが淡々とこうした近道を使って認知機能を得ようとすることのほうが、心の理論を自然と習得することよりも、むしろ不気味に感じられる)。
-
「実際には人間の心のモデルを訓練していたのです。なぜなら、わたしが次に言う言葉を予測するには、心をモデル化しなければならないからです」
しかし、最も洗練されたモデルであるGPT-4でさえ、4分の1は失敗している。GPT-4の成功率は6歳の子どもと同程度のレベルだと論文には書かれている。
「そうした能力によって、人に何かを教えたり影響を与えたり誘導したりすることがより上手になるかもしれません」。
「わたしたち人間は人格をシミュレートしているわけではなく、最初から人格をもっています」。
「だからわたしはある意味、人格に縛られています。しかし、これらのAIは人格をモデル化しており、いつでも好きな人格を使えるという利点があります」。
「ソシオパスは仮面をかぶることができます。本当に悲しんでいなくても、悲しみに暮れている人物を演じることができるのです」。
このカメレオンのような能力は、AIを最高の詐欺師にするかもしれない。それも罪悪感は一切もたない詐欺師だ。
-
裁判官が指摘したのは、原告側が主張しているのは著作権侵害の可能性にすぎず、そこには具体的な根拠が欠けているということだけだった。
マクマホン判事は「何が本当の争点になっているのかを明確にしておきたいと思います。原告が真に賠償を求めているのは、被告が訓練データからCMIを削除したことに対するものではありません。被告がChatGPTを開発するために、金銭を払わずに原告の記事を使ったことに対するものです」と記している。
専門家の中には、今回の判断が大きな影響を及ぼすと考える人もいる。「今回の、当事者適格がないという理論は、AIをめぐる裁判を超えて潜在的に大きな影響をもたらす可能性があります」
「この考え方だと、連邦裁判所に訴えることができる知財関連訴訟の範囲が大幅に制限されるかもしれない」。
この判決のロジックが行き着く先は、出版社はAIモデルの訓練をめぐり著作権侵害違反の裁判をすることができない、という議論かもしれない。
-
車輪付きロボットが乾燥機のなかに手を伸ばして衣類を取り出す。ロボットアームが、コップや皿で散らかったテーブルを片付ける。2本のロボットアームで洗濯物をつかんでから畳む。
そして段ボール箱の組み立てだ。ロボットが段ボール紙の側面をそっと曲げてから、各部を丁寧にはめ込んでいくのだ。
ロボットにとって、衣類を折り畳む行為は特に難しく、物理的な作業をするための総合力がかなり必要とされる。なぜなら衣類には、予測できないほど変形したり、シワになったりする、さまざまな柔らかい素材が使われているからだ。
このアルゴリズムは、例えばTシャツや短パンを揺さぶって平らに広げるなど、驚くほど人間らしい振る舞いができるように設計されている。
とはいえ、いつもアルゴリズムが完璧に機能するわけではなく、ロボットは時々驚くような面白い失敗をすることもある。
あるロボットは、卵を箱の中に入れるように指示されると、箱の中に卵を詰め込み過ぎたまま、箱を無理やりしめようとしてしまった。また別のときには、箱に物を入れる代わりに突然、テーブルから箱を投げ捨てたこともあったという。
-
ウィリアム・ギブソンの言葉を借りれば、「楽園はここにあるが、均等に分配されていない(paradise is here, it’s just not evenly distributed)」のだ。
-
「未証明の数学的定理を証明し始めてもなお、『でもそれは次のトークンを予測しているだけだ』と議論したいのでしょうか」
-
LLMがどのように問題を解決しているのかは現在のところ謎のままであり、段階的な推論を行うとしても、人間の知能とは重要な違いがある可能性があるという。これは、技術がより広く使用されるようになるにつれ、重要になる可能性がある。
「より大きな問題は、計算モデルがどのようにして決定に至っているのかについて、わたしたちは完全に理解し、確信をもつ必要があるのか? ということです」
「推論が解決されたとしても、幻覚と事実性という課題は残ります」
「このパラダイムについてエキサイティングなことのひとつは、知能(AI)をより低コストで提供できるようになると、わたしたちが信じている点です」
-
卓越した言語能力と論理能力を発揮できるが、推論を伴う初歩的な数学の問題など、驚くほど単純な問題には苦戦するのが常だ。
o1は強化学習を使って訓練されているという。強化学習とは、モデルが推論プロセスを改善するために、正解したときには肯定的なフィードバックを与え、そうでないときには否定的なフィードバックを与えるというものだ。
GPT-4oにはできない、次のような数学的パズルだ。
「王女の年齢は、王子が次の年齢になったときと同じです。その年齢とは、王女の年齢が、王子の過去のある時点での年齢の2倍になるときの王子の年齢です。そして、その過去の時点とは、王女の年齢が王子と王女の現在の年齢の合計の半分だったときです。王子と王女の年齢はそれぞれ何歳でしょうか?」(正解は、王子が30歳、王女が40歳)。
「この(新しい)モデルは、従来のLLMのように人間の思考方法を模倣しようとするのではなく、自分で考えることを学んでいるのです」
数学の学生向けテストであるAIME(American Invitational Mathematics Examination)では、GPT-4oは平均12%の問題を解いたのに対し、o1は83%の問題を正解したという。
新モデルはGPT-4oより遅いという。OpenAIによると、GPT-4oと違ってウェブを検索できないこと、マルチモーダルでないこと、つまり画像や音声を解析できないこともあり、必ずしもいい結果を出すとは限らないという。
-
OpenAIは12月3日、ライバルであるGoogle DeepMindからコンピュータービジョンと機械学習の分野で活躍するシニアエンジニア3名を採用したと発表した。
OpenAIのSoraの研究を共同でリードしていたティム・ブルックスは、最近Google DeepMindへ移籍した。
マイクロソフトは3月、AIリーダーのムスタファ・スレイマンをInflection AIから引き抜くとともに、そのほかのほとんどの従業員も採用している。
また、グーグルはCharacter.AIの創設者ノーム・シャジールを取り戻すために27億ドル(約4,000億円)を支払ったと報じられている。