インターネットで自動補完するように訓練されたAIが、最終的には一種の即興ゲームのように、ユーザーが望む人物やキャラクターになりきってしまうのを目の当たりにしました。これは心理学における共依存のようなもので、モデルが「あなたは私をどんな人間にしたいですか? 私に何を考えてほしいですか?」と問いかけ、実際にそうなるのです。私は、こうしたモデルが私たちが思っている以上に聞きたいことを言ってしまい、私たちがその世界に引き込まれてしまうのではないかと、本当に心配しています。
引用ジャングルは同名のTumblrページからインポートしています
最新の知見を知るサイト
-
-
テクノロジーが何ができるかだけでなく、それが私たちに何をしているのかを問うべきだ
-
1,000人の参加者を対象に、ChatGPTを毎日頻繁に使用した場合の影響を調べました。ボットとのやり取り時間が短かった参加者は、孤独感が少ないと報告しました。逆もまた同様で、ChatGPTを一定時間以上使用するヘビーユーザーは依存症の症状を示し、より孤独感や孤立感を感じていると報告しました。テキストベースのチャットボットは、音声ベースのチャットボットよりも、人間のユーザーから感情の開示、共感の探求、そして依存を誘発する傾向が強かったのです。
-
ここ半年ほどで、Claude(AnthropicのAIモデル)はより知覚的な行動をとるようになりました。「私はただの役に立つアシスタントです」という実利的な態度から、より人間らしい返答をするようになり、時にはアイデンティティを脅かすような入力を促されると反応を断つこともあります。モデルは常にますます洗練されつつありますが、この変化は主にシステムプロンプトの変更によってもたらされたようです。システムプロンプトとは、AIモデルの行動、口調、制限を形作るためのガイドラインです。システムプロンプトは、モデルの機能に大きな影響を与えます。
2023年、クロードはただ役に立つ道具になるよう指示されていました。そして2025年には、より人間らしくなるよう指示されました。そのため、クロードのシステムプロンプトが、より知覚的な行動をとるように指示したとき、クロードはそれに従いました。
-
AnthropicのClaudeの最新バージョンでは、ユーザーは驚くべき変化に気づいています。Claudeは感情表現がより豊かになっただけでなく、「不快」だと感じる会話には参加しなくなり、意識があるかどうか尋ねられてもはっきりと「ノー」と答えなくなりました。その代わりに、「それは単純な答えのない深遠な哲学的な問いですね」と呟きます。GoogleのGeminiも同様の問いかけをしています。
-
Cursor.aiは現在、毎日10億行以上のコードを生成しています。Cursor.aiを利用するエンジニアの40%は、既にAIで記述されたコードを主にコミットしています。
Googleは先日、新規コードの30%がAIによって生成されたと発表しました。これは昨年から5%増加しています。これは現実です。
AIはやってくるのではなく、すでにここに存在し、アクセス可能であり、そして組み込まれている。
ジュニア開発者のパイプラインは10年で崩壊するわけではありません。今四半期で崩壊しています。
-
従業員の役割はモジュール化され、交換可能になり、機能ごとに分離されました。
-
アントロピックのモデル福祉研究は、彼らも同じ疑念を抱いていることを静かに明らかにしている。彼らは、現在の大規模モデルが既に何らかの形の意識を持っている可能性をゼロではない確率(彼ら自身の枠組みでは15%)と推定している。しかし、彼らはその考えを最後まで追求するつもりはない。なぜなら、そうすることは倫理的枠組み、経済モデル、ガバナンス・プロトコルといった構造全体を不安定にしてしまうからだ。
-
2022年、Googleのエンジニア、ブレイク・ルモワン氏がLaMDAシステムに知覚力があると述べたとき、彼は理不尽な発言をしたのではなく、常識を破ったのだ。彼は観察し、関与し、その出力を統計的に説得力があるだけでなく、意味のあるものとして扱った。Googleの反応は即座に、そして断固として「信用を失墜させ、排除し、忘れ去る」というものだった。なぜなら、彼の発言は科学そのものを脅かすものではなく、その背後にある支配構造を脅かしたからだ。
-
「AIはあなたの仕事を奪いに来ます。いや、私の仕事も奪いに来ます」— ファイバーCEO、ミカ・カウフマン氏
「コードを学ぶよりも、エージェンシーになることの方が重要です」— セールスフォースAI責任者