引用ジャングルは同名のTumblrページからインポートしています

最新の知見を知るサイト

  • 強い人間関係は、ほとんどの場合、対面でのやりとりを通じて構築されます。AI システムは、飲みに行くなどの人間関係構築の儀式に有意義に参加することはできません。それは、単に物理的な身体がないからというだけではありません。

    人間は一度に 1 つの場所にしかいられないため、誰かと一緒に飲みに行くことは、自分の時間の使い方よりもその人との関係を優先しているという確かなシグナルとなります。AI システムではこれができない可能性があります。2013 年の映画「her 」の終盤で、セオドア (ホアキン フェニックス) は、 AI アシスタントのサマンサ (スカーレット ヨハンソン) が同時に 8,316 の会話をしていることを知ってショックを受けます。逆説的ですが、同時にすべての人とネットワークを構築できる能力は、実際には AI システムのネットワーク構築能力を低下させる可能性があります。

    人間が仕事での役割を超えたアイデンティティを持つことも重要です。仕事上の関係を深める一般的な方法は、勤務時間外に一緒に時間を過ごすことです。親しい友人は、お互いの配偶者や子供と知り合い、お互いの家を訪問し、一緒に旅行に行くなどします。

    AI システムがこのような儀式に参加できるようになることは想像しにくい。AI システムには配偶者も子供も家もない。たとえ AI システムが人間レベルの知能とロボットの体を持っていたとしても、人々はそれをスキー旅行や子供の誕生日パーティーに招待するだろうか?

  • 昨年、私は公選弁護人として働く友人に、AI システムが彼女の仕事をこなせると思うかと尋ねた。私は彼女が、AI 弁護士は法廷で依頼人の代理をすることはできないだろうと話すだろうと予想していた。しかし、彼女は会話を予想外の方向に導いた。

    彼女は、自分の仕事の大部分は依頼人に自分を信頼してもらうことだと語った。依頼人が事件の詳細を話してくれるほど自分を信頼してくれなければ、弁護士は仕事を効果的にこなすことができない。しかし、多くの刑事被告人は「システム」を信頼しておらず、誰とも話したがらないのだ。

    では、同じ被告が弁護士として人間ではなくチャットボットを与えられたとしたらどうなるでしょうか。対面での会話ができないと、信頼関係を築くのが難しくなるのは明らかです。被告はチャットボットについてまったく正当な疑問を持つかもしれません。誰がそれをプログラムしたのか?隠された意図があるのか?誰がチャットログにアクセスできるのか?被告は会話のたびに「同じ」チャットボットと話すことになるのか?

    弁護士は依頼人に代わって独立した判断を下すことが求められています。依頼人の秘密を守ることが求められています。そして、たとえそれが弁護士の給料を払っている人々の利益に反する場合でも、弁護士はこうしたことを行う義務があります。

    AI システムにこのような独立性を与えるのは難しく、ユーザーに独立性があると納得させることはさらに困難です。すべての AI システムは、誰かが所有および運営するサーバー上で実行されます。その人または会社は常にモデルを変更する権限を持ち、過去の会話を閲覧できる場合もあります。したがって、弁護士にチャットボットを選択する人は、実質的に会社を信頼していることになります。つまり、その会社で働く不特定多数の人々を信頼していることになります。

  • 2012年のウォールストリート・ジャーナルの記事によると、「シアトルを拠点とするコーヒーチェーンが、コーヒー作りの高度な技術を、流れ作業のような機械化されたプロセスに落とし込んだという顧客からの苦情」を受けて、「スターバックスのバリスタは、同時に複数のドリンクを作るのをやめるよう指示されている」という。

    顧客はコーヒーの品質について不満を言っていたわけではなく、むしろ、1、2分間、別の人間が自分のコーヒーに全神経を集中して注いでくれることで、スターバックスへの訪問に贅沢な感覚が与えられたのです。

    高級品は希少性によって定義されます。確実に希少なもの、そして社会が豊かになるにつれてさらに希少になるものの一つは、他人の時間と注意です。

  • 数週間前、階段を上って私の台所に冷蔵庫を運んでくれた二人の配達員にとっては、これは初めての経験だったのではないかと思う。彼らの仕事には絶対に人間の力が求められるが、それをこなせるロボットは世界中に存在しないと思う。

    他の多くの仕事についても同じことが言えます。実際、米国には物理的な世界で物体を操作する仕事が何千万もあります。

    食品の調理と提供(1,320万人の労働者)

    生産活動(880万)

    建設と採掘(620万)

    設置、保守、修理(600万)

    建物および敷地の清掃とメンテナンス(440万)

    農業、漁業、林業(40万人)

    これらの職業は合計で約 3,900 万人を雇用しています。さらに、患者、学生、顧客、または一般大衆にサービスを提供する職業が 4,500 万人あります。

    医療(1,630万)

    売上高(1,340万)

    教育と図書館(870万)

    保護サービス(350万人)

    パーソナルケアおよびサービス(300万)

    コミュニティと社会サービス(240万)

    これらの仕事の多く(おそらくほとんど)は、Zoom 通話で行うことさえ技術的には可能です。しかし、ほとんどすべての仕事は対面で行う方が効果的です。たとえば、家庭教師のチャットボットは、人間の 2 年生教師の補助として役立つかもしれませんが、小学校がすぐに教師をチャットボットに置き換えることは想像しにくいです。

    つまり、Zoom では効果的に実行できない仕事は合計 8,400 万件、つまり米国の全仕事の約半分に上ることになります。つまり、データ センターで稼働している AI モデルでは実行できない仕事でもあるということです。ロボットはこれを変えることができるでしょうか?

  • ああ、あなたは芸術が好きだと言うのに、どのアニメの女の子が AI によって生成されたもので、どれが Adobe Illustrator で描かれたものか見分けがつかないんですね。

  • 人間は、AI アートはひどい粗悪品だと主張し続けています。しかし、ラベルを剥がしてみると、AI アートと歴史上最も偉大な芸術家の作品を見分けることができない人もたくさんいます。

    しかし、洗練された高名な人々を崇拝し、あまりにも新しいものや地位の低いもの、あるいは一般の人々がアクセスしにくいと感じるものを軽蔑するのも、非常に人間的なことのように思われる。どちらの衝動も、目の前にある絵画の実際の内容と結びついていない。

  • 人々がAIの詩をあらゆる基準で高く評価するのは、AIの詩の方がわかりやすいと感じるからである。私たちの研究でAIが生成した詩は、一般的に、人間が書いた詩よりも読みやすい。

    実際には、人間の詩の特徴の 1 つは、そのような簡単かつ明確な解釈には向かないことである。

  • 「非専門家の読者が AI 生成の詩と有名な人間の詩人が書いた詩を確実に区別できるかどうか」を検証した。

    答えは「いいえ、区別できません」であり、参加者は概してAI 生成の詩を好んだ。

    ここで何を扱っているかを理解するために、実験で使用された詩を皆さんに読んでいただきたい。サンプルとして、AI 生成の「ウォルト・ホイットマン」の詩の最初の 2 つの節を以下に示します。

    自然の呼び声、木々のざわめき、
    川のささやき、蜂の羽音、鳴鳥のさえずり、風の遠吠えが聞こえます

    それらすべてが織り合わさって、決して終わることのない交響曲となっています。

    私は生命の鼓動、心臓の鼓動を感じます。
    呼吸のリズム、魂の永遠の芸術、
    激しい炎で燃える私の存在の情熱、
    生きること、愛すること、努力すること、より高みを目指すことへの衝動を感じます。

    この詩は、明らかにひどい。甘ったるい、感傷的、卑屈、浅薄。
    また、この詩は、エリオット、シェークスピア、ディキンソンらが実際に書いた詩よりも、研究対象となったどの詩よりも「全体的な質」が高く評価された。これもまた驚くべきことではない。定義上、人々は芸術よりもキッチュを「好む」のである。

  • 実際、AI アートの多くが「下手さ」を持っているため、人々はそれを好んでいるという主張に私は異論を唱えません。

    他の LLM 出力と同様に、AI 生成画像は刺激を与えるためではなく、喜ばせるために設計されています。

    私は以前、これらの画像は本質的に、ほとんど避けられないほどキッチュであると主張しました。

    つまり、心地よく、率直で、親しみやすく、魅力的であるということです。そして、人々はキッチュが大好きです。

  • 私にとってさらに興味深いのは、画像に目を通すと、高名な人間のアーティストによるオリジナル作品を見つけるのはかなり簡単だったが、残った大量の画像から人間が作成したものか AI が作成したものかを見分けるのはかなり難しかったことです。言い換えれば、良い作品が AI の指示で作成されたものか疑問に思うことはほとんどなかったが、悪い作品 (たくさんあった) が人間が作成したものか LLM が作成したものかはよくわからなかった。