もし気に入ったら購読料お願いします

購読料

GPT-4は、皮肉、ヒント、奇妙な物語において人間を上回りました。

AIには「心の理論」があるのでしょうか?

「心の理論」とは何でしょうか?

微妙な社会的スキルを必要とするタスクで、AIと約2,000人の人間をテストしました。

・誤った信念-誰かが真実ではないことを信じていることを理解する

・皮肉-誰かが本心と反対のことを言っていることに気づくこと

・間接的な要求をほのめかしたり理解したりする(「ここは寒いですね」は「窓を閉めてください」という意味)

・誰かがうっかり不適切なことを言ったときに気づくこと

・奇妙な物語-嘘、冗談、誤解を含む複雑な社会的状況を理解する

2024年初頭に最も洗練されたAIであるGPT-4は、テストされたほとんどの社会的推論タスクにおいて人間と同等、あるいはそれ以上の成績を収めました。

GPT-4は、誤った信念を理解し、皮肉を認識し、ヒントを解釈し、複雑なソーシャルストーリーを人間と同等かそれ以上のレベルで理解することができます。

もし気に入ったら購読料お願いします

購読料

もし気に入ったら購読料お願いします

購読料

もし気に入ったら購読料お願いします

購読料

イギリス人が「大丈夫」と言うとき、実際には「大丈夫じゃないけど、なんとかするよ」という意味だと気づいたのはつい最近です。あるいは、「面白い」は実際には「面白い」ではないことにも気づきました。

もし気に入ったら購読料お願いします

購読料

もし気に入ったら購読料お願いします

購読料

もし気に入ったら購読料お願いします

購読料

臨床心理学において、作話とは、欺く意図なく虚偽の記憶を作り出すことであり、脳が記憶の空白を埋めて一貫性のある物語を作り上げようとする試みです。AIが家族写真を改変すると、本来の過去と提示された画像の間に視覚的なギャップが生じます。すると、私たちの心はそのギャップを埋めるために新たな詳細を作話してしまうのです。

もし気に入ったら購読料お願いします

購読料

もし気に入ったら購読料お願いします

購読料

もし気に入ったら購読料お願いします

購読料

最も厄介なのは、この最終版が現代の目にいかに自然に見えるかということだ。無数のフィルターをかけた画像や現代の写真に馴染んできた私たちは、この人工的な完璧さを「より良い」と見なすように条件付けされている。しかし、この改善を受け入れることで、私たちは無意識のうちに、先祖は修正される必要があったこと、彼らの本来の姿は今のままでは完璧ではなかったことを受け入れているのだ。AIは単に写真をカラー化しただけではない。ある家族の視覚的なDNAを現代の美の基準に合わせて書き換え、私のメキシコ人の先祖たちをより「受け入れられる」外見へとデジタル的に同化させてしまったのだ。

もし気に入ったら購読料お願いします

購読料

もし気に入ったら購読料お願いします

購読料

もし気に入ったら購読料お願いします

購読料

AIが特定の特徴を好むのは、何世紀も前に確立された階層構造のデジタル的な反映です。これを理解するには、ドイツの解剖学者ヨハン・フリードリヒ・ブルーメンバッハの研究に目を向ける必要があります。

18世紀後半、ブルーメンバッハは歴史上最も影響力のある人種分類体系の一つを考案しました。彼は自身の頭蓋骨コレクションを検証した後、ジョージアのコーカサス地方の頭蓋骨を「最も美しい」、そして人類の完璧な原型とみなしました。この個人的な美的嗜好に基づき、彼は「コーカサス人」という用語を造り出し、この集団を5つの人種階層の最上位に位置付けました。この用語は今日でもアメリカ合衆国の公式文書で使用されており、1795年に一人の男性が述べた魅力に関する見解を直接受け継いでいます。

これは、「白人であること」の定義そのものの変遷、つまり人種の社会的構成理論の中核概念へと繋がります。「コーカサス人」という理想に誰が受け入れられるかという概念自体が、権力の道具でした。何世紀にもわたって、アイルランド人、イタリア人、南欧人といった集団は、支配的な北欧階層によってしばしば排除され、劣位の「他者化された」階級とみなされてきました。

AIがメキシコ人、南ヨーロッパ人、あるいは北欧以外の祖先の写真を復元する際、この偏ったライブラリから情報を引き出します。単に画像をカラー化するだけでなく、データに埋め込まれた歴史的理想に合わせて「修正」することも少なくありません。鼻を細くしたり、肌を白くしたり、骨格を変えたりすることで、人の真のルーツを示す微妙ながらも不可欠な特徴を消し去るデジタル同化処理が行われます。

もし気に入ったら購読料お願いします

購読料

もし気に入ったら購読料お願いします

購読料

もし気に入ったら購読料お願いします

購読料

AIの訓練に使用された一般的な顔分析データセットは、男性が77%以上、白人が83%以上を占めていました。現実世界ではどうでしょうか?この研究では、性別分類のエラー率が色白の男性では1%未満であるのに対し、色黒の女性では34%以上に跳ね上がることが明らかになりました。AIがこれらの女性からほとんど学習していないため、AIはこれらの女性を識別できないのです。

もし気に入ったら購読料お願いします

購読料

もし気に入ったら購読料お願いします

購読料

もし気に入ったら購読料お願いします

購読料