引用ジャングルは同名のTumblrページからインポートしています

最新の知見を知るサイト

  • 133のAIシステムのうち、44%にジェンダーバイアスが見られ、約25%にはジェンダーバイアスと人種バイアスの両方が見られた。

  • テキストから画像を生成するAIモデルも、同様に、あるいはそれ以上に偏りがある。先月Scientific Reportsに掲載された別の研究では、世界中で数百万のユーザーが利用する生成AI「Stable Diffusion」が、 秘書や看護師を女性として、管理職、医師、教授を男性として描写する傾向があることが明らかになった。

    一方、用務員、ゴミ収集員、清掃員は黒人や中東系として描写される一方、高給・名誉職に就く人々は白人男性として描写されている。

    この研究では、こうしたステレオタイプ的な表現にさらされることで、ユーザーの既存の偏見が強化されるかどうかも検証され、強化される可能性があることが判明した。

    朗報は、より包括的でバランスの取れた画像に触れることで、偏見を軽減できる可能性があるということだ。

  • 履歴書から名前を削除してもこの問題は解決しないと指摘している。AIは、出身校や居住地、書き方など、他の手がかりに基づいて人物の身元を推測することができるからだ。

    最近の同様の研究では、AIは、特に高給職の場合、同等の資格を持つ女性よりも男性を推薦する可能性がはるかに高く、また、「非標準的な」英語で文章を書くユーザーに対して、より見下した態度や侮辱的な態度で応答する可能性が高いことも示されています。

  • ワシントン大学の最近の研究では、テキストに特化したAIのサブセットである3つの大規模言語モデル(LLM)を用いて、数百件の実際の履歴書をスクリーニングした結果、白人、特に男性の履歴書が圧倒的に好まれることが分かりました。全体的に見て、白人を連想させる名前を持つ候補者は85%の確率で好まれ、男性を連想させる名前を持つ候補者は53%の確率で好まれました。黒人男性の選考は最も悪く、AIはほぼ100%の確率で他の候補者を選択しました。人事部のように女性が多数を占める職種でさえ、白人男性が選ばれる可能性が依然として高かったのです。

  • 世界中の学術機関から200人以上の研究者が「AIバイアスに関する科学的コンセンサス」に署名し、「AIは社会における偏見や差別を悪化させる可能性がある」と断言しました。彼らの結論は、AIシステムが依然として既存の社会的偏見を強く反映していることを明確に示す、増え続ける研究によって裏付けられています。

  • 2015年にテクノロジー大手アマゾンが試験運用した初期のAI採用ツールの一つは、一貫して男性候補者を優遇し、「女性」という言葉を含む履歴書を低評価し、女子大卒者を不利に評価することが判明したため、廃止を余儀なくされました。

    2019年には、当時世界中の数百社で使用されていたHireVueの別のAI採用ツールが、 特定の表情、話し方、声のトーンを優遇し、マイノリティの応募者を不当に不利に評価することが判明しました。

  • フォーチュン500企業の推定99%が採用決定にAIツールを活用しています。最近では、人間ではなくAIモデルと面接を受けている人々の動画をいくつか見かけました。

  • Facebookは世界中に30億人のユーザーを抱え、Instagramは20億人以上、WhatsAppも30億人のユーザーがいる。この男は、地球上の誰よりも私たちのコミュニケーションに大きな影響を与えている。

    このレベルの権力は理解しがたく、人類史上前例のないものだ。一人の男が、人間同士の交流に計り知れないほどの影響力を持ち、しかもその男には道徳心や良心のかけらもない。

    彼の最新の動きは、FacebookやInstagramのユーザーが「女性を家庭用品や所有物のように扱う」こと、移民を「ゴミ」と呼ぶこと、そしてトランスジェンダーやクィア、その他の集団についてあらゆる種類のひどい発言をすることを許可したことだ。

    この発表に際し、ザッカーバーグはいつものように「より多くの言論」が目的だと言い逃れをした。

  • 億万長者のベンチャーキャピタリストであり、トランプ氏の顧問でもあるマーク・アンドリーセン氏は最近、AIが自分の仕事以外のほぼすべての仕事を奪うだろうと述べた。企業を買収し、部品をばらばらにしてから売却するという特殊な手法は、どういうわけか例外となるだろう。彼は、ハゲタカ投資ビジネスで「勝ち組を選ぶ」には人間的な感覚が必要だと述べている。

  • これはすべて危機です。人々は大学を卒業しても、書くことも読むこともほとんどできず、機械に言葉を生成させる能力しか身につけないままになるでしょう。