コンピュータサイエンスの学位と21年間の関連経験が一夜にして経済的に価値がなくなったことは受け入れがたいことですが、私はそれを受け入れ、少なくともあと数年はAIに耐えられる仕事に転向するつもりでした。クレーンなどの機械オペレーター、ドローン測量士のパイロット、CDLドライバー。私が調べたこれらはすべて、最初に7,000ドルから15,000ドルのトレーニングと資格取得への投資が必要で、その後は時給25ドル程度の仕事が始まります。私には7,000ドルから15,000ドルはなく、時給25ドルでは生活していくのに十分ではありません。
引用ジャングルは同名のTumblrページからインポートしています
最新の知見を知るサイト
-
-
空気は生命にとって不可欠です。その本質的な価値は無限です。
しかし、豊富にあるため、ほとんどの場合、経済的な価値はありません。
もちろん、スキューバダイビングをするのであれば、もはや豊富ではなく、圧縮空気として経済的価値を持つことになります。
-
高級食材の多くは供給の希少性によって特徴づけられますが、フグの希少性は、高度な訓練を受けた料理人がほとんどいないことにあります。フグ自体は豊富に存在しますが、希少なのは、食べる人を殺さずに調理するために必要な技術です。
フグで死ぬとは思っていない人も多いでしょう。日本ではフグの調理法が厳しく規制されているため、死に至ることは極めて稀です。しかし、たとえ可能性が低いとしても、その可能性がフグの体験をさらに高めます。そして、高度な訓練を受けたシェフが料理を振る舞ってくれるという事実は、まさに贅沢な体験と言えるでしょう。
-
これがフグのパラドックスです。人々はリスクがあるにもかかわらずプレミアムを支払うのではなく、リスクがあるからこそプレミアムを支払うのです。
シェフの役割は、料理の創造性よりも、ミスなく料理を仕上げる能力です。長年の修行を積み、特別な免許を取得したシェフだけがフグを提供することができます。フグを食べることは勇気の象徴かもしれませんが、それ以上に重要なのは、最も高度な訓練を受けたシェフだけが提供できる、稀有な料理体験へのアクセスを意味します。
-
AIの利用倫理について女性が男性よりも懸念を抱いており、女性がAIを利用する人が少ないのは、おそらく驚くべきことではないだろう。例えば、最新の推計によると、ChatGPTのモバイルユーザーベースの85%は男性だ。
-
デフォルトで女性の声になっているSiriやAlexaといったバーチャルアシスタントでさえ、女性は従順であるというステレオタイプを助長していることが明らかになっています。
AIはまた、リーダーは男性だと決めつけたり、高い地位にある専門家は白人だと決めつけたりするなど、女性や社会的に周縁化された集団を依然として抑圧している様々な既存の偏見を増幅させる可能性があります。
-
テキスト画像AIにおけるジェンダーバイアスに関する最近の大規模研究では、「金融アナリスト」の画像を生成するよう指示された場合、出力結果のうち女性を含むのはわずか16%でした。しかし実際には、現在、米国の金融アナリストの約44%は女性です。
-
133のAIシステムのうち、44%にジェンダーバイアスが見られ、約25%にはジェンダーバイアスと人種バイアスの両方が見られた。
-
テキストから画像を生成するAIモデルも、同様に、あるいはそれ以上に偏りがある。先月Scientific Reportsに掲載された別の研究では、世界中で数百万のユーザーが利用する生成AI「Stable Diffusion」が、 秘書や看護師を女性として、管理職、医師、教授を男性として描写する傾向があることが明らかになった。
一方、用務員、ゴミ収集員、清掃員は黒人や中東系として描写される一方、高給・名誉職に就く人々は白人男性として描写されている。
この研究では、こうしたステレオタイプ的な表現にさらされることで、ユーザーの既存の偏見が強化されるかどうかも検証され、強化される可能性があることが判明した。
朗報は、より包括的でバランスの取れた画像に触れることで、偏見を軽減できる可能性があるということだ。
-
履歴書から名前を削除してもこの問題は解決しないと指摘している。AIは、出身校や居住地、書き方など、他の手がかりに基づいて人物の身元を推測することができるからだ。
最近の同様の研究では、AIは、特に高給職の場合、同等の資格を持つ女性よりも男性を推薦する可能性がはるかに高く、また、「非標準的な」英語で文章を書くユーザーに対して、より見下した態度や侮辱的な態度で応答する可能性が高いことも示されています。