テキストから画像を生成するAIモデルも、同様に、あるいはそれ以上に偏りがある。先月Scientific Reportsに掲載された別の研究では、世界中で数百万のユーザーが利用する生成AI「Stable Diffusion」が、 秘書や看護師を女性として、管理職、医師、教授を男性として描写する傾向があることが明らかになった。

一方、用務員、ゴミ収集員、清掃員は黒人や中東系として描写される一方、高給・名誉職に就く人々は白人男性として描写されている。

この研究では、こうしたステレオタイプ的な表現にさらされることで、ユーザーの既存の偏見が強化されるかどうかも検証され、強化される可能性があることが判明した。

朗報は、より包括的でバランスの取れた画像に触れることで、偏見を軽減できる可能性があるということだ。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

You may also enjoy…