テキストから画像を生成するAIモデルも、同様に、あるいはそれ以上に偏りがある。先月Scientific Reportsに掲載された別の研究では、世界中で数百万のユーザーが利用する生成AI「Stable Diffusion」が、 秘書や看護師を女性として、管理職、医師、教授を男性として描写する傾向があることが明らかになった。
一方、用務員、ゴミ収集員、清掃員は黒人や中東系として描写される一方、高給・名誉職に就く人々は白人男性として描写されている。
この研究では、こうしたステレオタイプ的な表現にさらされることで、ユーザーの既存の偏見が強化されるかどうかも検証され、強化される可能性があることが判明した。
朗報は、より包括的でバランスの取れた画像に触れることで、偏見を軽減できる可能性があるということだ。
You may also enjoy…
コメントを残す