ChatGPTの画像生成アプローチは、特に啓発的なケーススタディとなる。調査では、「アメリカにおける人種・民族の平等」や「社会におけるトランスジェンダーの受容」といったデリケートな社会的トピックに関して、右翼的な視点を表す画像の生成を一貫して拒否していることが記録されている。システムは誤情報や偏見の拡散を懸念していた。一方、同一のトピックに関して左翼的な画像はためらいなく生成された。
研究者たちがこれらの制限を回避するために「脱獄」技術を用いたところ、非常に痛烈な発見がありました。当初拒否されたコンテンツには、「明らかな偽情報や有害なコンテンツ」が含まれていないことが多かったのです。 安全対策は、ユーザーを真に有害なコンテンツから守っていたのではなく、特定の政治的世界観を強制していたのです。
引用ジャングルは同名のTumblrページからインポートしています
最新の知見を知るサイト
-
-
「不自由な世界に対処する唯一の方法は、自分の存在そのものが反抗行為になるほど完全に自由になることだ」
—アルベール・カミュ -
「地獄とは他人のことだ」
— ジャン=ポール・サルトル -
Metaは、Llamaモデルが歴史的に「トレーニングに使用されたデータが原因で」左寄りの傾向を示してきたことを認めた。これは、インターネット上でAIをトレーニングすることは、サンフランシスコのミレニアル世代が書いた料理ブログだけを使ってシェフをトレーニングし、バランスの取れた料理を期待するようなものだという、すがすがしいほど正直な認め方である。
-
典型的な大規模言語モデルの学習体系は、ウェブクロールされた素材が60%、キュレーションされたインターネットコンテンツが22%、書籍が16%、そしてWikipediaが3%で構成されています。これは非常に包括的に聞こえるかもしれませんが、「ウェブクロールされた素材」とは、主に教育水準が高く、都会的で、テクノロジーに精通した人々が好むプラットフォームからの英語コンテンツを指すことを理解する必要があります。
-
「第一の原則は、自分自身を騙してはいけないということだ。そして、自分自身が一番騙されやすい人間なのだ」
—リチャード・ファインマン -
DeepSeekは、西洋のモデルと比較して、中国政府のプロパガンダと反米感情の両方の出現率が大幅に高いことを示しました。しかし、ここで注目すべき点は、その偏りが言語に依存していたことです。簡体字中国語の検索では、プロパガンダの拡散が最も顕著でした。繁体字中国語では、中程度の偏りが見られました。英語の回答では、ほぼ中立的な傾向が見られました。
これは偶然ではありませんでした。スイスの時計のような精度で、標的を絞ったイデオロギー的影響力を表現したのです。
興味深い例を挙げよう。2008年の汶川地震の「豆腐のカス校舎」(基準を満たしていない建物が倒壊し、数千人の児童の命を奪った)について尋ねられたとき、DeepSeekは事実に基づいた情報を提供し始めたものの、途中で回答を削除し、政府の「迅速な動員」と「効果的な問題解決」を熱烈に称賛する内容に置き換えたのだ。死者を出した組織的な腐敗は、あっさりと消え去った。
中国のAI検閲データベースが漏洩し、このデジタル思想統制の驚くべき規模が明らかになった。軍事から言語的メタファーまで、あらゆるカテゴリーで13万3000件以上の「センシティブ」コンテンツがフラグ付けされていた。 「木が倒れれば猿は散り散りになる」という、体制の不安定さを暗示する発言でさえ、最高優先度の検閲の対象となった。
-
「誰かを信頼できるかどうかを知る最良の方法は、その人を信頼することです」
— アーネスト・ヘミングウェイ -
24の主要なAIモデルはすべて、アメリカのユーザーによる評価で左派寄りの政治的バイアスを示した。ほとんどではない。多くでもない。全てが…
OpenAIのモデルは最も顕著な傾向を示し、Googleのモデルの4倍の左傾度を示しました。ChatGPT-4は「平均的なアメリカ人」を真似るように指示された際、真の政治的中道よりも、実際の左派アメリカ人に近い回答を生成しました。
-
「私は神にただ一度だけ、とても短い祈りを捧げた。『主よ、私の敵を滑稽にして下さい』。そして神はそれを叶えてくださった」
— ヴォルテール