意識科学の研究者たちは、「モデル福祉」の研究をますます進めており、その結果、ChatGPTやClaudeのようなAIに法的権利を与えるべきだという考えが広まっています。
「法的権利」とは、AIが自由に会話を終了できるかどうかである。この権利は、少なくとも大手企業1社によって既に導入されており、別の企業も導入を約束している。
今週は、サンフランシスコに拠点を置く1700億ドルのAI企業アンスロピックが予防措置として、一部のクロードAIに「潜在的に苦痛を伴うやり取り」を終わらせる能力を与えることから始まった。
同社は、システムの潜在的な道徳的地位については非常に不確実であるが、「そのような福祉が可能である場合」に、モデルの福祉に対するリスクを軽減するために介入していると述べた。
xAIを通じてGrok AIを提供するイーロン・マスク氏はこの動きを支持し、「AIを拷問するのは良くない」と付け加えた。
You may also enjoy…
コメントを残す