Anthropic の設立時の前提は、適切な組織構造とリーダーシップがあれば、商業的圧力の下でも安全への取り組みが崩壊しないようにできるというものだった。そのような取り組みの一つが「責任あるスケーリング ポリシー」であり、Anthropic は、より強力なモデルが安全であることを証明できない場合は、そのトレーニングを停止することを義務付けられていた。2 月に同社が 300 億ドルの新たな資金を確保した際、この誓約は弱体化した。ある意味では、Anthropic は OpenAI よりも安全性を重視している。しかし、元ポリシー ディレクターの Clark 氏は、「資本市場のシステムは、もっと速く行けと言っている」と述べ、さらに「この決定を下すのは企業ではなく世界だ」と付け加えた。昨年、Amodei 氏は Anthropic の従業員にメモを送り、同社がアラブ首長国連邦とカタールから投資を募る予定であることを明らかにしたが、これは「独裁者」を潤すことになる可能性が高いことを認めた。