投稿者: | 2026年1月18日

バージニア州の田舎にあるハイパースケールデータセンターでは、1ドルの支出のうち40セントが、機械が溶けないようにするというたった一つの作業に費やされています。これは設計上の欠陥ではありません。人工知能の新たな物理学なのです。

過去5年間で、AIチップは4倍の性能、4倍の速度、そして4倍の発熱量になりました。NVIDIAのH100 GPUだけでも700ワットの熱を放出し、数千基のGPUが並んで設置されているデータセンターでは、その状況は一変します。演算能力が増大するにつれて、発熱は指数関数的に増大します。この発熱を18~27℃に維持できなければ、数十億ドル規模のハードウェアが機能しなくなります。

現代のAIデータセンターにおける総エネルギー消費量の35~40%は、冷却システムに直接消費されています。GPU密度が高く、高温環境の施設では、この比率は45%にまで上昇する可能性があります。このレベルの計算密度では、従来の空冷ではもはや十分ではなく、業界は液冷や液浸冷却といった、はるかにエネルギー集約的なシステムへの移行を余儀なくされています。

2023年、世界のAIコンピューティング需要は約7ギガワットに達しました。これは、アメリカの700万世帯の電力消費量にほぼ相当します。この数字は2025年末までに20ギガワットを超え、わずか2年で3倍に増加することになります。同時期に、電力網、エネルギー投資、許認可手続きはこのペースで拡大していません。その結果、AI経済における最大のボトルネックはもはやコードではなく、熱力学となっています。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です