液冷と空冷:50kW GPUラックガイド(2025年)

AIワークロードの急激な増加により、データセンターの冷却は重大な変曲点を迎えています。GPUラックの密度が50kWを超え、次世代システムでは100kWを超える需要が急増する中、従来の空冷は根本的な物理的限界に達しています。この包括的な分析では、先進的な液冷技術を通じて業界がこの熱的変化をどのように乗り切り、10~21%のエネルギー削減冷却コストの40%削減を実現し、AI革命に必要なインフラを実現しているかを明らかにします。

空気がボトルネックになるとき

高密度における空冷の失敗は徐々にではなく、崖のようなものです。冷却には、20°Fの温度差で毎分7,850立方フィート(CFM)の気流が必要です。これを2倍の100kWにすると、15,700CFMが必要となり、わずか2~4平方インチのサーバー吸気口からハリケーンのような強風が吹き出すことになる。基本的な熱除去方程式(Q = 0.318 × CFM × ΔT)は、乗り越えられない課題を明らかにしています。密度が増加するにつれて、必要なエアフローは直線的に増加しますが、ファンの消費電力はファン速度の3乗で増加します。エアフローが10%増加すると、ファンの消費電力は33%増加し、高密度空冷を経済的かつ現実的に不可能にするエネルギー消費のスパイラルが生じる。

この理論上の限界は、現実世界でも証明されている。ある事例では、わずか6kWの250ラックが、冷却に失敗すると75秒で72°Fから90°F以上まで上昇したことが報告されています。平均5~10kWのラック密度を想定して設計された従来のデータセンターでは、最新のGPUワークロードを処理することはできません。高度なホットアイル/コールドアイルの封じ込めがあっても、空冷は40kWを超えると苦戦し、封じ込めのないシステムでは熱風の再循環により20~40%の容量ロスが発生します。新しいASHRAE H1環境クラスは、高密度機器のために明確に作成され、許容温度を18~22°Cに制限しています。

液冷技術は可能性を変える。

液体冷却への移行は、単なる段階的な改善ではなく、熱除去の根本的な再構築を意味します。水の熱伝導率は空気の3,500倍であり、100kW超のラックを驚異的なものではなく日常的なものにする冷却能力を可能にする。

マイクロチャネル(27-100ミクロン)を備えたコールドプレートがプロセッサーに直接取り付けられ、ダイレクト・ツー・チップ冷却が変革をリードしている。供給水を40℃、戻り水を50℃で運転するこれらのシステムは、部分PUEを1.02~1.03に維持しながら、ラック熱の70~75%を液体で除去します。最新の実装では、9kWのサーバーで毎分13リットルの流量で、チップあたり1.5kW以上をサポートします。メモリ、ドライブ、および補助コンポーネントからの熱の残りの25~30%は、依然として空冷が必要であるため、これらのハイブリッドシステムは、ほとんどの展開において実用的な選択肢となります。

液浸冷却は、サーバー全体を誘電流体に浸すことで、限界をさらに押し広げます。鉱油を使用する単相システムは、1ガロン当たり50~100ドルで、ラック当たり200kWを一貫してサポートする。二相システムは、沸騰と凝縮による優れた熱伝達を約束するが、フッ化炭素流体が1ガロン当たり500~1000ドルもすることや、環境問題への懸念から3M社が2025年までに生産を中止することで、採用が凍結されるといった課題に直面している。この技術の複雑さは、密閉されたエンクロージャー、キャビテーションのリスク、PFAS規制など、特殊な用途への展開を制限している。

クーラント・ディストリビューション・ユニット(CDU)は、液冷インフラのバックボーンを形成します。最新のユニットには、7kWのラックマウントシステムから、CoolITのCHx2000のような2,000kWを超える巨大なものまであります。主要ベンダーであるVertiv、Schneider Electric、Motivair、CoolITは、N+1冗長性、50ミクロンフィルター、負荷マッチングのための可変周波数ドライブを備えたソリューションを提供している。2024年に10億ドルだったCDU市場は、液冷の急速な普及を反映して、2031年には36億ドル(年平均成長率20.5%)に達すると予測されている。

改修の技術と経済性

既存のデータセンターを液冷に移行するには、慎重な編成が必要です。最も成功するアプローチは、段階的な移行を行うことである。高密度のラックを1-2台設置することから始め、1列に拡張し、その後需要に応じて拡張する。既存の空調を活用する液冷CDU、ラックあたり最大40kWの冷却が可能なリアドア式熱交換器、効率を最大化するダイレクト・ツー・チップ・ソリューションです。

インフラストラクチャーの変更が主な課題である。電力インフラが制限要因となることが多く、平均負荷5~10kW用に設計された施設では、冷却能力にかかわらず50kW以上のラックをサポートすることはできません。配管は、床が高い環境や、スラブ構造でドリップパン付きの天井設置では、慎重なCFDモデリングが必要です。床荷重は、特に浸漬システムの場合、古い施設では構造容量を超える可能性があります。

コスト分析により、初期投資が高額であるにもかかわらず、説得力のある経済性が明らかになった。カリフォルニア州エネルギー委員会の調査によると、17ラック1,200台のサーバーに液冷システム一式を導入した場合の総コストは470,557ドル(サーバー1台当たり392ドル)で、設備改造費も含まれています。年間355MWhのエネルギー節約(39,155ドル、0.11ドル/kWhの場合)により、単純投資回収期間は12年ですが、最適化された導入では2~5年で回収できます。シュナイダーエレクトリックの分析によると、4倍のラック圧縮により14%の資本節約を実現し、運用面ではデータセンターの総電力を10.2%削減し、総使用効率を15.5%改善することができます。

ハイブリッド環境では、統合の課題が増大する。完全液冷」設備でさえ、補助コンポーネントのために20~30%の空冷能力を必要とする。制御システムは、複数の冷却技術を調整し、ラックの入口温度と供給水の状態を監視する必要があります。冗長性が非常に重要になります。リアドア式熱交換器は、修理のために開いたときに空冷にフェイルオーバーする必要がありますが、DTCシステムは全負荷時のライドスルー時間が10秒未満です。

パイロットからプロダクションへ

液体冷却の成熟度は、実際の導入事例が証明しています。メタ社は、4,000万平方フィート以上のデータセンタースペースにエアアシスト液冷を導入し、大規模な導入をリードしている。同社のCatalinaラック設計は、72GPUで140kWをサポートし、施設全体での液冷導入は2025年初頭の完了を目指している。この変革には、AIに最適化された再設計のために建設中の複数のデータセンターを廃棄する必要があり、新しいアーキテクチャによって31%のコスト削減が見込まれている。

グーグルの液冷TPUを使った7年間の旅は、業界で最も包括的なデータセットを提供している。2000以上のTPUポッドにクローズドループシステムをギガワットスケールで展開し、99.999%の稼働率を達成すると同時に、空気よりも30倍高い熱伝導率を実証した。彼らの第5世代CDU設計であるProject Deschutesは、Open Compute Projectに寄稿され、業界全体の採用を加速する予定です。

マイクロソフトは、水よりも低い122°F-50°Cで沸騰する誘電体流体を使用する二相浸漬冷却の限界を押し広げる。この技術により、冷却ファンを排除しながらサーバーの消費電力を5-15%削減することができます。2024年までに水使用量を95%削減するというコミットメントにより、クローズドループ、蒸発ゼロシステムのイノベーションが推進されています。

CoreWeaveのような専門プロバイダーは、AIワークロード向けの液冷を実証している。2024年末までに4,000のGPU導入を計画している同社は、競合他社よりも20%優れたシステム利用率で130kWのラック密度を達成している。同社のレール最適化設計は、信頼性の向上により310万GPU時間を節約し、H100クラスタを60日未満で展開している。

AIアクセラレーターの熱需要に対応

GPUの仕様から、液冷が必須となった理由が明らかになった。NVIDIA H100 SXM5はTDP 700Wで動作し、最適なパフォーマンスを得るためには液冷が必要です。H200は、同じ電力エンベロープを維持しながら、141GBのHBM3eメモリを4.8TB/sで提供します。次期B200は、さらに限界を押し広げます:液冷モデルは1,200W、空冷モデルは1,000Wで、20PFLOPS FP4性能は高度な熱管理を必要とします。

GB200 NVL72は、72基のBlackwell GPUと36基のGrace CPUを1ラックに搭載しており、空冷の限界点を示しています。140kWのラックパワーでは、新開発のコールドプレートと250kWのCDUによる液冷が必須です。システムレベルでの考慮は複雑さを増しています:NVSwitchインターコネクトはそれぞれ10-15Wを追加し、高速メモリと電力供給システムはかなりの熱を追加します。

JetCool社による技術的分析では、性能に歴然とした差があることが示されている。同社のH100 SmartPlateは熱抵抗0.021℃/Wを達成し、60℃の入口温度をサポートしながら、空気代替品よりも35℃低温でチップを動作させる。この温度低減は、理論的にはGPUの寿命を8倍に延ばすと同時に、数週間のAIトレーニング実行に不可欠な最大性能の持続を可能にします。

2030年までのロードマップ

業界は、ベストプラクティスが急速に要件へと進化する転換点に立っている。ASHRAEの新しいH1環境クラス(18~22℃推奨)は、従来のガイドラインではAIのワークロードに対応できないことを認めています。Open Compute Projectの液冷規格は相互運用性を促進し、Immersion Requirements Rev.2.10は新興技術の認定プロセスを確立している。

二相液浸冷却は、現在の課題にもかかわらず、2025~2027年の主流採用に向けて有望視されている。市場予測によると、チップあたり1,500W以上を可能にする優れた熱伝導によって、3億7,500万ドル(2024年)から12億ドル(2032年)への成長が見込まれている。アクセルシオンのNeuCoolや製造中止となった3M液の代替品などのイノベーションは、性能を維持しながら環境問題に対処している。

AIによる最適化は、即座に利益をもたらす。グーグル・ディープマインドの実装は、リアルタイム学習によって40%の冷却エネルギー削減を達成し、シーメンスのホワイトスペース冷却最適化や同様のプラットフォームが普及している。これらのシステムは、故障を予測し、冷却水の化学的性質を最適化し、ワークロードのパターンに合わせて動的に調整するもので、ベンダーの91%が5年以内にユビキタスになると予想している。

廃熱回収が負債を資産に変えるストックホルム・データパークは、すでにデータセンターの廃熱で1万世帯を暖房しており、2035年までに都市暖房の10%を目標に掲げている。規制の圧力は採用を加速させる:ドイツでは2028年までに20%の熱再利用が義務付けられ、カリフォルニア州ではTitle 24が新築時の熱回収インフラを義務付けている。ヒートポンプ技術は、30~40℃の廃熱を70~80℃に昇温して地域暖房に利用し、廃棄されていたエネルギーから収益源を生み出す。

移行

液体冷却の導入を成功させるには、多方面にわたる戦略的計画が必要である。しかし、電力インフラを最初に評価する必要があります。電気容量が不十分な場合、冷却技術にかかわらず、レトロフィットの実現性は低くなります。1-2ラックのパイロットから始めることで、規模を拡大する前に学習することができます。一方、空冷の専門知識を維持することは、ハイブリッド運用に不可欠です。

財務モデリングでは、システム全体の価値を考慮する必要があります。初期投資額は冷却能力1kWあたり1,000ドルから2,000ドルですが、最適化された実装では設備電力が27%削減され、冷却エネルギーは従来システムと比べて30%節約されます。先進的な導入事例では、入念な設計により2年以内の投資回収を実現しています。非効率な冷凍機の統合を回避することで、20~30%の削減を実現し、高密度のアプリケーションに集中することで投資回収率を最大化しています。

技術チームには新しい能力が求められる。従来のHVACの知識だけでなく、スタッフは冷却水の化学的性質、漏水対応プロトコル、統合制御システムを理解しなければならない。ベンダーとの提携が不可欠であることが証明された。24時間365日の特殊部品のサポートと、6ヶ月間隔の定期的な予防メンテナンスが、運用上の必需品となった。安全プロトコルは、誘電性流体の取り扱いや圧力システムの管理にまで拡大します。

市場は圧倒的な勢いを示すデータセンターの液冷は年平均成長率27.6%で、49億ドル(2024年)から213億ドル(2030年)に成長すると予測される。2025-2026年には単相チップ間直接冷却がAIワークロードの標準となり、2027年には二相液浸が主流となる。2030年までに、1MWラックは例外ではなく、標準として高度な液体冷却を必要とするようになる。

結論

物理学的に明らかなように、空冷は限界に達している。50-100kWのラック密度では、基本的な熱力学的制約により、液冷が望ましいだけでなく必須となる。この移行は、データセンターの歴史において最も重要なインフラの転換であり、新たなスキル、多額の投資、運用の変革が必要となります。しかし、10~21%の省エネ、40%の冷却コスト削減、8倍の信頼性向上、そして最も重要なのは、次世代AIインフラを展開する能力というメリットが、この進化を不可避なものにしている。今日、液冷を使いこなす組織は、明日のAIの飛躍的進歩の原動力となり、遅れをとった組織は、業界がこれまで以上に高い計算密度を目指して競争する中で遅れをとることになる。私たちは熱の壁に到達しています。液冷はそれを突破する方法なのです。

参考文献

ACMデジタルライブラリ."Energy-efficient LLM Training in GPU datacenters with Immersion Cooling Systems".Proceedings of the 16th ACM International Conference on Future and Sustainable Energy Systems.2025. https://dl.acm.org/doi/10.1145/3679240.3734609.

AMAX。"NVIDIA Blackwell コンフィギュレーションの比較"2025. https://www.amax.com/comparing-nvidia-blackwell-configurations/.

---."NVIDIA Blackwell 導入のための考慮事項トップ5".2025. https://www.amax.com/top-5-considerations-for-deploying-nvidia-blackwell/.

arXiv."[1309.4887] iDataCool: 温水冷却とエネルギー再利用によるHPC".2013. https://ar5iv.labs.arxiv.org/html/1309.4887.

---."【1709.05077】深層強化学習によるグリーンデータセンターのための冷却最適化の変革"2017. https://ar5iv.labs.arxiv.org/html/1709.05077.

アトム"Ashrae's New Thermal Guideline Update: A New High Density Trend".エキスパート・グリーン・プレハブ・データセンター.2025. https://attom.tech/ashraes-new-thermal-guideline-update-a-new-high-density-trend/.

チルダイン"ハイパワー液冷設計:500kWラック用ダイレクト・ツー・チップ・ソリューション要件"Chilldyne | Liquid Cooling.2024年7月29日。 https://chilldyne.com/2024/07/29/high-power-liquid-cooling-design-direct-to-chip-solution-requirements-for-500-kw-racks/.

コンパス・データセンター「データセンターの冷却とは?2025. https://www.compassdatacenters.com/data-center-cooling/.

コンバージ・ダイジェスト"Meta Outlines AI Infrastructure Upgrades at OCP Summit 2024".2024. https://convergedigest.com/meta-outlinesai-infrastructure-upgrades-at-ocp-summit-2024/.

コアウィナー株式会社"液冷総合ガイド:高性能データセンターとAI導入の未来".2025. https://www.corewinner.com/en/blog/detail/52.

コアウィーブ"2025年企業向けAIクラスター構築"2025. https://www.coreweave.com/blog/building-ai-clusters-for-enterprises-2025.

---."AIモデルとイノベーションのためのGPU"2025. https://www.coreweave.com/products/gpu-compute.

サイバー・ディフェンス・アドバイザーズ「AIによる予知保全:データセンターの信頼性の未来"2025. https://cyberdefenseadvisors.com/ai-driven-predictive-maintenance-the-future-of-data-center-reliability/.

データセンターカタログ"メタ社、データセンター・インフラを液体冷却に移行計画".2022. https://datacentercatalog.com/news/2022/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

データセンター・ダイナミクス「データセンターにおける液冷の紹介。2025. https://www.datacenterdynamics.com/en/analysis/an-introduction-to-liquid-cooling-in-the-data-center/.

---."ハイパースケーラーがOCP EMEAで1MWラックの準備、グーグルが新CDU発表"2025. https://www.datacenterdynamics.com/en/news/hyperscalers-prepare-for-1mw-racks-at-ocp-emea-google-announces-new-cdu/.

---."ASHRAE新ガイドラインが効率化推進に挑戦"2025. https://www.datacenterdynamics.com/en/opinions/new-ashrae-guidelines-challenge-efficiency-drive/.

---."Nvidia社CEO、次期システムが液冷になることを確認"2025. https://www.datacenterdynamics.com/en/news/nvidias-ceo-confirms-next-dgx-will-be-liquid-cooled/.

---."ダイレクト・ツー・チップ液冷でデータセンターの効率を最適化"2025. https://www.datacenterdynamics.com/en/opinions/optimizing-data-center-efficiency-with-direct-to-chip-liquid-cooling/.

---."二相冷却はEPA規則と3MのPFAS「永遠の化学物質」からの撤退によって打撃を受けるだろう"2025. https://www.datacenterdynamics.com/en/news/two-phase-cooling-will-be-hit-by-epa-rules-and-3ms-exit-from-pfas-forever-chemicals/.

データセンター・フロンティア"2025年のデータセンター業界を形作る8つのトレンド".2025. https://www.datacenterfrontier.com/cloud/article/55253151/8-trends-that-will-shape-the-data-center-industry-in-2025.

---.「データセンターに液冷サーバーを導入するためのベストプラクティス"2025. https://www.datacenterfrontier.com/sponsored/article/55138161/best-practices-for-deploying-liquid-cooled-servers-in-your-data-center.

---."グーグル、節水のための新しい「気候を考慮した」冷却技術を開発中".2025. https://www.datacenterfrontier.com/cooling/article/33001080/google-developing-new-climate-conscious-cooling-tech-to-save-water.

---."グーグル、AIデータ解析に液体冷却を採用".2025. https://www.datacenterfrontier.com/cloud/article/11430207/google-shifts-to-liquid-cooling-for-ai-data-crunching.

---."メタ社、データセンターのインフラを液体冷却に移行する計画".2025. https://www.datacenterfrontier.com/cooling/article/11436915/meta-plans-shift-to-liquid-cooling-for-its-data-center-infrastructure.

---."メタ、AIを活用した未来のための新しいデータセンター設計をプレビュー".2025. https://www.datacenterfrontier.com/data-center-design/article/33005296/meta-previews-new-data-center-design-for-an-ai-powered-future.

---.「OCP 2024 スポットライト:Meta、140kWの液冷AIラックを発表;Google、Hyperscaler GPUを強化するロボティクスに注目。"2024. https://www.datacenterfrontier.com/hyperscale/article/55238148/ocp-2024-spotlight-meta-shows-off-140-kw-liquid-cooled-ai-rack-google-eyes-robotics-to-muscle-hyperscaler-gpu-placement.

---."高密度環境における空冷の限界に挑む"2025. https://www.datacenterfrontier.com/special-reports/article/11427279/pushing-the-boundaries-of-air-cooling-in-high-density-environments.

---.「レポートメタ、AI中心のデータセンター再設計で液体冷却への移行を計画".2025. https://www.datacenterfrontier.com/cooling/article/33004107/report-meta-plans-shift-to-liquid-cooling-in-ai-centric-data-center-redesign.

---."オープン・コンピュート・プロジェクト(OCP)における液体冷却の重要性"2025. https://www.datacenterfrontier.com/sponsored/article/55134348/the-importance-of-liquid-cooling-to-the-open-compute-project-ocp.

---."廃熱利用はデータセンター業界のネット・ゼロ・エネルギーに向けた次のステップ".2025. https://www.datacenterfrontier.com/voices-of-the-industry/article/11428787/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy.

---."ZutaCoreのHyperCool液冷技術、持続可能なAI向けNVIDIAの先進GPU H100とH200をサポート".2024. https://www.datacenterfrontier.com/press-releases/press-release/33038994/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai.

データセンター・ナレッジ"データセンター改修戦略".2025. https://www.datacenterknowledge.com/infrastructure/data-center-retrofit-strategies.

---.「ハイブリッド冷却:データセンターにおける完全液冷への架け橋"2025. https://www.datacenterknowledge.com/cooling/hybrid-cooling-the-bridge-to-full-liquid-cooling-in-data-centers.

データセンター・レビュー"データセンターの廃熱を最大限に活用する"2024年6月。 https://datacentrereview.com/2024/06/making-the-most-of-data-centre-waste-heat/.

データセンター「グーグルとOpenAIのクラウドパートナーシップにおけるコアウィーブの役割はAIインフラを再定義する。2025. https://www.datacenters.com/news/coreweave-s-strategic-role-in-google-and-openai-s-cloud-collaboration.

デル"データセンターの空冷から液冷への移行時期".2025. https://www.dell.com/en-us/blog/when-to-move-from-air-cooling-to-liquid-cooling-for-your-data-center/.

デジタル・インフラ・ネットワーク"グーグルがAIにメガワットの動き:電力と冷却の見直し"2025. https://digitalinfranetwork.com/news/google-ocp-400v-liquid-cooling/.

エンコネックス"データセンターの液冷と空冷の比較".2025. https://blog.enconnex.com/data-center-liquid-cooling-vs-air-cooling.

メタのエンジニアリング"メタのオープンAIハードウェア・ビジョン"2024年10月15日 https://engineering.fb.com/2024/10/15/data-infrastructure/metas-open-ai-hardware-vision/.

フォーチュン・ビジネス・インサイト"二相データセンター液浸冷却市場、2032年"2025. https://www.fortunebusinessinsights.com/two-phase-data-center-liquid-immersion-cooling-market-113122.

グーグル・クラウド"OCP EMEA Summitで1MWのITラックと液冷を実現"Google Cloud ブログ.2025. https://cloud.google.com/blog/topics/systems/enabling-1-mw-it-racks-and-liquid-cooling-at-ocp-emea-summit.

GRクーリング「先進の液冷を探る:液浸対チップ直接冷却".2025. https://www.grcooling.com/blog/exploring-advanced-liquid-cooling/.

---."二相冷却と単相冷却の比較"2025. https://www.grcooling.com/blog/two-phase-versus-single-phase-immersion-cooling/.

HDR。"ダイレクト・ツー・チップ液冷"2025. https://www.hdrinc.com/insights/direct-chip-liquid-cooling.

HiRef."ハイブリッド・ルーム:データセンターにおける空冷と液冷の複合ソリューション"2025. https://hiref.com/news/hybrid-rooms-data-centers.

HPCwire."H100の衰退:Nvidia、H200を搭載した2024年ハードウェアをアピール。"2023年11月13日。 https://www.hpcwire.com/2023/11/13/h100-fading-nvidia-touts-2024-hardware-with-h200/.

IDTechEx.「データセンターの熱管理2025-2035年:技術、市場、機会".2025. https://www.idtechex.com/en/research-report/thermal-management-for-data-centers/1036.

ジェットクール「データセンターにおける直接液体冷却と液浸冷却の比較".2025. https://jetcool.com/post/five-reasons-water-cooling-is-better-than-immersion-cooling/.

---.「NVIDIA H100 GPU用液冷システム".2025. https://jetcool.com/h100/.

マルーンモンキーズ"CDU"。2025. https://www.maroonmonkeys.com/motivair/cdu.html.

マイクロソフト"プロジェクト・ナティック フェーズ2"2025. https://natick.research.microsoft.com/.

マイクロソフトニュース"データセンター・サーバーを冷却するために、マイクロソフトは沸騰液体に目を向ける。"2025. https://news.microsoft.com/source/features/innovation/datacenter-liquid-cooling/.

ノーテックデータセンター冷却ソリューション"廃熱利用はデータセンター業界のネット・ゼロ・エネルギーに向けた次のステップ".2025. https://www.nortekdatacenter.com/waste-heat-utilization-is-the-data-center-industrys-next-step-toward-net-zero-energy/.

NVIDIA。"H200 テンソルコア GPU".2025. https://www.nvidia.com/en-us/data-center/h200/.

オープン・コンピュート・プロジェクト"オープン・コンピュート・プロジェクト財団、AI向けオープン・システム・イニシアチブを拡大".2025. https://www.opencompute.org/blog/open-compute-project-foundation-expands-its-open-systems-for-ai-initiative.

P&Sインテリジェンス"液浸冷却の市場規模、シェア、動向分析、2032年"2025. https://www.psmarketresearch.com/market-analysis/immersion-cooling-market.

PR Newswire。"Supermicro、NVIDIA BlackwellおよびNVIDIA HGX H100/H200向けにラックスケールのプラグアンドプレイ液冷AI SuperClustersを発表"2024. https://www.prnewswire.com/news-releases/supermicro-introduces-rack-scale-plug-and-play-liquid-cooled-ai-superclusters-for-nvidia-blackwell-and-nvidia-hgx-h100h200--radical-innovations-in-the-ai-era-to-make-liquid-cooling-free-with-a-bonus-302163611.html.

---."ZutaCoreのHyperCool液冷技術、持続可能なAI向けNVIDIAの先進GPU H100とH200をサポート".2024. https://www.prnewswire.com/news-releases/zutacores-hypercool-liquid-cooling-technology-to-support-nvidias-advanced-h100-and-h200-gpus-for-sustainable-ai-302087410.html.

リタール"チップへの直接冷却とは - そして液冷はあなたの未来にあるのか?"2025. https://www.rittal.com/us-en_US/Company/Rittal-Stories/What-is-Direct-to-Chip-Cooling-and-Is-Liquid-Cooling-in-your-Future.

サイエンスダイレクト「データセンターの液冷:課題に直面する必要性"2024. https://www.sciencedirect.com/science/article/abs/pii/S1359431124007804.

セミアナリシス「データセンター解剖パート1:電気系統」。2024年10月14日。 https://semianalysis.com/2024/10/14/datacenter-anatomy-part-1-electrical/.

---."データセンター解剖その2-冷却システム".2025年2月13日。 https://semianalysis.com/2025/02/13/datacenter-anatomy-part-2-cooling-systems/.

---."マルチデータセンタートレーニング:グーグルのインフラを打ち負かすOpenAIの野心的な計画".2024年9月4日。 https://semianalysis.com/2024/09/04/multi-datacenter-training-openais/.

TechPowerUp."NVIDIA H100 PCIe 80 GB スペック".TechPowerUp GPU データベース.2025. https://www.techpowerup.com/gpu-specs/h100-pcie-80-gb.c3899.

TechTarget.「データセンターにおける液冷と空冷の比較".2025. https://www.techtarget.com/searchdatacenter/feature/Liquid-cooling-vs-air-cooling-in-the-data-center.

ユニシス"液冷ブームを牽引するLLM開発者たち"2025. https://www.unisys.com/blog-post/dws/how-leading-llm-developers-are-fueling-the-liquid-cooling-boom/.

アップサイト・テクノロジーズ"ラック密度とデルタTがエアフロー管理戦略に与える影響".2025. https://www.upsite.com/blog/rack-density-delta-t-impact-airflow-management-strategy/.

---.「AIに対応するためにデータセンターをいつ改修すべきか、そしていつ改修すべきでないか。2025. https://www.upsite.com/blog/when-to-retrofit-the-data-center-to-accommodate-ai-and-when-not-to/.

Uptime Institute."データセンター冷却のベストプラクティス".2025. https://journal.uptimeinstitute.com/implementing-data-center-cooling-best-practices/.

---."液冷への期待性能は現実をチェックする必要がある"アップタイム・インスティテュート・ブログ。2025. https://journal.uptimeinstitute.com/performance-expectations-of-liquid-cooling-need-a-reality-check/.

ユーティリティ・ダイブ「データセンター冷却の2025年展望。2025. https://www.utilitydive.com/news/2025-outlook-data-center-cooling-electricity-demand-ai-dual-phase-direct-to-chip-energy-efficiency/738120/.

バーティブ「データセンターにおける液冷の導入:クーラント分配ユニット(CDU)の設置と管理".2025. https://www.vertiv.com/en-us/about/news-and-insights/articles/blog-posts/deploying-liquid-cooling-in-data-centers-installing-and-managing-coolant-distribution-units-cdus/.

---.「データセンターにおける液冷と浸漬冷却の選択肢".2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

---.「データセンターの液体冷却オプション2025. https://www.vertiv.com/en-us/solutions/learn-about/liquid-cooling-options-for-data-centers/.

---.「空冷式データセンターに液体冷却を導入した場合の PUE とエネルギー消費への影響の定量化".2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/blog-posts/quantifying-data-center-pue-when-introducing-liquid-cooling/.

---.「HPCインフラにおける直接チップ冷却を理解する:液冷の深堀り"2025. https://www.vertiv.com/en-emea/about/news-and-insights/articles/educational-articles/understanding-direct-to-chip-cooling-in-hpc-infrastructure-a-deep-dive-into-liquid-cooling/.

---."Vertiv™ CoolPhase CDU|高密度ソリューション".2025. https://www.vertiv.com/en-us/products-catalog/thermal-management/high-density-solutions/vertiv-coolphase-cdu/.

WGI。"AIとデータセンターのクールダウン"2025. https://wginc.com/cooling-down-ai-and-data-centers/.

前へ
前へ

韓国の650億ドルAI革命:サムスンとSKハイニックスがアジアのGPUインフラ・ブームをリードする理由

次のページ
次のページ

インドネシアのAI革命:東南アジア最大の経済大国はいかにして世界のAI大国になったか