構造化ケーブリング対液冷コンジット:100kW以上のラックに対応する設計

データセンターはかつてメガワット単位でその成果を数えていたが、今日ではラックあたりキロワット単位で自慢している。AIワークロードが急増し、ラック密度が100kWの大台を超えると、ファシリティチームは新たなバランス調整に直面します。そのため、すべての経路、パイプ、パッチパネルが0日目からその威力を発揮しなければなりません。

100kWのしきい値

最新のGPUシェルフでは、1ラックあたり100kWを超える電力を消費しており、かつては小規模な変電所だけのものだった。このような高密度を目指す事業者は、ケーブル設備と冷却ネットワークの両方を一流のインフラに昇格させる必要があります。どちらのシステムもおろそかにすると、プレミアムホワイトスペースは生産的なデータホールではなく、特大のスペースヒーターに変質してしまいます。

構造化ケーブリング:信頼性の基盤

構造化ケーブリングは、銅線とファイバーの経路を規律ある階層に配置し、3つの重要な利点をもたらします:

-妨げられないエアフロー。束ねられたトランクが床下および頭上のプレナムを保護するため、CRAHユニットは安定した冷気供給を維持します。

-平均修理時間の短縮。明確にラベル付けされたポートと終端処理済みのカセットにより、技術者は数分以内に故障したリンクを切り分け、復旧することができます。

-信号の完全性。高密度カセットが適切な曲げ半径を確保し、400GbE光学部品を微小曲げ損失から保護します。

空冷式ホールは、ケーブル配線が重要なエアフローを妨げない場合にのみ成功する。

液冷コンジット直接熱抽出

空冷は、ラックあたりおよそ50kWを超えると効率が低下します。コールドプレートループや浸漬タンクによる液冷は、チップから熱を除去し、外部の熱交換器に送ります。

-優れた熱容量。同じ温度上昇で、水は空気よりも体積比で3,500倍も効率よく熱を奪う。

-エネルギー効率の改善。クーラント供給温度を下げることで、オペレータはチラーのセットポイントを上げ、生産配備においてPUEを10~20%削減することができます。

-経路の調整。液体ホースは専用のトレイスペースが必要なので、設計チームはレイアウトの段階で光トランクから分離する。

比較業績ハイライト

-熱除去:熱の除去:構造化されたケーブルは、妨げのないエアフローを促進するのに対し、液冷コンジットはコンポーネント・レベルで直接熱を抽出します。

-メンテナンスケーブリング作業員はカセットを交換し、リンクを素早く確認する。冷却のスペシャリストはドライクイックディスコネクトを装着し、リークチェックを行う。

- スペース需要:ファイバーバンドルはコンパクトなままですが、クーラントホースはより大きな直径と広い曲げ半径が必要です。

-故障の影響:1本のファイバー断線は1つのリンクを孤立させ、クーラント漏れはより広範なダウンタイムの引き金となります。

-スキル要件:ケーブル配線作業には低電圧ネットワーク技術者が必要であり、液体システムには機械や流体処理の専門家が必要である。

ほとんどのハイパースケール施設では、構造化ケーブリングがデータを伝送し、液体導管が熱を除去するという、両方のシステムが混在している。

イントロルズ・イントロールの迅速展開手法

550人のエンジニアが72時間以内に出動し、14日間で1,024台のH100ノードと35,000本のファイバーパッチを設置し、完全に計装化された封じ込めシステムをスケジュール通りに提供します。

コアプラクティスには以下が含まれる:

1.専用通路。熱い通路の上の頭上トレイは液体ホースを運び、床下の接地バスケットはファイバー・トランクを運ぶ。

2.高密度ファイバー。24本のMPOトランクがバンドル幅を最小化し、クーラント・マニホールド用のスペースを確保。

3.ショートラン・マニホールド。ラックレベルマニホールドは、ホースの長さを短くし、隔離されたドライブレイクゾーンを作ります。

4.分野横断的なトレーニング。ネットワーク技術者は流体処理手順を認定し、機械スタッフはファイバー管理の公差を習得する。

持続可能性と今後の展開

ハイブリッド配線路は、シールドファイバーチャンネルとツイン液体ループを束ねることで、設置の合理化とトレイスペースの節約を実現している。 ⁷ 米国国立再生可能エネルギー研究所のエンジニアは、ラックレベルの廃熱を回収して地域暖房グリッドに供給し、余剰熱エネルギーを地域の暖かさに変えている。

私たちのエンジニアは、すべての新しいアイデアをパイロット・ラボで厳密なテストにかけ、合格したものだけを実際のプロジェクトに導入します。よりタイトなラック・レイアウト、より低い電気代、そして現場チームと経営陣の双方が誇りを持てるサステナビリティの勝利。

結論

構造化ケーブリングはデータの完全性と運用の俊敏性を保証し、液冷コンジットは高密度で熱安定性を提供します。設計時にこの2つのシステムを調整することで、予測可能なパフォーマンス、最適化されたエネルギー使用、迅速な導入スケジュールが実現します。入念な経路計画、規律ある設置、部門横断的な専門知識が、100kWラックを野心的なコンセプトから信頼できる現実へと変貌させます。

参考文献(シカゴ著者-日付)

1.Uptime Institute.グローバルデータセンター調査2024:基調報告 146M.ニューヨーク:Uptime Institute, 2024.

2.シスコシステムズ400Gデータセンターにおける光ファイバーケーブルのベストプラクティス。San José, CA:Cisco White Paper, 2023.

3.米国暖房冷凍空調学会(American Society of Heating, Refrigerating and Air-Conditioning Engineers)。データ処理環境の熱ガイドライン、第6版。アトランタ:ASHRAE, 2022.

4.ローレンス・バークレー国立研究所。Measured PUE Savings in Liquid-Cooled AI Facilities.Berkeley, CA:LBNL, 2024.

5.イントロール"Accelerate the Future of AI with Introl Managed GPU Deployments".2025 年 6 月 26 日アクセス。https://introl.com/.

6.はじめに"フランクフルトのケーススタディ"https://introl.com/case-studies/frankfurt.

7.オープン・コンピュート・プロジェクト先進冷却ソリューション:2025 仕様ドラフト。カリフォルニア州サンホセ:OCP Foundation, 2025.

8. Huang, Wei."Rack-Level Heat Recovery in Liquid-Cooled AI Clusters".Journal of Sustainable Computing12, no.3 (2024):45-58.

9. ASHRAE.2025年1月、熱ガイドラインの補遺C案、パブリックレビュー草案。

前へ
前へ

持続可能性を考慮したデータセンターの構築:何が有効か

次のページ
次のページ

なぜNVIDIA GB300 NVL72(ブラックウェル・ウルトラ)が重要なのか🤔?