AI時代の米国データセンター:GPUインフラはいかに変貌するか
舞台を整える:AIブームとデータセンター
目を閉じて、機械学習モデルを "アルゴリズム・ウィザードリー "と呼ぶよりも早くクランチする準備が整った、うなるようなサーバーが無限に広がっている様子を想像してみてほしい。それが米国の近代的なデータセンターであり、技術革新の温床(文字通り、GPUの熱のおかげで)であり、ますます技術主導になるこの世界の「AI工場」へと進化している。
人工知能(AI)アプリケーションの急増は、データセンター建設とGPU導入における軍拡競争を引き起こした。それは、株価を予測するニューラルネットワークからコンテンツ作成のルールを書き換えるジェネレーティブ・テキスト・モデルに至るまで、今日の最先端のAIモデルを訓練し実行するために、本格的なコンピューティング能力を活用することだ。
McKinsey & CompanyとDell'Oro Groupがまとめた調査によると、AIパワーとGPUベースのアクセラレーションが、全米の主要ハブにおける新規施設と拡張への記録的な投資を促している。5,300を超える米国のデータセンターが世界市場の約40%を占めており、その割合は上昇の一途をたどっている。
GPUが主役の理由
現実を見よう:CPUベースのシステムは依然として強力だが、GPUは最先端のAIインフラの心臓部となっている。GPUは並列処理に優れており、高度な機械学習モデルのトレーニングに不可欠な数百万(または数十億)の計算を同時に処理できる。Dell'Oro Groupによると、GPUとアクセラレーターの売上は2024年第2四半期だけで540億ドルに達するというのも驚くことではない。
NVIDIAの優位性は、Hopperの後継であるBlackwellアーキテクチャで続いており、AIワークロードに前例のない性能を提供しています。 GB200システムは、2025年5月現在、オラクル・クラウド・インフラストラクチャがデータセンターに数千のNVIDIA Blackwell GPUを最初に導入しており、発表から実際の展開へと移行しています。これらの液冷GB200 NVL72ラックは現在、NVIDIA DGX CloudとOracle Cloud Infrastructure上で顧客が使用できるようになっており、次世代の推論モデルとAIエージェントを開発・実行することができます。他のクラウドプロバイダーも急速に追随しており、AWS、Google Cloud、Microsoft Azure、CoreWeaveのようなGPUクラウドプロバイダーはすべて、今後数カ月のうちにBlackwell搭載インフラを計画している。
NVIDIAは、3月のGTC 2025で発表したBlackwell Ultraアーキテクチャにより、AI製品をさらに拡充した。Blackwell Ultraは、標準的なBlackwell GPUと比較して、2倍のアテンション・レイヤー・アクセラレーションと1.5倍のAIコンピュートFLOPSで、オリジナルのBlackwell設計を強化している。このプラットフォームの次の進化は、「AI推論の時代」のために特別に設計されており、信頼できるI/O仮想化を特徴とする最初のGPUを含む、改善されたセキュリティ機能を備えています。さらに先を見据えて、エヌビディアは次世代Rubinアーキテクチャのロードマップも明らかにしており、デビュー時にはAI推論と高性能コンピューティングに焦点を当てる予定だ。
しかし、そのパワーを引き出すには、データセンターに特化した設計が必要だ。それには以下が含まれる:
高密度冷却:従来の空冷は、各ラックの消費電力が130kWに達すると白旗を振り始めます。これらのGPUクラスターをメルトダウンの領域から守るために、液冷技術が台頭している:
単相直接チップ冷却:GPUとCPUに直接取り付けられたコールドプレートを通して冷えた液体を循環させ、空気の3,000倍の効率で熱を吸収する。NVIDIAは、消費電力が2,700Wを超えるため、すべてのBlackwell B200 GPUとシステムに液冷を義務付けています。GB200 NVL72システムは、このダイレクト・トゥ・チップ冷却アプローチを採用しており、従来の冷却システムよりも25倍エネルギー効率が高く、300倍の水効率があると言われています。冷却水は、毎秒2リットルで25℃のラックに入り、20℃高い温度で排出されるため、相変化による水の損失がありません。
液浸冷却:単相および二相システムは、サーバーを誘電体液に完全に浸すことにより、ホットスポットをなくし、ラックあたり250kWに迫る高密度を実現します。
堅牢な電力インフラエネルギー省と電力研究所(EPRI)によると、データセンターの電力需要は、2028年から2030年までに米国の総電力消費量の6.7%から12%に達すると予測されており、事業者は信頼性の高い、理想的にはグリーンなエネルギー源の確保に躍起になっている。この予測は、2023年にデータセンターが消費した米国の電力量の約4.4%から飛躍的に増加したことを意味し、AIワークロードがこの加速的な成長の主な原動力となっている。
戦略的立地計画:AIのトレーニングは、特定の金融やエッジコンピューティングタスクのような超低レイテンシを必要としないため、企業は、電力が安く土地が豊富なアイオワ州やワイオミング州などに、GPU中心のデータセンターを戦略的に新設しています。GB200 NVL72システムは現在、120~140kWのラック電力密度をサポートしており、信頼できる電源の近くに戦略的に設置することがより重要になっています。
成長、投資、そして競争
バージニア州北部の「データセンター・アレイ」からダラス・フォートワース、シリコンバレーに至るまで、クラウド大手(アマゾン、マイクロソフト、グーグル、メタ)やAIを駆使する新規参入企業が、巨大な拡張の波を後押ししている。アナリストらは、米国のデータセンター市場は2030年代初頭までに2倍以上、3500億ドルから6500億ドル以上に達すると予測している。
この成長の中心にあるのは、AIの変革に対応する緊急の必要性である:
オープンAI、オラクル、ソフトバンクが支援する野心的な5000億ドル規模のプロジェクト・スターゲート構想は、全米に20の大規模AIデータセンターを建設し、前例のないコンピュート需要に対応しながら、主権を持つAI能力を創出することを目的としている。
主要なAIラボはインフラを急速に拡張している:
OpenAIは、ウィスコンシン州マウントプレザントにある次世代クラスターでマイクロソフトと提携している。このクラスターには、エヌビディアのB200 AIアクセラレータが約10万台設置される。
Anthropicは、クロードのトレーニングと推論のニーズに対応するため、AmazonとGoogleから数十億ドルの出資を獲得している。
xAI(イーロン・マスクのAIベンチャー)は最近、テネシー州メンフィスに新しいAIデータセンターを立ち上げた。このセンターでは、Grokモデルを構築する間、発電用にモジュール式天然ガスタービンを使用している。
マイクロソフトやアマゾンのようなハイパースケーラは、進化するAIワークロードに対応するため、数十億ドル規模のデータセンター・プロジェクトを開発している。
コロケーション・プロバイダーはキャパシティを拡大しており、多くの場合、建設が一段落する前に、新しい施設を70%以上プレリースしている。
電力需要の高い地域(バージニア州北部)では電力制約があるため、賢明なプレーヤーはエネルギー発電所、あるいは原子力施設の近くに建設し、GPUに供給される電力を途切れさせないようにしている。
エヌビディアはまた、CES 2025で発表されたパーソナルAIスーパーコンピュータ「Project DIGITS」によって、グレース・ブラックウェル・コンピューティングへのアクセスを民主化した。このシステムは、GB10 Grace Blackwell Superchipを個人のAI研究者や開発者に提供し、デスクトップ型のフォームファクターでFP4精度で最大1ペタフロップのAI性能を実現します。Project DIGITSにより、開発者は、クラウドやデータセンターのインフラストラクチャに展開する前に、同じGrace BlackwellアーキテクチャとNVIDIA AI Enterpriseソフトウェアプラットフォームを使用して、ローカルでモデルのプロトタイプを作成し、テストすることができます。
地平線上の課題
持続可能性データセンターの電力需要が急増する中、事業者はエネルギーフットプリントに関する監視の強化に直面している。太陽光発電、風力発電、その他の再生可能エネルギーの長期契約を結ぶ事業者が増えています。しかし、容量を2倍、3倍に増やしながら二酸化炭素排出量を削減しなければならないというプレッシャーは、大きな課題を抱えるこの業界にとってさえ、大きな課題です。
インフラのボトルネック:一部の電力会社は、送電網の容量を増強できるまで、特定のホットスポットでの新規接続を一時停止している。一方、中西部でのデータセンター新設は、送電の制限に対処しなければならない。
コストの上昇:膨大な需要と逼迫した供給により、価格は上昇している。250~500kWのスペースの募集賃料が前年比12.6%上昇した(CBREのデータによる)ことは、この市場の競争力を裏付けている。
こうした波はあるものの、全体的な基調は依然として楽観的だ:AI、ビッグデータ、クラウド・コンピューティングは、パフォーマンスとイノベーションの飛躍を牽引し続けている。かつてはインターネットのヒーローであったデータセンターが、脚光を浴びつつある。
イントロルの出番高性能コンピューティング(HPC)の正しい使い方
このようなGPUの拡張とデータセンターの変革をアクション映画に例えるなら、イントロールは最終幕にヘリコプターで到着する特殊部隊のようなもので、プレッシャーの中でも冷静で、常に任務遂行可能である。
GPUインフラの増強をお考えですか?イントロルの GPUインフラ導入は、大規模なクラスタの設置から高度な冷却戦略まで、すべてをカバーしています。シームレスなデータセンター移行が必要ですか?当社のアプローチは、ダウンタイムゼロを保証し、ベストプラクティスを織り交ぜながら、サーバーをスムーズに移転します。
緊急の人材派遣をお考えですか?イントロールの 人材派遣ソリューションは、800人以上の専門技術者の全国ネットワークを提供します。構造化ケーブリングにお悩みですか?イントロールの構造化ケーブリングと封じ込めサービスをチェックして、もつれやつまずきの危険なくデータフローを維持しましょう。
私たちのミッションは100,000GPUでも10GPUでも、お客様のスケジュールに合わせてAIとHPCの導入を加速します。
未来:AI工場と持続可能なイノベーション
次世代データセンターが、リアルタイムの自然言語処理から高度な科学シミュレーションまで、あらゆることを可能にする「AI工場」に変貌しつつあることは周知の事実だ。ここではいくつかの重要な方向性を紹介する:
GPUを超える:エヌビディアが優位を占める一方で、カスタムAIアクセラレータが代替となる可能性が出てきている。Cerebras Systemsのようなウェハースケール・エンジンや、Lightmatterのような新興企業のフォトニック・プロセッサは、可能性の限界に挑戦しており、特定のAIワークロードに対してより高い効率を提供できる可能性がある。
さらなる液冷:GPUラックの密度が100kWを超え、液冷はHPC環境にとって譲れないものになりつつあります。
AIによる管理:皮肉なことに、AIを稼働させているデータセンターでは、AIを予測メンテナンスやエネルギー最適化にも活用しており、効率性を高めている。
マイクログリッドと再生可能エネルギー:再生可能エネルギー農場、地域の発電所、信頼できるバックアップ電源のための自家発電との提携が増えることを期待する。
電力制約や持続可能性への圧力に直面しても、米国のデータセンターがグローバル・デジタル経済の心臓部であり続けることを示唆する勢いがある。ハイパフォーマンス・コンピューティング、ハイパーコンバージェンス、AI主導のサービスは、いずれも光速で前進しており、我々はまだウォームアップを始めたばかりである。
まとめENIACからAIの涅槃へ
ENIACを収容する最初のデータセンターが1945年にオープンしたとき、それが現代のAI工場の青写真になるとは誰も想像できなかっただろう。今日、データセンターは抽象的な計算理論と現実の世界を変えるアプリケーションとのギャップを埋めている。
AIスタートアップを急成長させるにせよ、企業のHPC環境をスケールアップするにせよ、GPU中心のインフラを活用する時は今です。AIデータセンターの進化において信頼できるパートナーをお探しなら、つまり限界を押し広げるシステムの設計、導入、管理を支援するパートナーをお探しなら、イントロールはそれを実現するためにここにいます。
具体的なお話をお聞かせください。 イントロールにAIを活用した未来への道筋を描きましょう。
(結局のところ、私たちはこの新しい時代の幕開けを迎えたにすぎない。)