コアウィーブAIインフラ革命 - 暗号マイニングのスタートアップはいかにして230億ドルの人工知能の基幹企業になったのか?

CoreWeaveは、暗号通貨マイニングの起源から、世界で最も特化したAIクラウド・インフラストラクチャ・プロバイダーとなり、GPUスーパーコンピューターを前例のない規模で運用する一方、従来のハイパースケーラーとは一線を画す液体冷却とベアメタルアーキテクチャを開拓した。2017年のイーサリアム採掘からOpenAIのGPTモデルへの電力供給への同社の転換は、シリコンバレーで最も劇的なピボットであり、190億ドルの評価額(2024年5月)で75億ドルの負債融資を受け、その後230億ドル(2024年10月)でセカンダリー売却されたこと、2024年に737%の爆発的な収益成長を達成したこと、 SemiAnalysisの新しいClusterMAXフレームワークでトップクラスに格付けされたことなどが実証されています。

CoreWeaveが構築した技術的堀は、アクセラレーテッド・コンピューティング専用に最適化された特殊なアーキテクチャを活用している。従来のクラウドプロバイダーが汎用ワークロードとGPUコンピューティングのバランスを取っているのに対し、CoreWeaveはスタックの各レイヤーをAIとHPCアプリケーション向けに特化して構築している。同社のベアメタルKubernetesアーキテクチャは、仮想化のオーバーヘッドを完全に排除し、Direct-to-Chip液体冷却は、空冷設備ではかなわない130キロワットのラック密度を可能にする。この基本的なアーキテクチャの優位性は、トポロジーを考慮したスケジューリングとInfiniBandファーストのネットワーキングと組み合わされ、CoreWeaveの報告によると、HopperクラスのGPUで50%を超えるモデルFLOPS利用率を実現している。

NVIDIAとの共生関係は一般的なベンダー・パートナーシップを超越しており、NVIDIAは2025年3月現在、約6%の株式を保有し、画期的なアーキテクチャの初展開に一貫してCoreWeaveを選択している。CoreWeaveは、GB200 NVL72システム(2025年2月)で最初に一般提供を開始し、GB300 NVL72システム(2025年7月3日)で最初に展開しました。GB300の導入により、NVIDIAは「推論モデルの推論出力が最大50倍向上する」と説明していますが、これは査読を経たベンチマークではなく、ベンダーのマーケティングによるものです。 (NVIDIAのマーケティングガイダンス。)

CoreWeaveは12.1億ドルの四半期収益(2025年第2四半期)を達成し、301億ドルの契約バックログを維持し、マイクロソフト(2024年収益の62%を占める)、OpenAI(最大119億ドルの契約と40億ドルの拡張)、および大規模な訓練と推論に最適化されたパフォーマンスレベルを必要とする他のAIリーダーからアンカーカスタマーコミットメントを確保しています。2025年3月に1株当たり40ドルでIPOしたことにより、コアウィーブは約15億ドルの資金を調達し、世界のAIコンピュート需要が加速する中で価値を獲得できる上場企業としての地位を確立した。

コアウィーブは110億ドル超の負債を抱え、 第25四半期には支払利息が2億6,700万ドル(第24四半期は6,700万ドル)に達し、バランスシートの規模が拡大するにつれて年率10億ドル超になることを示唆している。この資本構成は、ハイパースケーラの競合他社に先駆けてインフラを展開するために、完璧な実行を要求している。 2024年の売上高の62%をマイクロソフトが占め 、上位2社の売上高は77%に達する。

このディープダイブ分析では、CoreWeaveがどのようにしてAIに特化したインフラを第一原理から設計したのか、なぜハイパースケーラの競合に対して同社の技術的優位性が意味を持つのか、そして同社の積極的な拡大戦略はエクサスケールコンピューティングインフラの構築という資本集約的な現実を乗り切りながら技術的リーダーシップを維持できるのかを検証します。技術文書、性能ベンチマーク、業界分析を通じて、ニュージャージー州のガレージで暗号通貨の採掘を始めた企業が、いかにして人工知能開発の重要なインフラとして自らを位置づけたか、そしてこの軌道に影響を与える可能性のある財務上の課題を明らかにする。

CoreWeaveの優位性:AIワークロードのための専用インフラストラクチャ

AIワークロードには従来のクラウドコンピューティングとは根本的に異なるインフラストラクチャが必要であるというCoreWeaveの基本的な洞察が、学習、微調整、推論の各ワークロードで測定可能なパフォーマンス上の利点をもたらすアーキテクチャ上の決定を後押ししました。ハイパースケーラがウェブアプリケーション、データベース、エンタープライズソフトウェア向けに最適化するために数千億ドルを投資する一方で、CoreWeaveは、大規模な言語モデルやニューラルネットワークには、汎用データセンターが一貫して提供するのに苦労するような極端なメモリ帯域幅、超低レイテンシの相互接続、持続的な放熱が必要であることを認識していました。

技術的な差別化は、GPUワークロード専用に最適化された完全な垂直統合から始まります。CoreWeaveのベアメタルKubernetesアプローチは、仮想化レイヤーを介さずにGPU、CPU、ネットワーク、ストレージリソースへの直接的なハードウェアアクセスを提供する。トポロジーを考慮したスケジューリングによりGPU間の通信レイテンシを最小化し、専用のInfiniBandファブリックによりGPUあたり400Gb/秒の接続性を実現する。Google CloudのA3インスタンスはVMあたり3.2Tbpsを提供し、AzureのND H100 v5は1.6~3.2Tbpsクラスの接続性を提供し、AWSのP5クラスタはSR-IOV/EFAで3200Gbpsのインスタンスネットワーキングを提供する。CoreWeaveが提供するクラスタ・トポロジー、スケジューラ配置の最適化、ラック規模での液冷式熱管理は、リンク速度の差よりも大きな差別化要因となっている。

NVIDIAが公表しているベンチマークによると、CohereはCoreWeaveのGB200 NVL72システム上で、旧世代のHopper GPUと比較して最大3倍高速なトレーニングを達成した。しかし、これは世代を超えたハードウェアの改良であり、クラウド間の比較ではありません。その他の顧客による性能に関する主張は、業界の議論では広まっていますが、企業自身による公的な検証は行われていません。

CoreWeaveは、数百のサービスを提供するのではなく、GPUコンピュートのみに特化することで、AIワークロード向けに業務のあらゆる側面を最適化することができます。この特化により、新世代のハードウェアの迅速な導入(従来のクラウドでは数週間対数四半期)、管理オーバーヘッドの削減による運用の簡素化、パフォーマンスを優先するGPUネイティブの顧客との直接的な関係、予約インスタンス、オンデマンド、2025年後半に開始するスポット価格などの柔軟な利用モデルが可能になる。

AWS、Google Cloud、Microsoft Azureは、ネットワークとベアメタルオプションを改善し、GPUの提供を拡大しており、AIインフラの戦略的重要性を認識するにつれ、ハイパースケーラーとの競争は激化している。しかし、CoreWeaveの特化したアプローチと、NVIDIAの最新ハードウェアによる先行者優位性が差別化を生み出している。2025年3月~4月時点でSemiAnalysisのプラチナレベルのClusterMAX評価を唯一獲得しているCoreWeaveは、技術的なリーダーシップを発揮しています。

イーサリアムの採掘から基礎モデルのトレーニングまで:ありそうでなかった生い立ち

CoreWeaveが暗号通貨マイニング事業からAIインフラ大国へと変貌を遂げたのは、共同創業者であるマイケル・イントレーター、ブライアン・ヴェントゥーロ、ブラニン・マクビーの3人が、GPUの専門知識が暗号パズルを解く以上の価値ある目的に役立つと認識した2017年に始まった。ニュージャージー州ウィーホーケンを拠点とする同社は当初、イーサリアムのマイニングに注力し、カスタム冷却ソリューションやオーケストレーション・ソフトウェアを開発しながら何千ものGPUを蓄積した。

イーサリアムがプルーフ・オブ・ステークに移行し、GPUマイニングが完全に廃止される恐れがあった2019年に、極めて重要な瞬間が訪れた。CoreWeaveの創業者たちは、一般的な採掘業者のように資産を清算するのではなく、従来のクラウド上でハードウェアへのアクセスに苦労していた機械学習研究者にGPUコンピューティングを提供するという新たな市場機会を見出した。初期の顧客には、実験用のバーストコンピューティングを必要とする学術機関、映画のCGIをレンダリングする視覚効果スタジオ、コンピュータビジョンモデルをトレーニングする新興企業などがいた。

2020年のパンデミックは、リモートワークがクラウドレンダリングの需要を促進すると同時に、業界全体でAIの導入を促進したため、CoreWeaveの軸足を加速させた。CoreWeaveは、リスクモデリングに大規模な並列処理を必要とするヘッジファンドと初の大手企業契約を締結し、暗号通貨投機以外のビジネスモデルを検証した。年末までに、CoreWeaveは10,000以上のGPUを運用し、タンパク質の折りたたみシミュレーションからリアルタイムのビデオトランスコーディングまで、多様なワークロードに対応している。


2022年、OpenAIがGPTモデルトレーニングのインフラストラクチャーパートナーとしてCoreWeaveを選択したとき、CoreWeaveは大規模トレーニングに最適なInfiniBandネットワーキングを備えた数千のA100 GPUを迅速に導入する能力に魅力を感じ、ブレークスルーを迎えました。この導入の成功により、CoreWeaveのアーキテクチャがかつてない規模で検証され、さらなる基礎モデルをカバーする契約の拡大につながりました。このアンカーカスタマーは、収益の安定性と技術的な信頼性の両方を提供し、さらなるAIのパイオニアを惹きつけました。

ベンチャーキャピタルはCoreWeaveのAIサプライチェーンにおける戦略的ポジションを認め、Magnetar Capitalは2022年に2億ドルのシリーズBを主導し、その後急速に評価を伸ばした。2024年5月、Blackstone、Coatue、その他から総額75億ドル、評価額190億ドルの負債融資を受け、テクノロジー史上最も大規模な民間信用枠のひとつとなり、爆発的な需要に対応するための積極的なインフラ拡張を実現しました。

暗号通貨マイニングの文化的DNA(技術的リスクを受け入れ、効率を最適化し、24時間365日の信頼性を維持する)は、AIのインフラ要件に完璧に変換された。GPUから最大限のハッシュレートを引き出した同じエンジニアが、今ではテンソル演算を最適化し、不安定な暗号市場から利益を得るために必要な財務規律が、資本集約的なインフラ事業をナビゲートするのに役立っている。このありそうでなかった起源ストーリーは、技術的破壊がしばしば既存企業ではなく、隣接する産業から生まれることを実証している。

複雑な資本構造は、チャンスとリスクの両方を反映する。

コアウィーブの資本構成は、AIインフラにおける大きなビジネスチャンスと、ハイパースケールでの競争における資本集約的な性質の両方を反映している。資金調達の歴史には、約14%の金利で75億ドルの債務枠(2024年5月)、複数のラウンドにわたる10億ドルを超える株式資金調達、230億ドルの価値を評価する株式の売出し(2024年10月)、1株当たり40ドルで15億ドルのIPO(2025年3月28日)が含まれ、負債を含めて350億ドルを超える企業価値を持つ公開会社が誕生する。

アンカー投資家は資本を超えた戦略的価値を示す。エヌビディアの約6%の株式は、2025年3月現在で9億ドル、5月までに約16億ドルの価値があり、ハードウェア/ソフトウェアの最適化に関する技術協力を提供する一方で、割り当ての制約中にGPU供給への優先的なアクセスを保証する。マイクロソフトの顧客との関係は、CoreWeaveが不可欠なインフラであることを証明している。Fidelity、BlackRock、Altimeterを含む投資家コンソーシアムは、企業向け販売と将来の資金調達に不可欠な組織的信用をもたらします。

顧客の集中は、有効性とリスクの両方をもたらす。S-1提出書類によると、マイクロソフトはコアウィーブの2024年の売上高の約62%を占めている。これは、急速な拡大を可能にする依存関係であるが、契約再交渉や戦略的転換に対する脆弱性を生み出している。具体的な契約期間は公表されていないが、これらの契約は長期契約であるため、ある程度の安定性がある(受注期間は通常2~5年)。OpenAIの最大119億ドルのコミットメントと、同社の投資家向け広報資料で開示されたその後の40億ドルの拡張は、追加のアンカー収益を提供する。IBMや大手金融機関を含む広範な顧客基盤は、当初のアンカー・テナント以外の市場拡大を示している。

2025年第2四半期時点で301億ドルの収益バックログは、インフラ企業にとって前例のない可視性を提供し、契約収益は複数年のフォワードコミットメントに相当する。収益認識はインフラの可用性に左右されるため、企業顧客が求める信頼性を確保しつつ、積極的な展開スケジュールを維持しなければならないというプレッシャーが生じる。

業績は、AIインフラストラクチャーの厳しい単位経済性を明らかにしている。2025年第2四半期決算では、売上高は12.1億ドルだったが、赤字幅は拡大し、急速に進化するハードウェアの巨額の減価償却費、債務負担を考慮すると毎年10億ドルに迫る支払利息、インフラ展開に伴う運用コストの拡大に直面している。黒字化への道には、固定費を償却するための規模の拡大、稼働率の向上、競争圧力にもかかわらず価格規律の維持が必要であり、成長と持続可能性の微妙なバランスが求められる。

2025年5月のWeights & Biasesの約17億ドルでの買収(TechCrunchと業界の報道による、ただし正式な条件は未公表)は、統合の複雑性を高めつつ、MLOpsの機能を追加するものだ。この買収は2025年5月5日に完了し、1,400以上の企業で使用されているインフラとモデル開発ツールが統合された。

専門化とパートナーシップにより市場での地位を強化。

CoreWeaveの市場戦略は、従来のクラウドプラットフォームのアプローチを覆すもので、意図的に範囲を限定することで、GPUアクセラレーテッドコンピューティングにおける比類のない深みを実現しています。AWSが考え得るあらゆるワークロードにわたって200以上のサービスを提供するのに対し、CoreWeaveはAIのトレーニングと推論に最適化されたGPUコンピューティング・インフラストラクチャを集中的に提供する。この特化により、汎用のプラットフォームがより広範な要件に対してバランスを取るアーキテクチャの最適化と運用効率が可能になります。

競争の力学は急速に進化し続けている。AWS、Google Cloud、Azureは、広帯域幅のネットワーキング・オプション、ベアメタル・インスタンス、GPUの可用性の向上を提供するようになり、ハイパースケーラはGPUの提供を大幅に強化している。差別化の中心は、生のスペックだけでなく、クラスタ・スケールの可用性、トポロジーの最適化、熱管理、ソフトウェア・スタックの統合になりつつある。

CoreWeaveのパートナーシップ戦略は、エコシステムの深い統合を通じて、その集中的なアプローチを増幅させます。NVIDIAとの関係は、顧客とサプライヤーの関係を超えて広がっています。NVIDIAの資本参加と、新アーキテクチャの立ち上げにおけるCoreWeaveの一貫した選択(GB200 NVL72は2025年2月、GB300 NVL72は2025年7月)は、戦略的な連携を示しています。Databricks、Hugging Face、およびその他のAIプラットフォームとのパートナーシップは、CoreWeaveが競合サービスを構築する必要なく、ワークフローの互換性を保証します。

地理的な拡大は、AIのイノベーション・ハブに続くもので、英国での事業やノルウェー、スウェーデン、スペインでの再生可能エネルギーを活用した施設に10億ポンドを含む、欧州のインフラに35億ドルをコミットしている。同社は、2025年時点で33のデータセンターを運営し、約470MWの有効IT電力と約2.2GWの契約容量(2025年第2四半期)を有し、継続的な成長を位置づけている。

持続可能な競争優位性は、特化したインフラが要求の高い顧客を引き付け、集中した需要が継続的な投資を正当化し、技術的リーダーシップが新しいハードウェアへの早期アクセスを保証するという複合効果に由来する。これによりコアウィーブは独自のポジションを確立しているが、資本要件と競争圧力を考えると、実行リスクは依然として大きい。

技術インフラかつてない規模でAIをエンジニアリングする

CoreWeaveのデータセンターは、2025年現在、米国と欧州で33カ所に及んでおり、世界最大級のGPU専門施設となっている。この地理的分布には、テキサス州プラノにある16億ドルの施設(454,421平方フィート、3,500台以上のH100 GPUを収容)など、主要な配備を行う米国の28拠点が含まれています。MLPerfトレーニングv5.0の提出(2025年6月)において、CoreWeave、NVIDIA、IBMは、Llama 3.1 405Bを27.3分でトレーニングするために2,496 GB200 GPUを使用し、過去最大のベンチマークを達成しました。

電力インフラは、2025年第2四半期現在、約470メガワットの有効容量と約2.2ギガワット以上の契約容量を持つ重要な差別化要因であり、卓越した効率のために設計された設備を含みます。ラックあたり130キロワットをサポートする液冷技術は、従来の30キロワットの空冷限界と比較して、ラックあたり72個のGPUを搭載するNVIDIA GB200 NVL72システムのような高密度構成の展開を可能にします。

GPUフリートは、NVIDIAの最新アーキテクチャを中心に構成されており、合計で約25万個のGPUが配備されています。この構成には、SXM5およびPCIe構成のH100、141GB HBM3eメモリ搭載のH200 GPU、およびGB200 NVL72システムの初期導入が含まれます。CoreWeaveは、GB200 NVL72の最初の市場投入(2025年2月)とGB300 NVL72の最初の展開(2025年7月3日)を達成し、NVIDIAの新しいハードウェアへの早期アクセスというパターンを維持しています。

ネットワーキングのバックボーンには、NVIDIA Quantum-2 InfiniBandが採用されており、ConnectX-7アダプタを通じてGPUごとに400Gb/秒のスループットを提供します。差別化のポイントは、トポロジーの最適化、スケジューラーの統合、およびクラスタ間での一貫した構成にあります。

ストレージアーキテクチャは、独立したスケーリングのための分散アーキテクチャを利用したVAST Data Platformのデプロイメントを中心としています。このシステムは、トレーニングリードとチェックポイント書き込みを区別する最適化されたI/Oパターンで、GPUあたり最大1GB/秒の持続スループットを達成します。CoreWeaveのLOTA(Local Object Transfer Accelerator)テクノロジーは、頻繁にアクセスされるデータをGPUノードにキャッシュし、スループットを向上させながらネットワークトラフィックを削減します。

ベアメタルのパフォーマンスに最適化されたソフトウェアスタック。

CoreWeaveのベアメタルKubernetesアーキテクチャは、Kubernetesをハードウェア上で直接実行することで、仮想化のオーバーヘッドを排除します。このアプローチは、NVIDIA BlueField DPUを通じてマルチテナントを維持しながら、ハードウェアへの直接アクセスを提供します。内部ベンチマークでは、これによってHopper GPU上で50%を超えるモデルFLOPS利用が可能になるとしています。

CoreWeave Kubernetes Service(CKS)は、CoreWeaveがコントロールプレーンを管理する一方で、データプレーンコンポーネントを顧客がコントロールできるようにすることで、一般的なマネージドKubernetesを超える拡張を実現します。CKSは、GPUドライバ、ネットワーク/ストレージ・インターフェース、および観測可能性プラグインで事前に構成され、Slurm、KubeFlow、およびKServeを含むワークロード・オーケストレーション・ツールと統合されます。

SUNK(Slurm on Kubernetes)は、Slurmをコンテナ化されたKubernetesリソースとしてデプロイすることで、HPCとクラウドのパラダイムを橋渡しし、バッチジョブと長時間稼働サービス間の動的なリソース共有を可能にします。InfiniBandファブリック構成に最適化されたトポロジーを考慮したスケジューリングにより、高い利用率を実現します。

Tensorizerテクノロジは、最適化されたシリアライゼーションとストリーミングによってモデル展開を高速化し、CoreWeaveのベンチマークによると、標準的なアプローチよりも5倍速いモデルロード速度を達成します。このオープンソースツールは、モデル全体をRAMにロードするのではなく、チャンクごとにモデルをストリーミングする「ゼロコピー」ロードを可能にします。

検証済みのパフォーマンスベンチマークによる最先端の展開

CoreWeave のインフラ実績には、スケールとパフォーマンスを実証する検証可能な MLPerf の提出が含まれます。2,496台のNVIDIA GB200 GPUを使用した2025年6月のMLPerf Training v5.0提出は、Llama 3.1 405Bのトレーニングを27.3分で完了しました。

MLPerf Inference v5.0の結果によると、GB200システムを使用したLlama 3.1 405Bの推論性能は800トークン/秒に達し、H200と比較してチップあたり2.86倍の向上を示しています。GB200 NVL72アーキテクチャは、ラックあたり72個のBlackwell GPUと36個のGrace CPUを組み合わせ、13.5TBのNVLink接続メモリで1.44エクサフロップスを実現します。

SemiAnalysisのClusterMAXレーティングシステムは、2025年3月から4月にかけて、50以上の技術要件にわたってAWS、Google Cloud、Azure、およびその他のプロバイダーと比較して評価し、CoreWeaveのみをプラチナ層に配置しました。この独立した評価は、技術的な差別化を検証するものであるが、この評価システムは、競合環境の進化に伴い、定期的な更新を予定している。

テクノロジー・パートナーシップはプラットフォーム能力を加速させる。

エヌビディアとのパートナーシップは、一般的なベンダーの関係を超えており、エヌビディアは2025年5月時点で約16億ドル相当の株式約6%を保有している。この深い統合は、新アーキテクチャの一貫した市場初導入や、最適化に関する共同エンジニアリングの取り組みに表れています。MLPerf の共同提出は、この技術協力を実証するものです。

IBMは、GraniteモデルのトレーニングにCoreWeaveインフラを導入し、GB200システムとQuantum-2 InfiniBandネットワーキングを活用しています。デルのインフラストラクチャー・パートナーシップには、GB200 NVL72を搭載したPowerEdge XE9712サーバーが液冷ラックに収められています。VAST Dataは、その分散アーキテクチャプラットフォームを通じて、CoreWeaveデータセンター全体のストレージを強化しています。

Weights & Biasesの約17億ドルでの買収(2025年5月5日完了)は、インフラとMLOps機能を組み合わせた統合AIプラットフォームを構築する。OpenAIやMetaを含む1,400以上の企業で利用されているこのプラットフォームは、相互運用性を維持しつつ、モデル開発とモニタリングツールを追加する。

将来の軌道は、成長と財政的持続可能性のバランスをとる。

CoreWeaveの将来を見据えた取り組みには、いくつかの重要な開発が含まれている。GB300 NVL72の展開(2025年7月)は、NVIDIAが「推論モデルの推論出力が50倍向上する」と販売することを約束するものですが、これは独自に検証されたベンチマークではなく、ベンダーの予測です。2025年後半に開始されるスポットGPUレンタルは、動的な価格設定でより低コストの中断可能なインスタンスを提供します。

総額35億ドルの欧州事業拡大により、GDPR要件に対応した再生可能エネルギー施設を通じてデータ主権を確立。契約電力容量1.6ギガワットに向けて拡張を続ける一方、液体冷却機能を拡張し、次世代ハードウェアをサポート。

財務上の課題には慎重な判断が必要です。110億ドル以上の負債を抱え、年間約10億ドルの支払利息が発生するため、コアウィーブは積極的な成長と黒字化への道筋のバランスを取らなければならない。マイクロソフトが2024年の売上高の62%を占めており、顧客集中リスクは依然として高い。コアウィーブは2025年第2四半期に12.1億ドルの売上を達成したにもかかわらず、赤字幅が拡大した。

市場機会は依然として大きく、IDCは2027年までに年間5000億ドルのAIインフラ支出を予測している。コアウィーブの専門的なアプローチと技術的な優位性は、大きな価値を獲得できる位置にあるが、資本要件、競争力学、成長の勢いを維持しながら顧客基盤を多様化する必要性を考えると、実行リスクは残る。

結論

CoreWeaveは、ベアメタルKubernetesアーキテクチャ、130kWのラック密度をサポートする液体冷却、NVIDIAの最新技術の一貫した市場初展開を通じて、測定可能な利点を提供する特化したAIインフラストラクチャを設計しました。暗号通貨マイニングからSemiAnalysisのClusterMAXシステムで唯一のプラチナ級プロバイダーになるまでの変革(2025年3月現在)は、集中戦略の成功の実行を示しています。2,496GB200のGPUを使用し、27.3分でMLPerf Trainingを提出した最大規模のLlama 3.1 405Bや、301億ドルの契約収益バックログなどの検証可能な実績により、CoreWeaveはAI開発の重要なインフラとしての地位を確立しています。

しかし、前進するためには、110億ドルを超える負債、2024年の収益の大半を占めるマイクロソフトへの顧客集中、ますます高性能になるハイパースケーラーとの競争など、大きな課題を乗り越える必要がある。同社が契約電力容量約2.2ギガワットに向けて規模を拡大し、次世代システムを展開する中で、財務的な持続可能性を達成しながら技術的なリーダーシップを維持できるかどうかが、この元暗号採掘業者がAIインフラの展望を恒久的に再構築できるかどうかを左右するだろう。

データは 2025 年 8 月 15 日現在のもの。情報源は会社提出書類、SEC 文書、MLPerf ベンチマーク、SemiAnalysis の業界分析など。

参考文献

  1. CoreWeave, Inc. - Form S-1(新規登録届出書)、米国SEC、2025年3月3日提出。(収益履歴;2024年737%成長;企業背景)(SEC)

  2. コアウィーブ - 目論見書(フォーム424B4)、米国SEC、2025年4月。(顧客集中;マイクロソフト=2024年売上の62%(SEC)

  3. コアウィーブ - 「コアウィーブ、好調な2025年第2四半期決算を発表」、ビジネスワイヤ/IR、2025年8月12日。(第2四半期売上高12億1,200万ドル、受注残高301億ドル稼働中470MW契約済み220GW、OpenAI 119億ドル+40億ドル拡大)(ビジネスワイヤ)

  4. ロイター - 「コアウィーブ、AIブームで売上高が予想を上回るも、損失拡大で株価下落」、 2025年8月12日。(第2四半期決算、33データセンター(ロイター)

  5. 2024年5月17日付ロイター「コアウィーブ、評価額190億ドルで75億ドルの負債を調達。(プライベートクレジット、評価額190億ドル)

  6. ロイター - 「コアウィーブ、6億5000万ドルの株式売出し終了...評価額230億ドル」 2024年11月13日。(セカンダリー評価額230億ドル(ロイター)

  7. SemiAnalysis - 「クラウドGPU性能評価システムClusterMAXのご紹介(2025年第2四半期)」、 2025年4月。(ClusterMAXの手法、CoreWeave=Platinum

  8. CoreWeave - "Blackwell at Scale:GB200 NVL72 on CoreWeaveの一般提供開始」、 2025年2月4日。(GB200 NVL72で最初のGA(ロイター)

  9. CoreWeave - "First NVIDIA GB300 NVL72 Deployment" (blog),July 3, 2025.(最初のGB300 NVL72デプロイメント。)(CoreWeave)

  10. NVIDIA Developer Blog - "Blackwell Ultra for the Era of AI Reasoning", March 19, 2025.(**"1ユーザーあたり10×TPS "+"1MWあたり5×TPS"⇒"最大50×出力 "のマーケティング・クレーム)(エヌビディア開発者)

  11. MLCommons - MLPerf Training v5.0 の結果(2025)。(Llama-3.1 405B27.3分2,496GB200、最大提出数)(Microsoft Learn)

  12. MLCommons - MLPerf Inference v5.0(データセンター)の結果(2025)。(Llama-3.1 405Bのスループット/レイテンシを含む。GB200とH200の比較はベンダーのサマリーで使用)(Microsoft Learn)

  13. AWS - P5 Instances / EFA Networking (official doc/blog).(EFA/SR-IOVによるp5での最大3,200Gbpsインスタンスネットワーキング)(Amazon Web Services, Inc.)

  14. Microsoft Azure - 「ND H100 v5-Series (Preview)」製品ページ(1.6-3.2Tbpsクラスのネットワーク)(AWSドキュメント)

  15. Google Cloud Blog - "A3 Ultra: 3.2 Tbps of GPU networking per VM"(A3/A3 Ultra発表資料)。(VMあたり3.2Tbps(Google Cloud)

  16. Dell Technologies - "Dell ships first PowerEdge XE9712 servers with NVIDIA GB200 NVL72 to CoreWeave", June 20, 2025.(ラックスケール、液冷デリバリーパートナー。)(CoreWeave)

  17. VASTデータ - 「CoreWeaveにおけるスケールアウトAIパフォーマンス」(ケーススタディ/ソリューションページ)2025年。(CoreWeaveのDCに展開されたVAST、I/Oアーキテクチャ)(CoreWeave)。

  18. Weights & Biases - "We're joining CoreWeave"(買収発表) 2025年5月5日。(W&Bの買収完了・時期、統合の方向性)(FinTech Weekly - ホームページ)

  19. ロイター「コアウィーブ、欧州に22億ドル追加投資、総額35億ドルに」 2024年6月5日(ロイター)。

  20. Investor's Business Daily - "Nvidia-backed CoreWeave's IPO filing shows big revenue jump... Microsoft 62%; Nvidia 6% stake", March 2025.(提出書類/プレスに記載されたエヌビディアの~6%の出資比率を裏付ける)(投資家)

次のページ
次のページ

LLMハードウェアガイド 2025:価格と仕様