業界研究 半導体・AI

データセンターのコスト構造から見る
「どの企業が儲かるのか」徹底解説!

現在、生成AIブームを背景に、データセンターへの空前の投資が行われています。AIモデルの学習や推論には膨大な計算能力が必要であり、データセンターはまさに「AI時代の工場」としての役割を担っています。

しかし、ひと口にデータセンター関連銘柄と言っても、そのバリューチェーンは複雑です。どこに投資マネーが流れ、最終的に誰が最も高い利益率を享受するのでしょうか?

その答えを解き明かす鍵は、データセンターの「コスト構造」にあります。「何に一番お金がかかっているか」を分析すれば、「誰が一番儲かっているか」が見えてくるのです。

1. データセンターのコスト構造

データセンターのコストは、大きく分けて初期投資(CapEx:設備投資支出)運用コスト(OpEx:事業運営費)の2つに分類されます。近年のAIブームにより、このコスト構造の比率は劇的に変化しています。

① 初期投資(CapEx):箱と中身を作るコスト

データセンターを建設し、稼働できる状態にするまでのコストです。

コスト項目 比率(約) 特徴・主な内容
IT機器 50% 〜 70% GPUが中心。サーバー、ネットワーク、ストレージ、光トランシーバーなど。
ファシリティ設備 20% 〜 30% 電力供給(UPS等)と冷却システム。AIサーバーの発熱対応で冷却の重要度が急増。
土地・建物・建設費 10% 〜 20% 物理的な「箱」のコスト。電力供給や通信環境の良い立地が重要。

② 運用コスト(OpEx):動かし続けるコスト

データセンターが稼働し始めてから発生する継続的なコストです。

コスト項目 比率(約) 特徴・主な内容
電力費 40% 〜 60% 運用コストの最大要素。サーバーの稼働と冷却に膨大な電力が必要。
保守・運用・人件費 20% 〜 30% メンテナンス、セキュリティ、常駐監視などの人件費。
減価償却費 - 高額なIT機器(特に寿命の短いGPU)の償却負担。

2. コスト構造の変化:「AIシフト」がもたらした衝撃

従来の「クラウド用データセンター」と現在の「AI用データセンター」では、コスト構造が決定的に異なります。

最大の変化は、CapExにおける「GPUへの集中」と、それに伴う「冷却・電力設備への負荷増大」です。

従来は汎用的なCPUサーバーが中心でしたが、現在は1基数百万円もするNVIDIAのGPUを大量に搭載したサーバーが主役です。これにより、IT機器コストの比率が跳ね上がりました。

また、高密度のGPUサーバーは凄まじい熱を発するため、従来の空冷では追いつかず、より高価な「液冷システム」の導入が進んでいます。これもCapExを押し上げる要因です。

3. 分析:コスト構造から導き出される「儲かる企業」

上記のコスト構造を踏まえると、「誰が最も儲かるのか」が見えてきます。資金の流れ(ハイパースケーラーが支払うお金の行き先)を追ってみましょう。

勝者①:シリコンの帝王(半導体メーカー)

→ NVIDIA、AMD、TSMC、SKハイニックス、ローム、三菱電機など

理由: CapExの最大の塊である「IT機器コスト」の中核を握っているからです。現在、AI学習用GPU市場はNVIDIAがほぼ独占しており、圧倒的な価格決定権を持っています。そのチップを製造するTSMCや、メモリ(HBM)を供給するSKハイニックスなども、このエコシステムの中心にいます。

利益構造: 非常に高い粗利益率を誇り、現在のゴールドラッシュで最も直接的に「つるはし」を売っている存在です。

勝者②:熱と戦うインフラ提供者(電力・冷却・サーバーOEM)

→ Vertiv、Schneider Electric、Supermicro、Dell、ダイキン、ニデック、明電舎など

理由: GPUへの集中投資は、「高密度化」と「高発熱化」を意味します。これに対応するための特殊なインフラが必要不可欠だからです。

現状: VertivやSchneider Electricのような、高効率な電源管理や最新の液冷技術を提供する企業の重要性が高まっています。また、SupermicroやDellは、NVIDIAのGPUをいち早く組み込み、複雑な熱設計をクリアした「AIサーバー筐体」を納入することで業績を伸ばしています。

勝者③:高速道路の建設者(ネットワーク機器)

→ Arista Networks、Broadcom、フジクラなど

理由: 数千個のGPUを連携させて一つの巨大なAIモデルを学習させるには、サーバー間を超高速かつ低遅延で繋ぐネットワークが不可欠だからです。

現状: Aristaなどが提供する高速イーサネットスイッチや、Broadcomの通信用半導体、そしてそれらを繋ぐ光ファイバー(フジクラ等)は、IT機器コストの中で重要な割合を占めるようになっています。

ハイパースケーラーの立ち位置

Amazon, Microsoft, Googleらは「最もコストを支払う側(発注者)」ですが、最終的には構築したAIインフラを使ってサービスを提供し、莫大な利益を得ることを目指しています。現在は「巨額投資を行う主体」という側面が強いフェーズです。

4. 結論:「コストの塊」を握る者が当面の覇者

データセンターのコスト構造分析から見えてくる結論は明確です。

現在のAI投資ブームにおいては、データセンター建設費用の大半を占めるGPUとその性能を最大限に引き出すための「周辺インフラ(冷却、電源、ネットワーク)」を提供する企業が、最も確実に、かつ高い利益率で儲かる構造になっています。

今後の注目点:電力ボトルネック

短中期的にはハードウェア・インフラ企業が強いですが、長期的にはOpExの主役である「電力」がボトルネックかつ最大のコスト要因になる可能性があります。安定した安価な電力を供給できるエネルギー企業や、電力効率を劇的に改善する技術を持つ企業が、次の時代の覇者になるかもしれません。

おすすめ書籍

筆者プロフィール

筆者ムロタニのアイコン画像

ムロタニ

デジタルネイティブ世代の現役京大生。ファンダメンタルは苦手ですが、がんばってぼちぼち書いていきます!