share_log

集邦咨询:预估2024年全球AI服务器产值达1870亿美元 约占服务器市场比重65%

ジュフンコンサルティング:2024年までに、AIサーバー市場におけるグローバル出荷額は1870億ドルに達し、サーバーマーケットの約65%を占めると予測されています。

智通財経 ·  07/17 02:04

AIサーバー市場の需要は引き続き強く、2025年までにHBMの全体供給量が倍増する可能性がある。

智通財経APPによると、TrendForceジェトバンコンサルティングは、今年の大型CSP(クラウドサービスプロバイダー)の予算は引き続きAIサーバーの購入に焦点を当てており、一般的なサーバーの成長動向を排除しています。 AIサーバーの成長率に対して、一般型サーバーの出荷量増加率はわずか1.9%にすぎません。 AIサーバーの全体的な出荷量の割合は、2023年に比べて約3.4ポイント上昇し、12.2%になると予想されています。売上高を推定すれば、AIサーバーの売上高の成長度合いは、明らかに一般的なサーバーよりも高く、2024年には売上高が1870億ドルに達し、成長率が69%になり、売上高がサーバー全体の65%を占めると予想されています。

グローバル市場調査機関のTrendForce Jet Bans Consultingの最新のAIサーバー産業分析レポートによると、2024年には、大型CSP(クラウドサービスプロバイダー)やブランド顧客など、上位AIサーバーへの高い需要が続くことに加え、CoWoS(基板上シリコンウエハー)原料供給元の台湾セミコンダクター製造やHBM (High Bandwidth Memory)原料供給元のSK hynix(海力士)、Samsung (三星)、Micron (マイクロンテクノロジー)などが段階的に生産拡大を進め、今年の第2四半期以降に供給不足の状況が大幅に緩和され、NVIDIA(エヌビディア)の主力ソリューションH100の納品前リードタイムも以前の40-50週からわずか16週以下に短縮されました。したがって、TrendForce Jet Bans Consultingは、AIサーバーの第2四半期の出荷量が前四半期からほぼ20%増加し、年間出荷量が167万台に上昇し、年間増率が41.5%に達すると予想しています。

各メーカーは自社のASICを拡大し、ASICサーバーの全体比率を26%に引き上げる。

AIサーバーに搭載されるAIチップのタイプから見ると、北米のCSP (AWS、Metaなど)は、専用集積回路(ASIC)の自主開発を引き続き拡大し、アリババグループホールディング、バイドゥ、華為技術などの中国の地元企業も積極的に自主ASICソリューションを拡大しており、2024年までに、ASICサーバーの比率がAIサーバー全体の26%に達すると予想されます。主流のGPUを搭載したAIサーバーの比率は約71%です。

AIサーバーに搭載されたGPUは、エヌビディアの市場シェアが最も高い。

AIサーバーに搭載されたAIチップのサプライヤーについて、GPUを含むAIサーバーに焦点を当てると、英伟达の市場シェアが約90%に迫る最高になります。 AMD (超級)の市場シェアは約8%にすぎません。しかし、AIチップにはGPU、ASIC、FPGA (可変回路アレイ)が含まれるため、英伟达の市場シェアは今年に64%に達すると予想されています。

AIサーバー市場の需要は引き続き強く、2025年までにHBMの全体供給量が倍増する可能性がある。

TrendForce Jet Bans Consultingの調査によると、2025年に向けて、上位AIサーバーへの需要は引き続き強く、特に英伟达の新しいBlackwell(GB200、B100/B200などを含む)がHopperプラットフォームを置き換え市場の主流になると、CoWoSやHBMなどの需要が増すことになります。英伟达のB100については、チップサイズがH100の2倍になり、より多くのCoWoS用量を消費するため、台湾の主要供給元のCoWoS生産量は年末までに550k-600Kの規模にまで拡大し、成長率は8割近くに達すると予想されています。また、HBMの使用量を見ると、2024年に主流となるH100は80GBのHBM3を搭載しますが、2025年には英伟达のBlackwell UltraやAMDのMI350などの主力チップは、288GBのHBM3eを搭載する予定で、単位使用量は3倍以上になります。AIサーバー市場の需要が引き続き強まることで、2025年までにHBMの全体供給量が倍増することになります。

また、HBMの使用量を見ると、2024年に主流となるH100は80GBのHBM3を搭載しますが、2025年には英伟达のBlackwell UltraやAMDのMI350などの主力チップは、288GBのHBM3eを搭載する予定で、単位使用量は3倍以上になります。AIサーバー市場の需要が引き続き強まることで、2025年までにHBMの全体供給量が倍増することになります。

これらの内容は、情報提供及び投資家教育のためのものであり、いかなる個別株や投資方法を推奨するものではありません。 更に詳しい情報
    コメントする