グーグルを考慮しない場合、グローバルなAIの作業量の98%はエヌビディアのチップ上で実行中です。グーグルやアマゾンドットコムのチップはそれぞれ問題を抱えており、短期的には挑戦を形成することはありません。データ不足は偽の命題であり、データがなければデータを合成して訓練を続けることができます。来年のAIの資本支出には問題はありませんが、2026年は不確実性があり、業種の転換点になる可能性があります。
エヌビディアのマーケットシェアは実際にどれくらいの大きさなのか。会社の競争優位性はどこにあるのか。AMD、グーグル、アマゾンドットコムの機会はどこにあるのか。データ不足は虚偽の命題なのか。業種の資本支出には本当に問題がないのか。転換点はどこにあるのか。
最近、Semi Analysisの創設者兼チーフアナリストであるディラン・パテル、シリコンバレーの著名なテクノロジー投資家ビル・カーリー、ブラッド・ガーストナーが三者対談を行い、AIチップの現状、エヌビディアの競争優位性がどれくらい持続できるか、データ不足が虚偽の命題なのか、AI資本支出はどれくらい持続するのかについて深く議論した。
以下は対談の核心要点です:
グーグルを考慮しない場合、グローバルAI作業の98%はエヌビディアのチップで実行されており、グーグルを考慮するとこのデータは70%になる。
エヌビディアの利点は三つの側面がある。会社のソフトウェアは多くの半導体会社より優れており;ハードウェア面では、彼らは新技術を率先して採用し、非常に迅速に設計からデプロイにチップを推進できる;ネットワーク面では、彼らはMELLONOXを買収し、ネットワーク能力を大幅に向上させた。
グーグルはソフトウェアと計算要素に関して理解があるが、チップパッケージ設計やネットワークなどの困難な分野では他のサプライヤーと協力する必要がある。
データセンターの建設と電力供給の緊張が進む中、企業はより合理的にリソースを計画する必要がある。
テキストは現在最も効果的なデータ領域ですが、ビデオデータにはより多くの情報が含まれています。また、事前トレーニングはモデル訓練の一部に過ぎず、推論時間の計算も重要です。データが枯渇した場合、合成データを生成することでモデルの改善を続けることができます。
事前トレーニングの一度の巨大な利益は過去のものかもしれませんが、計算リソースを増やすことで企業は依然として何らかの利益を得られます。特に競争の激しい環境では、利益は依然として存在しますが、取得の難易度が増しています。
合成データは機能検証が可能な領域で最も効果的です。
ウォール街は現在、データセンターの設備投資の見積もりを過小評価している傾向があります。グローバルデータセンターをトレールすることで、マイクロソフト、Meta、アマゾンドットコムなどの企業がデータセンターの容量に対して非常に多くの支出を行っていることが分かります。これは、スケールを拡大することで競争に勝つことができると信じていることを示しているため、彼らは継続的に投資をしています。
エヌビディアは2000年のシスコシステムズではなく、両者の評価額には比較することができません。
事前トレーニングは利益が減少したり、コストが高すぎるという問題に直面する可能性がありますが、合成データ生成と推論時間の計算が新しい発展の方向性となります。
現在、企業は推論に対する投資が相対的に少ないです。今後6ヶ月から1年の間に、特定の機能検証が可能なベンチマークでモデルのパフォーマンスが大幅に向上する見込みです。
現在、GPT-4oは非常に高価ですが、モデルの規模を縮小すればコストが大幅に減少します。
AMDはチップエンジニアリングにおいて優れたパフォーマンスを示していますが、ソフトウェアの面では明らかな不足があります。彼らは十分なソフトウェア開発者が不足しており、ソフトウェアを開発するためのGPUクラスター構築に資金を投入していません。これはエヌビディアとは対照的です。
グーグルがブロードコムと連携して構築したTPUシステムは、チップの相互接続やネットワークアーキテクチャにおいて競争力があり、特定の面ではエヌビディアを上回っています。
グーグルのTPUの商業的成功は相対的に限られており、その主な理由はソフトウェアが十分にオープンでなく、価格競争力がなく、主に内部サービスに使用されているためです。
アマゾンのチップはコストを削減することで、HBMメモリの帯域幅や1ドルあたりのコストで優位性を持っていますが、技術的指標(メモリや帯域幅など)ではエヌビディアに劣っています。しかし、コストに敏感なアプリケーションには魅力的です。
市場全体から見ると、超大規模データセンターは来年大幅に支出を増やす予定で、これにより半導体エコシステム(ネットワーク機器供給業者、ASIC供給業者、システム供給業者など)の発展を促します。
2026年の状況には一定の不確実性があります。一方で、モデルのパフォーマンスが持続的に向上するかどうかが重要な要素となります。もしモデルのパフォーマンスの向上が鈍化した場合、市場に調整が生じる可能性があります。
以下は対談全文で、AIによる翻訳です。
司会者:ディレン、私たちの番組にようこそ。今日は、今年ずっと話題になっているテーマ、つまりコンピュータの世界で起こっている根本的な変化について深く探ります。ビル、まずはディレンを紹介してください。
比ル:良いですね。私たちはSemiAnalysisのディラン・パテルを招待できてとても嬉しいです。ディランは、グローバル半導体業界で最も尊敬される研究チームの一つを迅速に立ち上げました。今日は、ディランが技術的な観点から理解しているアーキテクチャ、チップのスケーリングトレンド、グローバル市場の主要な参加者、サプライチェーンなどの知識について深く探り、それをリスナーが関心を持つビジネス問題に結びつけたいと思います。人工知能熱潮に関連した半導体活動を段階的にまとめ、その発展トレンドを全体的に把握できることを期待しています。
ディラン:ここに来られて嬉しいです。子供の頃、私のXboxが壊れました。両親は移民で、ジョージア州の農村で育ち、何もすることがなく、ただ電子機器をいじっていました。私はXboxを開けて、温度センサーを短絡させ、修理しました。その時から、半導体に強い興味を持ち始め、半導体会社の決算発表を読み始め、投資を行い、技術に関連する内容を深く研究しました。
ホスト:SemiAnalysisについて簡単に紹介してもらえますか?
ディラン:私たちは半導体と人工知能の研究会社で、超大規模データセンター、大型半導体プライベートエクイティ企業、ヘッジファンドなどにサービスを提供しています。
私たちは、グローバルデータセンターの関連データを販売しており、各四半期の電力、建設進捗などを含んでいます。また、約1500のウェハファウンドリを追跡(ただし実際には約50の重要なもの)しており、ケーブル、サーバー、基板、変圧器などのデバイスに関するサプライチェーン関連データを提供し、予測とコンサルティングサービスも行っています。
Googleを考慮しない場合、グローバルの98%のAI業務はエヌビディアのチップを使用しています。
比ル:ディラン、私たちは皆、エヌビディアがAIチップの領域で支配的な地位を占めていることを知っています。現在、グローバルAI業務のどれくらいがエヌビディアのチップ上で実行されていると思いますか。
ディラン:Googleを除けば、98%以上です。しかし、Googleを考慮すると、大体70%です。Googleには多くのAI業務量があり、特に生産的な業務量の一部は、自社のチップ上で実行されています。
ビル:あなたが言う生産性の作業量は、Google検索やGoogleの他の大規模なAI駆動ビジネスのような、収益を生み出すビジネスを指していますか?
ディラン:その通りです。Googleの非大規模言語モデル(LLM)や他の生産性の作業負荷は、内部で自社開発したチップ上で実行中です。
実際、Googleは2018 - 2019年にはすでに検索作業負荷でTransformer技術を使用しており、BERTは当時非常に有名で人気のあるTransformerモデルの一つで、何年にもわたってその生産検索作業負荷で実行中です。
三つの利点が組み合わさり、エヌビディアは現在市場を主導しています。
ビル:では、エヌビディアに戻りますが、なぜそれほど市場を主導しているのでしょうか?
ディラン:エヌビディアを三つ頭のドラゴンに例えることができます。グローバルの大多数の半導体会社はソフトウェアの面で劣りますが、エヌビディアは例外です。
ハードウェアの面でも、エヌビディアは大多数の会社よりも優れています。彼らは新しいテクノロジーを率先して採用し、非常に速い速度でチップを設計から展開へと推進します。さらに、ネットワークの面ではMELLONOXを買収し、ネットワーク能力を大幅に向上させました。この三つの利点が組み合わさることで、他の半導体会社が彼らと単独で競争することが難しくなっています。
ビル:あなたは以前に、エヌビディアのこれらの現代の先端展開の複雑さを理解するのを助ける記事を書きました。機架、メモリ、ネットワーク、規模など、もう一度簡単に紹介してもらえますか?
ディロン:はい。GPUを見ると、AIワークロードを実行するには通常、複数のチップが協調して動作する必要があります。モデルの規模はすでに単一のチップの能力を超えています。
インテルのNVLinkアーキテクチャは複数のチップを良好にネットワーク化することができますが、興味深いことに、Googleとブロードコムはインテルよりも前に協力して同様のシステムアーキテクチャを構築しました。たとえば、Googleは2018年にTPUを使用して類似のシステムを構築しました。
Googleはソフトウェアと計算要素に関して独自の理解を持っていますが、チップのパッケージング設計やネットワークなどの困難な分野では他のサプライヤーと協力する必要があります。
現在、インテルはBlackwellシステムを発表しました。これは複数のGPUを含むラックで、重さは三トンで、数千本のケーブルがあり、非常に複雑です。
AMDなどの競争相手も最近、買収を通じてシステム設計分野に参入しています。複数のチップシステムが協調して動作し、冷却が良好で、ネットワークが信頼性があるものを構築することは非常に困難な課題であり、半導体会社は通常、関連するエンジニアを欠いています。
ビル:それでは、インテルがどの分野で増分差別化投資を行っていると考えますか?
ディロン:インテルは主にサプライチェーンの分野で多くの投資を行っています。彼らは次世代技術を開発し、市場に先駆けて投入するためにサプライチェーンと緊密に連携する必要があります。
たとえば、ネットワーク、光学、水冷、電力伝送などの分野で、インテルは競争上の優位性を維持するために新しい技術を次々と導入しています。彼らのペースは非常に速く、毎年多くの変化があります。BlackwellやRubinなどの製品が登場する場合、停滞すれば競争圧力に直面することになります。
ビル:もしエヌビディアが停滞した場合、どのような面で競争に直面する可能性がありますか?市場の他の代替品は、どのような条件を満たす必要がありますか、より多くの作業負荷のシェアを占めるために?
ディレン:エヌビディアにとって、AIに対する主要顧客の支出は途方もなく、モデルを他のハードウェアで動かす方法を研究するためのリソースを十分に持っています、特に推論に関して。
エヌビディアは推論ソフトウェアにおける優位性は比較的小さいものの、彼らのハードウェア性能は現時点で最も優れています。これは、資本コスト、運営コストが低く、性能が高いことを意味します。もしエヌビディアが進歩を止めれば、その性能の優位性は今後も増加しなくなり、他の競争者にチャンスが生まれます。
例えば、今Blackwellの発売により、エヌビディアは以前の製品よりも推論性能が10 - 15倍向上しており(大規模モデル向けに最適化)、競争に対応するために利益率を低下させました。彼らは毎年5倍以上の性能向上を計画しており、これは非常に速いペースです。同時に、AIモデル自体も進化を遂げ、コストも下がっており、これは需要をさらに刺激します。
ビル:ソフトウェアがトレーニングと推論で異なる役割を果たすとおっしゃいましたが、詳しく説明していただけますか。
ディレン:多くの人がエヌビディアのソフトウェアを単純にKutaと呼んでいますが、実際には多くのレイヤーを含んでいます。
トレーニングに関しては、ユーザーは通常エヌビディアのソフトウェア性能に依存します。研究者は新しい方法を試すことに専念しており、性能を最適化する時間がほとんどありません。
一方で、推論においてはマイクロソフトのような企業が限られた数のモデルを展開し、おおよそ6ヶ月ごとにモデルを更新しています。彼らは他のハードウェアでのこれらのモデルの運用性能を最適化するために、多くのエンジニアを投入することができます。例えば、マイクロソフトはAMDのような企業のハードウェア上でGPTスタイルのモデルを展開しています。
司会者:以前に触れたグラフがあります。それは今後4年間に1兆ドルの新しいAI作業量と1兆ドルのデータセンターの置き換え作業量があることを示していますが、これについてどう思いますか?人々が英伟达のGPUを使用してCPUデータセンターを再構築しないだろうと考える人もいますが、この見解にどう応えますか?
ディラン:英伟达は長い間、非AIワークロードにおけるアクセラレーターの使用を推進してきました。例えば、プロフェッショナルビジュアライゼーションの分野(ピクサーが映画を制作するなど)や、シーメンスのエンジニアリングアプリケーションなどではGPUが使用されています。
これらはAI分野においてはごく一部ですが、確かにアプリケーションは存在します。データセンターの置き換えに関しては、AIが急速に進化しているものの、従来のワークロード(ネットワークサービスやデータベースなど)はそれによって停止したり、遅くなったりすることはありません。データセンターのサプライチェーンは長く、構築期間も長いという現実的な問題があります。
例えば、インテルのCPUは過去数年の進展が遅れ気味ですが、AMDの登場はより高い性能の選択肢を提供しました。多くのアマゾンドットコムのデータセンターの古いインテルのCPUサーバーは何年も使用されてきましたが、今では128コアや192コアのようなより高性能な新しいサーバーに置き換えられます。これにより性能が向上するだけでなく、同じ電力消費の下でサーバーの数を減らすことができ、AIサーバーのためのスペースを確保できます。
したがって、データセンターの置き換えの事例はあるものの、市場全体は依然として成長しています。ただし、AIの発展がこの行動を促進しているため、企業はAIアプリケーションをサポートするためにより多くの計算能力を必要としています。
司会者:これは先週サシャが番組で言及したことを思い出させます。彼は彼らがデータセンターと電力の制限に直面していると言っていましたが、これはチップの制限ではありません。あなたはこれが先ほどの説明とどのように関連していると思いますか?
ディラン:私はサシャの見解が、データセンターと電力が現在のボトルネックであることを強調していると思います。これはチップの供給状況とは異なります。データセンターの構築と電力供給が逼迫する中、企業はリソースをより合理的に計画する必要があります。これが、彼らが暗号資産のマイニング会社から電力を調達したり、古いサーバーの減価償却期間を延長したりするような対策をとる理由を説明しています。
データがない場合、合成データを生成してモデルを改善することができます。
司会者:代替エヌビディアの提案を話し合う前に、まずあなたが記事で言及したプリトレーニングとスケールに関する議論についてお話ししましょう。イリアットはデータがAIの「化石燃料」であり、私たちはすでに大部分を消費したので、プリトレーニングの巨大な利益は再現されないと言っています。この見解についてどう思いますか?
ディラン:プリトレーニングのスケールの法則は比較的単純です。計算資源を増やすことでモデルの性能を向上させることができますが、これはデータとパラメーターの2つの次元を含みます。
データが尽きた場合、モデルの規模を拡大することは可能ですが、利益は減少するかもしれません。ただし、現在のところ、動画データの利用は非常に限定的で、これは誤解です。実際、テキストは現在最も効果的なデータ領域ですが、動画データにはより多くの情報が含まれています。さらに、プリトレーニングはモデルのトレーニングの一部にすぎず、推論時間の計算も重要です。データが尽きた場合、OpenAIなどの企業が試みている方法のように、合成データを創造することでモデルを改善し続けることができます。これはモデルが大量のデータを生成し、機能検証を行い、有効なデータをフィルタリングしてトレーニングに使用することによって、モデルの性能を向上させる手法です。この方法は現在まだ初期段階にありますが、投入される資金は比較的少なく、モデルの改善に対する新しい方向性を提供しています。
司会者:投資の観点から見ると、エヌビディアは非常に注目されています。しかし、プリトレーニングの利益がほとんど得られた場合、なぜ皆がより大きなクラスターを構築しているのでしょうか?
ディラン:プリトレーニングの一度きりの巨大な利益は過去のものになったかもしれませんが、計算資源を増やすことで、特に競争が激しい環境では、モデルの性能を向上させることで競争力を維持したい企業にとって、ある程度の利益を得ることができます。
さらに、モデルと競合他社のモデルとの比較も、企業が継続的に投資を行うよう促しています。投資回収率の観点から見ると、規模を拡大し続けることは対数的に高価かもしれませんが、それでも理性的な決定である可能性があります。なぜなら、利益は依然として存在しますが、獲得の難易度が増しているからです。さらに、合成データ生成などの新しい方法の登場により、モデルの改善速度が加速する可能性があり、それも企業が引き続き投資する動機を提供します。
司会者:では、どの分野において合成データが最も効果的ですか?具体例を挙げていただけますか?
ディラン:合成データは機能検証ができる領域で最も効果的です。たとえば、グーグルのサービスでは、システムが正常に機能していることを確認するために大量の単体テストが行われています。これらの単体テストは、LLMが生成した出力が正しいかどうかを評価するために使用できます。
数学や工学などの分野では、出力は明確な基準を用いて評価できますが、芸術、ライティングスタイル、交渉技術などの主観的な分野では機能検証が非常に難しいです。なぜなら、これらの分野の評価基準は比較的主観的だからです。例えば、画像生成の分野では、どの画像がより美しいかを言うのは難しいです。なぜなら、それは個々の好みに依存するからです。一方、数学的計算や工学設計では、出力が正しいかどうかを明確に判断できます。
ウォール街は大型データセンターの資本支出を過小評価しています。
司会者:あなたは超大規模データセンターから何を聞きましたか?彼らは皆、来年の資本支出(capex)が増加すると言っており、より大きなクラスターを建設していますが、それは本当ですか?
ディラン:私たちのトレールと分析によると、ウォール街のcapexの推定は通常低く見積もられています。私たちは世界のすべてのデータセンターを追跡しており、マイクロソフト、Meta、アマゾンドットコムなどの企業がデータセンターの容量に非常に大きな支出をしていることがわかります。
彼らは来年のデータセンターリース契約を締結しており、Cloud Computing Serviceの収益は加速的に成長する見込みです。なぜなら、彼らは現在データセンターの容量に制限されているからです。これは、規模を拡大することで競争に勝てると信じていることを示しており、だからこそ継続的に投資しています。
司会者:以前に言及した事前学習の大規模クラスター構築についてですが、事前学習のトレンドが変わった場合、彼らの推論に関する構築はどのように変化するのでしょうか?
ディラン:神経ネットワークを訓練する際、前向き伝播はデータを生成するために使用され、後向き伝播は重みを更新するために使われますが、合成データ生成、出力評価、モデル訓練の新しいパラダイムでは、前向き伝播の計算量が大幅に増加します。なぜなら、大量の可能性を生成する必要があるからです。反対に、後向き伝播の計算量は相対的に少なく、効果的なデータの少数でのみ訓練が行われます。これは、訓練中に大量の推論計算が行われていることを意味し、実際に訓練中の推論計算量はモデルの重みを更新する計算量よりも大きいです。
さらに、モデルを訓練する際にすべてのコンポーネントが同じ位置にある必要があるかどうかは具体的な状況に依存します。
例えば、マイクロソフトは異なる地域に複数のデータセンターを構築しています。なぜなら、推論作業負荷を異なるデータセンターに分配し、他の場所でモデルを更新することで、リソースをより効率的に活用できることを発見したからです。したがって、事前学習のパラダイムは鈍化しておらず、各世代の改善コストは対数的に増加していますが、企業はコストを削減し、効率を向上させる他の方法を模索しています。
エヌビディアは2000年のシスコではありません
司会者:英伟达とシスコが2000年の状況に比較されることがありますが、どう思いますか。
ディレン:この比較にはいくつかの不公平な点があります。シスコの収入の多くは、テレコムインフラの構築に対する民間投資/クレジットから得られていますが、エヌビディアの収入源は異なり、民間投資/クレジットの割合は小さいため、CoreWeaveはマイクロソフトによってサポートされています。
さらに、インターネットバブルの時期には、この分野に入る民間資本の規模は現在よりもはるかに大きかったです。現在のベンチャーキャピタル市場は活発に見えるものの、実際には中東の主権富裕基金などの民間市場からの資金はまだ大量には入ってきていません。また、当時のシスコと比べて、現在のこれらの収益性のある会社の資本源、正のキャッシュフロー、および投資の合理性には違いがあります。エヌビディアの現在のPERは30で、当時のシスコの120とは大きな差があるため、単純に比較することはできません。
推論時間推論(inference time reasoning)は、インテリジェンスを拡張する新しい方向性です
司会者:推論時間推論がインテリジェンスを拡張する新しい方向性であり、計算集約度が事前学習よりも高いとおっしゃいましたが、詳しく説明していただけますか。
ディレン:事前学習は収益逓減やコスト過多の問題に直面する可能性がありますが、合成データ生成や推論時間計算が新しい発展の方向性になっています。
推論時間の計算は、モデルのトレーニングに余計なコストをかける必要がないため、良さそうに聞こえますが、実際には大きなトレードオフがあります。例えば、GPT - 4o の場合、推論中に大量のデータが生成されますが、最終的にユーザーに出力されるのはその一部だけです。このプロセスでは、モデルが大量の計算リソースを消費する必要があります。
例えば、ユーザーのリクエストを処理する際、モデルは数千の中間結果(トークン)を生成する可能性がありますが、最終的にはユーザーに対して数百しか出力しません。これは、生成されたトークンの数が増えるだけでなく、これらのトークンを処理する際に、コンテキスト情報(KVキャッシュなど)を保存するためにより多くのメモリが必要となり、その結果、サーバーが同時に処理できるユーザーリクエストの数が減少し、各ユーザーのコストが増加することを意味します。
コストの観点から見ると、マイクロソフトのような企業にとって、もし推論収益が100億ドルで、粗利率が50-70%、コストが数十億ドルの場合、GPT - 4oのようなモデルを使用する際には、推論計算コストの増加によりコストが大幅に上昇する可能性があります。モデルのパフォーマンスが向上し、より高い料金を請求できるとしても、コストの増加幅が収益の増加幅を上回る可能性があります。
GPT - 4oモデルの企業向け需要は過小評価されています。
司会者:では、GPT - 4oのようなモデルに対する市場の企業向け需要は過大評価されていますか、それとも過小評価されていますか。
ディラン:GPT - 4oは現在まだ初期段階にあり、人々の理解と適用はまだ不十分です。
しかし、現在のいくつかの匿名のベンチマークテストから見ると、グーグルやAnthropicなど多くの企業が推論モデルの開発を進めており、計算リソースの増加を通じてモデルパフォーマンスを向上させる明確な道を見出しています。これらの企業は推論への投資が比較的少なく、まだ始まったばかりですが、今後6ヶ月から1年の間に、機能確認済みのベンチマークテストにおいてモデルパフォーマンスが大幅に向上することが期待されています。したがって、この種のモデルに対する市場の需要ポテンシャルは巨大ですが、現時点では正確に評価することは難しいです。
司会者:インターネットの波を振り返ると、多くのベンチャー企業は初めにオラクルやサンマイクロシステムズの技術に依存していましたが、5年後には状況が変わりました。AIチップの分野でも同じことが起こるのでしょうか。
ディレン:現在、GPT-4oは非常に高価ですが、モデルの規模を縮小すれば、コストは大幅に下がります。
例えば、GPT-4oからLlama 7bに移行すると、コストを大幅に削減できます。小型モデルの場合、推論は比較的容易で、単一のチップ上で実行できるため、市場競争が激しく、多くの企業がLlamaなどのモデルに基づくAPI推論サービスを提供しており、価格競争が激しく、利益率は低いです。
対照的に、MicrosoftのようにOpenAIモデルを使用する企業は、粗利率が高い(50 - 70%)です。彼らは高性能なモデルを持っており、企業や消費者が高額な料金を支払う意欲があります。
しかし、より多くの企業が市場に参入するにつれて、モデルの差別化がますます重要になります。最良のモデルを持ち、支払う意欲のある企業や消費者を見つけることができる企業だけが、競争の中で際立つことができます。したがって、市場は迅速に選別され、最終的にはこの分野で競争できるのはごくわずかの企業に限られる可能性があります。
Googleとアマゾンのチップにはそれぞれ利点と欠点があります。
ホスト:これらの競争企業の中で、AMDの状況はどうですか?
ディレン:AMDはチップ設計で素晴らしいパフォーマンスを発揮していますが、ソフトウェアの面では明らかな不足があります。彼らは十分なソフトウェア開発者を欠いており、ソフトウェアを開発するためにGPUクラスタを構築するために資金を投資していません。これはエヌビディアと明確に対照的です。
さらに、AMDはインテルとの競争に重点を置いており、システムレベルの設計経験が不足しています。ZTシステム会社を買収しましたが、大規模データセンターのシステムアーキテクチャ設計においてエヌビディアに後れを取っています。
超大規模データセンターの顧客(Metaやマイクロソフトなど)は、AMDがソフトウェアを改善し、モデルの開発や推論経済を理解する手助けをしているが、AMDは依然としてエヌビディアと同じタイムテーブルで競争することはできない。来年、AMDはマイクロソフトやMetaなどの顧客のAI収入シェアが減少すると予測されているが、市場から利益を得ることはできる。しかし、エヌビディアのような大きな成功は収められない。
司会者:グーグルのTPUの状況はどうですか?エヌビディアに次ぐ選択肢のようです。
ディレン:グーグルのTPUは、システムとインフラストラクチャの面で独自の特長があります。単体のTPUの性能は良好ですが、より重要なのはそのシステム設計です。グーグルはブロードコムと協力してTPUシステムを構築しており、チップの相互接続、ネットワークアーキテクチャ等の面で競争力があり、エヌビディアを上回る部分もあります。
さらに、グーグルは長年にわたり水冷技術を採用し、システムの信頼性を向上させてきましたが、エヌビディアは最近になってようやく水冷技術の必要性に気づきました。
しかし、グーグルのTPUは商業的成功が相対的に限られている主な理由は、ソフトウェアが十分にオープンではないことにあります。多くの内部使用のソフトウェア(DeepMindが使用するソフトウェアなど)はグーグルクラウドのユーザーに提供されていません。
価格設定については、公式の価格は高いですが、実際の交渉後の価格には競争力が欠けており、他のCloud Computing Service提供者(オラクル、マイクロソフト、アマゾンドットコムなど)と比較して、グーグルのTPUの価格には優位性がありません。
さらに、グーグルは大量のTPUを内部サービス(検索、Geminiアプリなど)に使用しており、外部のレンタル市場のシェアは小さく、主要な顧客はアップルです。また、アップルがTPUをレンタルすることは、エヌビディアに対する姿勢に関連があるかもしれません(競争関係がある可能性がありますが、具体的な理由はまだ述べられていません)。
司会者:では、アマゾンドットコムはどうですか?グーグルのTPUのように詳細にアマゾンドットコムのチップについて紹介してもらえますか?
ディレン:アマゾンのチップは「アマゾンベースTPU」と呼ぶことができます。いくつかの点でコスト効果の利点があり、例えばより多くのシリコンとメモリを使用し、ネットワーク能力はTPUと一定の比較ができますが、効率の面で不足があり、より多くのアクティブケーブルを使用する(ブロードコムと提携しているグーグルTPUはパッシブケーブルを使用しています)、シリコンチップの面積使用効率が低いなどです。
しかし、アマゾンはコストを削減することによって、HBMメモリ帯域幅とドルあたりのコストについて優位性を持っており、そのチップの価格はエヌビディアよりも大幅に低くなっています。技術指標(メモリ、帯域幅など)ではエヌビディアに劣りますが、コストに敏感なアプリケーションにとっては魅力的です。
アマゾンはAnthropicと協力して40万個のチップを含むスーパーコンピュータシステムを構築しました。彼らは、大規模なチップ展開が推論およびモデル改善に役立つと信じており、技術的には最先端ではないかもしれませんが、コスト効果がアマゾンにとって合理的な選択にしています。
来年の資本支出は明確ですが、26年後に不確実性があります。
司会者:2025 - 2026年を展望すると、半導体市場についてどのように考えていますか?例えば、ブロードコムの最近の株価上昇、エヌビディアの株価変動について、市場はどのように発展すると考えていますか。
ディレン:ブロードコムはカスタムASIC分野でいくつかの成果を上げており、グーグルなどの会社からの複数のカスタムASICの注文を獲得しています。グーグルは特に推奨システムのパフォーマンスを向上させるために努力しています。また、OpenAIなどの会社も独自のチップ開発を行っており、アップルも一部のチップをブロードコムと共同で生産しています。これらの発展状況は、市場競争がますます激化することを示しています。
市場全体から見ると、超大規模データセンターは来年支出を大幅に増加させる予定であり、これがネットワーク機器サプライヤー、ASICサプライヤー、システムサプライヤーなどを含む半導体エコシステム全体の発展を促進するでしょう。
しかし、2026年の状況には一定の不確実性があります。
一方で、モデルの性能が持続的に向上するかどうかが鍵となる要因となるでしょう。モデルの性能向上の速度が鈍化すると、現在市場の成長がモデル性能の継続的な進歩とそれに伴う計算リソースの需要増加に大きく依存しているため、市場の調整を引き起こす可能性があります。
もう一方で、資本投入も重要な変数です。現在、中東の主権 Wealth Fund、シンガポール、北欧およびカナダの年金基金などはまだ大規模に市場に参入していませんが、将来的に大量の資金を投入することを決定すれば、市場に重大な影響を及ぼすことになります。
さらに、新しいクラウド市場は統合に直面しつつあります。現在追跡している約80社の新しいクラウドサービスプロバイダーの中で、競争に生き残る可能性があるのはごく少数(5 - 10社)です。そのうち5社は主権クラウドサービスプロバイダーで、残りの約5社は市場競争力を持つ企業です。
現在、GPUリース市場の価格は急速に変化しています。例えば、エヌビディア H100 のリース価格が大幅に下落しており、新しいクラウドサービスプロバイダー間の競争が激しいだけでなく、アマゾンドットコム等の大手クラウドサービスプロバイダーのオンデマンド GPU 価格も急速に低下しています。企業が GPU クラスターを購入する比率は依然として相対的に低く、彼らは GPU 計算の需要を新しいクラウドサービスプロバイダーにアウトソーシングする傾向がありますが、市場の統合が進むにつれて、この状況は変わるかもしれません。
エヌビディアにとって、競争はあるものの、技術的に先行し続け、性能が優れ、コストが低い製品を投入できれば、市場で主導的な地位を占める機会が依然としてあります。例えば、彼らが近日中に発売する予定の製品は前代の製品よりもコストが高いですが、性能の最適化と価格戦略を調整することで、成長を実現する可能性があります。しかし、市場の需要が期待通りに増加しない場合や、より競争力のある代替品が現れると、エヌビディアの収益に影響が及ぶ可能性があります。
司会者:ディレン、本日のシェアに感謝します。これにより、半導体業種における AI 分野の進展についてより深く理解できました。今後もこの分野の動向に注目し、各社がこの機会と挑戦に満ちたマーケットでのパフォーマンスを観察できることを期待しています。もう一度ありがとうございました!
ディレン:ありがとうございます。ここで私の見解をシェアできて嬉しいです。
司会者:皆さんにお知らせしますが、上記の内容は私たちの見解を表すものであり、投資アドバイスを構成するものではありません。