share_log

全文来了!英伟达电话会:下半年Hopper出货量将增加,Blackwell到明年都将“供不应求”

全文が届きました!エヌビディアの電話会議:Hopperの出荷数量が後半に増加し、Blackwellは来年まで「需要に供えきれない」状態が続くでしょう。

wallstreetcn ·  08/29 00:16

Nvidiaの決算発表によると、Blackwellは第4四半期に量産を開始する予定で、第4四半期には「数十億ドル」の収益が見込まれています。ホッパーの出荷台数は2025会計年度後半に増加すると予想されています。中国市場は大きく貢献しており、ソブリンAIビジネスは成長しており、NVLinkは為替セクターのゲームのルールを変えるでしょう。

Nvidiaは「期待に応え」、第2四半期にも再び素晴らしい業績を示しました。データセンターの需要が高まる中、収益は引き続き予想を上回りました。しかし、第3四半期の収益予想は、最も楽観的な予想を下回りました。6四半期ぶりに2桁台に減速すると予想されており、市場に続いてNvidiaの株価に大きな衝撃をもたらし、現在では6%以上下落しています。

決算報告の発表後の電話会議で、CEOのファン・インフンは、ジェネレーティブAIの開発の勢いが加速していると信じて、AIの将来について楽観的でした。「同社はグローバルデータセンターの再構築を始めたばかりで、これは1兆ドル規模のチャンスです。

広く公表されているブラックウェルの進歩と需要について、Nvidiaは、ホッパーチップに対する市場の需要は「引き続き堅調」であり、Blackwellも非常に期待されていると述べました。ブラックウェルは第4四半期に量産を開始するので、数十億ドルの収益を生み出すと予想されていますが、数十億ドルの収益が増加するかどうかは答えられていません。

今回の電話の要点は次のとおりです。

ブラックウェルとホッパーからの強い需要は共存するでしょう。Nvidiaは第2四半期にBlackwellアーキテクチャのサンプルを顧客に届け、生産量を向上させるためにBlackwellのGPUマスクに変更を加えました。ブラックウェルは、第4四半期に量産を開始し、2026会計年度まで継続する予定で、第4四半期には「数十億ドル」の収益が見込まれています。

ホッパーの出荷台数は2025会計年度後半に増加すると予想され、ホッパーの供給と入手可能性は改善し、Blackwellプラットフォームの需要は供給をはるかに上回っています。これは来年まで続くと予想されます。

中国市場は大きく貢献しました。中国市場のデータセンターの収益は第2四半期も引き続き増加し、データセンターの収益に大きく貢献しました。

ソブリンAIビジネスは成長しています:各国がAI技術とインフラストラクチャが社会的および産業的最優先事項であることを認識するにつれて、私たちのAI主権の機会は拡大し続け、ソブリンAIビジネスは2024年に数十億ドル増加すると予想されています。

NVLinkはスイッチングのルールを変えます。ブラックウェルのシステムは、72GB200パッケージの144個のGPUをNVLinkドメインに接続でき、1つのラックのNVLinkの総帯域幅は259TB/秒です。この観点から見ると、これはホッパーの約10倍です。推論の観点から見ると、低遅延で高スループットの大規模モデルにはNVLinkが不可欠です。

製品の反復が売上総利益に与える影響:第3四半期の粗利益ガイドラインは約75%、第4四半期の売上総利益率は71%から72%、通年の売上総利益率も70%になると予想されます。これは主に、変革と新製品の発売のコスト構造の違いによるものです。

資本支出収益率の問題について:アクセラレーテッドコンピューティングはアプリケーションをスピードアップし、コストとエネルギー消費量の削減に直結します。多くの企業はAIビジネスの創出をスピードアップしており、設立後はデータセンターをリースし、投資収益率は非常に高いです。現在、AIは活用するのに最適なコンピューティングインフラストラクチャです。

これは、Nvidiaの2025年度第2四半期電話会議の全文です

Nvidia投資家向け広報担当シニアディレクター:スチュワート・ステッカー

皆さん、ありがとうございます。こんにちは。Nvidiaの2025年度第2四半期の電話会議へようこそ。今日のNvidia電話会議には、社長兼CEOのファン・インフンと、執行副社長兼最高財務責任者のコレット・クライスが参加しました。

この電話会議では、非GAAPベースの財務指標について話し合います。非GAAP財務指標と米国会計基準財務指標の調整は、当社のウェブサイトに掲載されているCFOレビューで確認できます。金融セクターで近日開催されるイベントを紹介させてください。9月11日にサンフランシスコで開催されるゴールドマン・サックス・コミュニティ・アンド・テクノロジー・カンファレンスに出席します。その時、ウォン・インフンはテーマ別の会話に参加します。

Nvidiaの2025会計年度第3四半期の決算電話会議は、2024年11月20日(水)に開催される予定です。コレットに下の階をあげましょう。

最高財務責任者兼執行副社長:コレット・M・クレス

第2四半期は記録的な四半期で、売上高は300億ドルに達し、前月比で15%、前年比122%増加し、予想の280億ドルをはるかに上回りました。

1つ目はデータセンターです。Nvidia Hopper、GPUコンピューティング、ネットワーキングプラットフォームに対する強い需要に後押しされて、データセンターの収益は過去最高の263億米ドルに達し、前月比で16%、前年比154%増加しました。コンピューティング収益は昨年の同時期に比べて2.5倍以上に増加し、ネットワークビジネスの収益は2倍以上に増加しました。クラウドサービスプロバイダーは、当社のデータセンターの収益の約 45% を占めており、そのうち 50% 以上が消費者向けインターネット企業や企業からのものです。

顧客は、Blackwellを採用する準備をしている間、ホッパーアーキテクチャの購入を加速させ続けています。データセンターの成長を促進する主なワークロードには、AIモデルのトレーニングと推論、CUDAとAIワークロードを使用したビデオ、画像、テキストデータの前処理と後処理、合成データ生成、AI主導のレコメンデーションシステム、SQLとベクターデータベースの処理などがあります。

次世代のモデルでは、より多くのデータを処理するために10〜20倍の計算能力が必要になりますが、この傾向は続くと予想されます。過去4四半期にわたって、推論ビジネスはデータセンターの収益の40%以上を占め、CSP、消費者向けインターネット企業、企業はすべて、Nvidiaの推論プラットフォームの優れたスループットと効率の恩恵を受けていると推定しています。Nvidiaの推論プラットフォームに対する需要は、最先端のモデルメーカー、消費者向けインターネットサービス、および消費者、広告、教育、企業と医療、ロボット工学向けのAIアプリケーションを構築している何万もの企業や新興企業から来ています。開発者は NVIDIA の豊富なエコシステムとすべてのクラウドでの可用性を切望しています。

CSPは、NVIDIAが広く採用されていることを高く評価しており、強い需要に直面してもNVIDIAの使用を拡大し続けています。NVIDIA H200プラットフォームは第2四半期に量産を開始し、大規模なCSP、消費者向けインターネット、およびエンタープライズ企業に出荷されています。Nvidia H200はホッパーアーキテクチャに基づいています。H100と比較して、メモリ帯域幅は 40% 以上増加しています。

第2四半期も、中国のデータセンターの収益は引き続き増加し、データセンターの収益に大きく貢献しました。中国市場は今後も非常に競争が激しくなると予想しています。MLPerf推論ベンチマークの最新ラウンドでは、Nvidia HopperとBlackwell Platformsがすべてのミッションで金メダルを獲得するなど、推論の分野におけるNvidiaの主導的地位が浮き彫りになりました。今回のComputexでは、Nvidiaと大手コンピューターメーカーが共同で、人工知能工場とデータセンターを構築するための一連のBlackwellアーキテクチャ主導のシステムとNvidiaネットワークを発表しました。

Nvidia MGXのモジュラーリファレンスアーキテクチャを使用して、当社のOEMおよびODMパートナーは100を超えるブラックウェルをベースにしたシステムを構築しています。NVIDIA Blackwellプラットフォームは、複数のGPU、CPU、DPU、NVLink、リンクスイッチ、ネットワークチップ、システム、NVIDIA CUDAソフトウェアを組み合わせて、求人、業界、国を問わず次世代の人工知能を強化します。第5世代のNVLinkを搭載したNvidia GB200 NVL72システムでは、72基のGPUすべてを1つのGPUとして実行できるため、LLMワークロードの推論が最大30倍速くなり、1兆個のパラメーターのモデルをリアルタイムで実行できるようになります。

ホッパーの需要は強く、ブラックウェルは広範囲にサンプリングを行っています。生産量を増やすためにBlackwell GPUの品質を調整しました。ブラックウェルは第4四半期に量産を開始し、26年度まで生産を続ける予定です。第4四半期には、ブラックウェルの収益が数十億ドルに達すると予想されており、ホッパーの出荷台数は2025会計年度後半に増加すると予想されています。ホッパーの供給と在庫状況は改善し、Blackwellプラットフォームの需要は供給をはるかに上回っています。これは来年まで続くと予想しています。

ネットワークビジネスの収益は 16% 増加し続けました。何百ものお客様が当社のイーサネット製品を採用するにつれて、Spectrum-Xエンドツーエンドのイーサネットプラットフォームを含む当社のAIイーサネットの収益は倍増し続けています。Spectrum-Xは、OEMおよびODMパートナーによって広くサポートされており、CSP、GPUクラウドプロバイダー、および世界最大のGPUコンピューティングクラスターに接続するXAIを含む企業に採用されています。Spectrum-Xは、従来のイーサネットの1.6倍のパフォーマンスを備えた、人工知能処理用の超強力なイーサネットを提供します。計算クラスターを現在の数万GPUから近い将来数百万DPUに拡張する必要性をサポートするために、毎年新しいSpectrum-X製品を発売する予定です。Spectrum-Xは1年以内に数十億ドル規模の製品ラインになるでしょう。

各国がAIの専門知識とインフラストラクチャが自国の社会と産業にとって最優先事項であることを認識するにつれて、私たちのAI主権の機会は拡大しています。日本の産業技術総合研究所は、Nvidiaと協力して、人工知能ブリッジクラウドインフラストラクチャ3.0スーパーコンピューターを構築しています。ホッパーAIの収益は今年2桁台前半に達すると考えています。

企業の人工知能の波が始まり、企業は今四半期も継続的な収益成長を牽引してきました。私たちはフォーチュン100企業のほとんどと提携して、さまざまな業界や地域でAIイニシアチブを実施しています。収益性の高い新しいビジネスアプリケーションを構築し、従業員の生産性を高めるためのAI主導のチャットボット、ジェネレーティブAIコボット、エージェントなど、さまざまなアプリケーションが私たちの成長を後押ししています。Amdocsは、Nvidiaのジェネレーティブ人工知能をインテリジェントエージェントに適用して、顧客体験を変革し、顧客サービスのコストを 30% 削減しました。

ServiceNowは、同社の歴史上最も急成長している新製品であるNow Assist製品にNvidiaテクノロジーを使用しています。SAPはNvidiaを使ってエンタープライズグレードのアプリを構築しています。CohesityはNvidiaを使用してジェネレーティブAIエージェントを構築し、ジェネレーティブAIの開発コストを削減しています。1万人以上の企業顧客に1日あたり30億件以上のクエリを提供しているSnowflakeは、エンタープライズアプリケーションの分野でNvidiaと協力しています。

最後に、NvidiaのAI Omniverseを使用して、工場のエンドツーエンドのサイクルタイムを 50% 短縮しています。自動運転車技術を開発しているすべての自動車メーカーがデータセンターでNvidiaを使用しているため、自動車業界は今四半期の主要な成長ドライバーでした。自動車業界は、オンプレミス展開とクラウド利用から数十億ドルの収益を生み出し、次世代のAVモデルがはるかに高い計算能力を必要とするにつれて、自動車産業からの収益は増加するでしょう。人工知能が医療画像、外科用ロボティクス、患者ケア、電子医療記録処理、医薬品開発に革命を起こすにつれて、ヘルスケアも数十億ドル規模のビジネスになるでしょう。

今四半期に、MetaのLlama 3.1モデルセットを使用する新しいNvidia AIファウンドリーサービスを発表しました。これは、グローバル企業のジェネレーティブ人工知能を大幅に強化し、企業の人工知能にとって分岐点となる瞬間です。企業は初めて、オープンソースの最先端モデルの力を利用してカスタマイズされた人工知能アプリケーションを開発し、組織の知識を人工知能のフライホイールにコード化してビジネスを自動化および加速できるようになりました。アクセンチュアは、この新サービスを利用してカスタムのLlama 3.1モデルを構築した最初の企業です。このモデルは、自社だけでなく、お客様のジェネレーティブAIアプリケーションの導入を支援するためにも使用できます。

NvidiaのNIMモデルは導入を加速し簡素化し、ヘルスケア、エネルギー、金融サービス、小売、運輸、電気通信の企業は、アラムコ、ロウズ、ウーバーなどの企業がNIMを採用しています。AT&Tは、生成型人工知能、通話の文字起こし、分類にNIMを使用した後、70%のコスト削減と8倍の待ち時間の短縮を達成しました。150を超えるパートナーが、AIエコシステムのあらゆる層にNIMを組み込んでいます。

NIM Agent Blueprintをリリースしました。これは、エンタープライズで生成された人工知能アプリケーションを構築および展開するためのソフトウェア一式を含む、カスタマイズ可能なリファレンスアプリケーションのカタログです。NIM Agent Blueprintを使えば、企業は徐々にAIアプリケーションを改良し、データ主導型の人工知能フライホイールを作ることができます。最初のNIMエージェントブループリントには、カスタマーサービス、コンピューター支援創薬、企業創薬強化のために生成されるワークロードが含まれています。当社のシステムインテグレーター、テクノロジーソリューションプロバイダー、システムビルダーは、Nvidia NIMエージェントブループリントを企業にもたらしています。

Nvidia NIMとNIMエージェントブループリントは、勢いを増しているNVIDIA AIエンタープライズソフトウェアプラットフォームから入手できます。ソフトウェア、SaaS、およびサポートの収益は、今年末までに年間 20 億ドル近くで増加すると予想しています。特に NVIDIA AI Enterprise がその成長に大きく貢献しています。

ゲームとAI PCを見ると、ゲームの収益は28.8億ドルで、前月比9%、前年比16%増加しました。コンソール、ノートパソコン、デスクトップの収益は継続的に増加しており、需要は堅調に推移しており、チャネル在庫は健全です。RTXを搭載したすべてのPCは人工知能PCです。RTX PCは最大1300台の人工知能チップを提供でき、大手PCメーカーは200台以上のRTX AIラップトップを設計しています。600のAI搭載アプリとゲーム、1億台のデバイスインストールにより、RTXは生成型人工知能を通じて消費者体験に革命をもたらします。

NVIDIA ACEは、RTX AI PC向けのジェネレーティブ人工知能テクノロジーのスイートです。MegabreakはNvidiaを使用した最初のゲームで、デバイスの推論に最適化された小言語モデルのNemotron 4Bが含まれています。Nvidiaのゲームエコシステムは成長を続けています。最近追加されたRTXとDLSSのゲームには、レイダース・オブ・ザ・ロスト・トレジャー、デューン・アウェイクニング、ドラゴンエイジ:フェイス・トゥ・キルなどがあります。GeForce NOWのライブラリは拡大を続けており、総カタログ数は2000タイトルを超え、クラウドゲームサービスの中で最大のコンテンツです。プロフェッショナルなビジュアライゼーションへの移行により、売上高は4億5400万ドルで、前月比で6%、前年比20%増でした。モデルの微調整やオムニバース関連のワークロードなど、人工知能とグラフィックスのユースケースが市場の需要を牽引しています。

自動車と製造は、今四半期の成長を牽引した主要な垂直セクターの1つであり、企業は業務全体の効率を向上させるためにワークフローのデジタル化を競っています。世界最大の電子機器メーカーであるFoxconnは、NVIDIA Omniverseを使用して、NVIDIA Blackwellシステムを製造する物理的な工場のデジタルツインをサポートしています。メルセデスベンツを含むいくつかの大手グローバル企業は、工場の産業用デジタルツインを構築するためにNVIDIA Omniverse Cloudと複数年契約を結んでいます。

新しいNvidia USD NIMとコネクタをリリースしました。これにより、オムニバースを新しい業界に開放し、開発者がジェネレーティブ人工知能のコドライバーとエージェントをUSDワークロードに組み込むことができ、高精度の仮想世界を構築する能力を加速できます。WPPは、コカ・コーラなどの顧客向けに、ジェネレーティブAIコンテンツ作成パイプラインにUSD NIMマイクロサービスを実装しています。自動車とロボット工学への移行により、売上高は3億4600万ドルで、前月比で5%、前年比37%増加しました。

自動運転プラットフォームへの新規顧客の増加と人工知能コックピットソリューションに対する需要の増加が、事業の前年比成長に貢献しました。コンピュータービジョンとパターン認識カンファレンスのコンシューマー部門で、Nvidiaは「インディペンデントブランドチャレンジ」の「エンドツーエンドのプレミアムドライビング」部門で優勝し、世界中の400以上のプロジェクトで際立っていました。(ボストンダイナミクス、BYDエレクトロニクス)、フィギュア、イントリンシック、シーメンス、テラダロボティクスは、自律型ロボットアーム、ヒューマノイドロボット、およびモバイルロボットにNvidia Isaacロボットプラットフォームを使用しています。

それでは、損益計算書の残りの部分を見てみましょう。GAAPベースの売上総利益率は 75.1% で、非GAAPベースの売上総利益率は 75.7% でした。前月比の減少は、データセンターの新しい製品ポートフォリオと低利回りのブラックウェル・マテリアルズの在庫引当金の追加によるものです。GAAPおよび非GAAPベースの営業費用は、主に支払い関連コストの増加を反映して、前月比で12%増加しました。営業キャッシュフローは1,450億ドルでした。第2四半期には、1株当たりの配当金の増加を反映して、74億ドルの現金を使って自社株買いや現金配当という形で株主に還元しました。当社の取締役会は最近、第2四半期末の残りの75億ドルの委任を補うために、500億ドルの自社株買いの義務を承認しました。

第3四半期の見通しについてお話させてください。総収益は325億ドルで、2% の変動が見込まれています。第3四半期の収益見通しには、ホッパーのアーキテクチャとブラックウェル製品のサンプルの継続的な成長が含まれています。ブラックウェルの生産は第4四半期に増加すると予想され、GAAPと非GAAPベースの売上総利益率はそれぞれ74.4%と75%で、50ベーシスポイントの増減が見込まれます。データセンターのポートフォリオが新製品に移行し続ける中、この傾向は2025年度の第4四半期まで続くと予想され、売上総利益率は通年で約70%になると予想されます。

米国会計基準(GAAP)と非GAAP(非GAAP)に基づく営業費用は、それぞれ約43億ドルと30億ドルと推定されています。次世代製品の開発に取り組むにつれて、営業費用は年間を通じて約 40% 増加すると予想されます。GAAPおよび非GAAPに基づくその他の収益および費用は、無関係投資および上場株式の損益を含めて、約3億5000万ドルになると予想されます。米国会計基準(GAAP)と非GAAP(非GAAP)の税率は 17% で、1% の増減を見込んでいます。個々の項目は含まれていません。

Q&Aセッション

Q1アナリストのVivek Arya:質問に答えてくれてありがとうございます。ジェンセンはコメントの中で、Blackwell GPUマスクが変更されたと言いました。興味があります。バックエンドのパッケージやその他の面で他に段階的な変更はありますか?これに関連して、設計が変更されても、ブラックウェルの出荷額は第4四半期になっても数十億ドルに達するだろうとおっしゃいましたね。それまでにこれらの問題はすべて解決されるからですか?Blackwellのスケジュール変更がもたらす全体的な影響、これがあなたの収益に与える影響、そして顧客がそれにどのように反応しているかを評価するのを手伝ってください。

社長兼最高経営責任者:ジェンセン・ファン

ありがとうございます。ブラックウェルの変更が完了しました。機能的な変更はありません。現在、ブラックウェル、グレース・ブラックウェル、およびさまざまなシステム構成の機能サンプルを行っています。Computexでは、約100種類のブラックウェルベースのシステムが展示されており、私たちのエコシステムもこれらのサンプルの提供を開始しています。Blackwellの機能は変わらず、第4四半期に生産が開始される予定です。

Q2 ゴールドマン・サックス針也:比較的昔からある質問があります。ご存知かもしれませんが、市場では、顧客と顧客の投資収益率、そしてこれが将来の資本支出の持続可能性にとってどのような意味を持つかについて、激しい議論が交わされています。

Nvidiaの中で、何に焦点を当てていますか?顧客からの返品と、顧客からの返品が資本支出に与える影響を測定するとき、ダッシュボードには何がありますか?それから、コレットのフォローアップの質問がありました。あなたのソブリンAIは年間を通して数十億ドル増加すると思います。見通しの改善を後押ししているのは何ですか?また、26年度はどう見るべきですか?

社長兼最高経営責任者:ジェンセン・ファン

まず、第4四半期に生産が開始されると言うのは、出荷の開始ではなく、出荷のことです。長期的には、一歩後退しましょう。私たちは同時に2つのプラットフォームの変革を遂げていると私が言うのを聞いたことがあるでしょう。

1つ目は、アクセラレーテッド・コンピューティングからジェネラル・コンピューティングへ、そしてジェネラル・コンピューティングからアクセラレーテッド・コンピューティングへの移行です。その理由は、ご存知のとおり、CPUの拡張速度がしばらくの間鈍化しており、遅くなるほど遅くなっているからです。しかし、コンピューティングの需要は依然として大幅に増加しています。毎年倍増していると推定することもできます。

そのため、新しいアプローチをとらなければ、計算量の膨張によって企業あたりのコストが上昇し、世界中のデータセンターのエネルギー消費量が増加します。実際、アクセラレーテッドコンピューティングというものは既に見たことがあるでしょう。

アクセラレーテッドコンピューティングはもちろんアプリケーションをスピードアップできることを私たちは知っています。また、科学シミュレーションやデータベース処理など、より大きな計算を実行することもできますが、これは直接コストとエネルギー消費量の削減につながります。実際、今週、私たちが提供しているさまざまな新しいライブラリを紹介するブログ記事がありました。そして、これが最初のプラットフォーム移行の中核です。一般的なコンピューティングからアクセラレーテッドコンピューティングまで、コンピューティングコストの 90% を節約できる人がいるのは珍しいことではありません。その理由は、もちろん、アプリの実行速度が50倍速くなったからです。計算コストが大幅に下がると予想されます。

第二に、アクセラレーテッドコンピューティングが可能な理由は、大規模な言語モデルのトレーニングやディープラーニングのトレーニングのコストを大幅に削減したので、大規模なモデル、数百万のパラメーターを持つモデルを構築し、世界中のほぼすべての知識コーパスでそれらを事前トレーニングし、モデルに人間の言語表現を理解する方法、知識をニューラルネットワークにコード化する方法、推論を学ぶ方法をモデルに理解させることができるようになったからです。ジェネレーティブ人工知能革命を起こします。さて、振り返って、なぜ私たちがジェネレーティブ人工知能をこれほど深く掘り下げているのかを見てみましょう。なぜなら、それは単なる機能ではなく、単なる能力ではなく、ソフトウェアを開発する新しい方法だからです。今では、人間が設計したアルゴリズムではなく、データがあります。私たちは人工知能に伝え、モデルに伝え、どんな答えが期待されるかをコンピューターに伝えます。以前の観察結果は何でしたか?

次に、アルゴリズムとは何か、その機能は何かを理解させてください。一般的な人工知能は汎用関数近似器であり、関数を学習できます。つまり、予測可能なもの、構造化されたもの、以前に例があったものなら何でも、ほとんど何でも、その機能を学ぶことができます。今では、生成型人工知能があります。これは根本的に新しい形のコンピューターサイエンスです。CPUからGPU、人間が設計したアルゴリズムから機械学習アルゴリズムまで、計算のあらゆる層に影響を与えています。あなたが今開発して生産できるアプリケーションの種類は根本的に素晴らしいです。

ジェネレーティブ人工知能ではいくつかのことが起こっています。まず、最先端モデルの規模は拡大していますが、拡張のメリットはまだあります。モデルのサイズを2倍にするたびに、トレーニングに使用したデータセットのサイズも2倍以上にする必要があります。その結果、モデルの作成に必要な計算回数は4倍に増えます。したがって、次世代モデルでは、前の世代が必要としていた計算量の10、20、または40倍が必要になるのは当然のことです。

したがって、エネルギー消費量を削減し、必要なコストを削減するためには、世代間のパフォーマンスを劇的に向上させ続けなければなりません。したがって、まず、より多くのモードでトレーニングされた最先端のモデルの方が大きいということです。驚いたことに、昨年よりも最先端のモデルメーカーが増えています。その結果、あなたにはますます多くの機会があります。これはジェネレーティブ人工知能の原動力の1つです。

次に、これは氷山の一角に過ぎませんが、私たちが注目しているのはChatGPT画像ジェネレーターです。私たちが注目しているのはコーディングです。Nvidiaでは、コーディングにジェネレーティブ人工知能を広く使用しています。もちろん、デジタルデザイナーとかそういう人もたくさんいます。しかし、これらは氷山の一角にすぎません。氷山の下には、今日の世界最大のシステムと最大のコンピューティングシステムがあります。つまり、過去に私が話していた推奨システムで、中央処理装置から切り替えたものです。現在、CPUからジェネレーティブ人工知能への移行が進んでいます。

その結果、レコメンデーションシステム、広告生成、カスタマイズされた広告生成、非常に大規模でターゲティングの高い広告、検索、ユーザー生成コンテンツはすべて非常に大規模なアプリケーションであり、現在ではジェネレーティブ人工知能に進化しています。もちろん、ジェネレーティブAIの新興企業の数は、クラウドパートナーに数百億ドルものクラウドリースの機会をもたらしています。ソブリン人工知能もあります。現在、一部の国では、データは自国の天然資源であり、独自のデジタルインテリジェンスを持つためには、人工知能を使用して独自の人工知能インフラストラクチャを構築する必要があります。コレットが前に述べたように、エンタープライズ人工知能は飛躍しつつあり、世界をリードするIT企業がNvidia AIエンタープライズプラットフォームをグローバル企業にもたらすことを私たちが発表するのを見たことがあるかもしれません。

私たちが話をした企業の多くは、生産性の向上に非常に興奮していました。それから、一般的なロボット工学があります。昨年、ビデオや人間のデモンストレーションを見て物理的な人工知能を学習し、Omniverseのようなシステムからの強化学習から合成データを生成できたので、今ではほとんどすべてのロボット企業と提携して、一般的なロボット技術について考えたり構築したりできるようになりました。ご覧のとおり、ジェネレーティブ人工知能はさまざまな方向に動いています。

その結果、実際にジェネレーティブ人工知能が加速しています。

最高財務責任者兼執行副社長:コレット・M・クレス

自律型人工知能の問題と、成長と収益という観点からの私たちの目標に関しては、これはもちろんユニークで増え続ける機会です。ジェネレーティブ人工知能の出現により、世界中の国々は、自国の言語、自国の文化、独自のデータを国内に統合できる独自のジェネレーティブ人工知能を持ちたいと考えています。その結果、これらのモデルとそれらがこれらの国にもたらすものに興奮する人がますます増えているので、開発の機会が見えてきています。

Q3 モルガン・スタンレー・ジョー・ムーア:プレスリリースで、ブラックウェルの期待は信じられないとおっしゃいましたが、ホッパーの需要も非常に強いようです。ブラックウェルがなかったら、10月の四半期は非常に好調だったでしょう。では、両者からの強い需要がいつまで共存できると思いますか?ブラックウェルへの移行について話していただけますか?人々はクラスターを混在させると思いますか?ブラックウェルの活動のほとんどは新しいクラスターだと思いますか?移行期間について知りたいです。

ジェンセン・ファン、社長兼最高経営責任者

ありがとうございます、ホッパーの需要は本当に強いです、はい、ブラックウェルにも大きな需要があります。

これにはいくつか理由があります。第一の理由は、世界中のクラウドサービスプロバイダーを見ると、基本的に利用可能なGPU容量がゼロだからです。その理由は、データ処理などの自社のワークロードをスピードアップするために社内に配置されているからです。データ処理。とてもありふれたことなので、ほとんど話しません。

画像やテキストを生成しないので、かっこよくありません。しかし、世界中のほとんどすべての企業がバックグラウンドでデータを処理しています。そして、NvidiaのGPUは、データ、SQLデータ、Pandasデータ、およびデータサイエンスツールキット(Pandasツールキットや新しく発売されたPolarツールキットなど)を処理および高速化できる地球上で唯一のアクセラレータです。

これらはすべて、世界で最も人気のあるデータ処理プラットフォームです。前に述べたように、CPUとは別に、NVIDIAのアクセラレーテッドコンピューティングは、実際にはCPUのパフォーマンスを向上させる唯一の方法です。ジェネレーティブ人工知能が登場するずっと前から、一番のユースケースは、アプリケーションをアクセラレーテッドコンピューティングプラットフォームに1つずつ移行することでした。

2つ目は、もちろんリースです。生産能力をモデルメーカーに貸します。彼らはスタートアップに機能を貸し出しています。一方、人工知能企業は、投資の大部分を人工知能を使って製品を作るためにインフラ構築に投資するので、これらの企業は今それを必要としています。彼らはそれをまったく買う余裕がありません-。あなたはただ資金を集めているだけです。彼らはあなたに今あなたのお金を使ってほしいと思っています。あなたはしなければならないことをしなければなりません。

来年はできない、今日やらないといけない、それにはもっともな理由があります。ホッパーの需要が高い2つ目の理由は、人々が次の段階に進もうと必死になっていることです。次の高原に最初に到達した人が、革新的な人工知能を導入することができます。目標を達成する2人目の人も徐々に上達するか、1人目の人とほぼ同じになります。したがって、体系的かつ継続的に次の段階に進み、最初にそこに到達することが、リーダーシップを確立する方法です。Nvidiaはこれを行ってきました、そして私たちはこれ、私たちが作るGPU、私たちが作る人工知能工場、ネットワークシステム、SoCを世界に示してきました。

つまり、私たちは道を切り開き、常に世界一になりたいと思っています。だからこそ、私たちは一生懸命働いています。もちろん、私たちは自分たちの夢、将来の能力、そして社会にもたらすことができる利益を実現したいと思っています。これらのモデルメーカーもそうです。もちろん、彼らは世界で一番になりたいと思っています。彼らは世界一になりたいです。ブラックウェルは今年末までに数十億ドルの出荷を開始する予定ですが、生産能力が確立するまでに数週間から1か月かかる場合があります。だから今からそれまで、ジェネレーティブAI市場は活気に満ちているでしょう。

誰もがとても不安です。これが彼らが運営にそれを必要とする理由のどちらかです。彼らは計算をスピードアップする必要があります。彼らはもっと一般的なコンピューティングインフラストラクチャ、あるいはホッパーを構築したくありません。もちろん、H200は最も先進的です。あなたのビジネスのためのCPUインフラストラクチャを今構築するか、あなたのビジネスのためのホッパーインフラストラクチャを今構築するかを選択する場合、決定は比較的明確です。人々はすでに設置されている1兆ドルのインフラを近代的なインフラに転換しようと急いでいると思います。ホッパーは最も先進的なインフラです。

第4四半期のTD Cowenのアナリスト、マット・ラムゼイ:前の質問の1つに、これらすべての資本支出の投資収益率に関する投資家の議論に戻りたいと思います。AGI統合の最先端を押し進めるために、これほど多くのお金を費やした人がどれだけいるか分かりますよね。あなたが今言ったように、彼らは新しいレベルの能力に達すると、そのレベルの能力に到達するために必要なことは何でもします。これにより、業界や会社に多くの扉が開かれました。

一方、今日の顧客は、資本支出と投資収益率について非常に懸念しています。この区別が理にかなっているかどうかはわかりません。ただ、この新しいテクノロジーに投資する人々の優先事項、優先事項、投資の時期についてどう思いますか?

社長兼最高経営責任者のジェンセン・ファン:

Nvidiaのインフラストラクチャに投資したユーザーは、すぐに恩恵を受けることができます。これは現在、最も収益性の高いインフラとコンピューティングインフラへの投資です。ですから、考え方の一つ、そしておそらく最も簡単な考え方は、元の原則に戻ることです。

あなたは1兆ドル相当の汎用コンピューティングインフラストラクチャを持っています。問題は、このインフラストラクチャをさらに構築したいかということです。10億ドル相当の汎用CPUインフラストラクチャを構築するごとに、レンタル費用は10億ドル未満になる可能性があります。商業化されたおかげで、すでに1兆ドルが調達されています。では、もっと多くの資金を調達する意味はありますか?その結果、この種のインフラストラクチャを手に入れようと奮闘している人々は、ホッパーベースのインフラストラクチャ、そしてまもなくブラックウェルベースのインフラストラクチャをセットアップすると、費用を節約し始めます。

それは大きな投資収益率です。彼らがお金を節約し始めた理由は、データ処理がお金を節約したからです。データ処理はおそらくその重要な部分の1つにすぎません。したがって、レコメンデーションシステムはお金の節約などが可能で、こうすることで、お金を節約し始めることができます。

2つ目は、非常に多くの企業がジェネレーティブ人工知能を開発しているため、構築したものはすべてリースされるということです。あなたの能力はすぐに借りられ、投資収益率は非常に高いです。

3つ目の理由はあなた自身のビジネスです。独自の次のフロンティアを作りたいですか、それともあなたのインターネットサービスに次世代の広告システム、次世代のレコメンデーションシステム、または次世代の検索システムの恩恵を受けたいですか?つまり、独自のサービス、独自のストア、独自のユーザー生成コンテンツ、ソーシャルメディアプラットフォーム、および独自のサービスについては、ジェネレーティブ人工知能も投資収益率が高いです。したがって、この問題はさまざまな方法で考えることができます。

しかし、その核となるのは、それが今使える最高のコンピューティングインフラだからです。一般的なコンピューティングの世界はアクセラレーテッドコンピューティングにシフトしています。人間が設計したソフトウェアの世界は、生成型人工知能ソフトウェアに移行しています。クラウドコンピューティングとデータセンターを近代化するインフラストラクチャを構築したい場合は、Nvidiaのアクセラレーテッドコンピューティング技術を使用してください。これが最善のアプローチです。

Q5 UBS ティモシー・アル?$#@$:どうもありがとうございます。最近および長期的な収益の伸びについて聞きたいです。今年、皆さんが本当に運営費を増やしたことは知っています。あなたの調達コミットメントと供給義務の増加を見ると、これもかなり楽観的です。

一方で、実際に液冷を使用する準備ができている顧客は多くないようだという意見もあります。また、空冷を使用できるラックもあることも知っています。これはブラックウェルが発展する際に考慮すべきことですか?それから、明らかに素晴らしい年になり、26年を迎える来年を見据えるとき、電力供給チェーンや、ある時点でモデルが小さくなり始めるなど、他の制約について心配していますか?

ジェンセン・ファン、社長兼最高経営責任者

私は後戻りします。質問ありがとうございます。世界は汎用コンピューティングからアクセラレーテッドコンピューティングに移行しつつあり、世界は約1兆ドル相当のデータセンターを建設していることを覚えておいてください。

数年後には、1兆ドル規模のデータセンターがすべてアクセラレーテッドコンピューティングを使用するようになります。これまで、データセンターにはGPUはなく、CPUしかありませんでした。将来は、すべてのデータセンターにGPUが搭載されるようになるでしょう。その理由は明らかです。持続可能性を維持し、計算コストを削減し続けるためには、ワークロードを加速する必要があります。そうすれば、計算量が増えても計算量が膨張することはありません。

次に、「ジェネレーティブ人工知能」と呼ばれる新しいコンピューティングモデルを実現するにはGPUが必要です。これはコンピューティングの未来を劇的に変えることは誰もが知っています。つまり、逆の考え方では、今後1兆ドルの世界のインフラは、以前の1兆ドルとは大きく異なり、大幅に加速されると思います。ランプの形状に関しては、さまざまな構成のブラックウェル構成を提供しています。ブラックウェルには、クラシックなブラックウェルとHGXの2種類があります。前者はVoltaで最初に採用したHGXフォームファクターを使用しています。

Voltaだと思います。HGXプロファイルはしばらく出荷されており、空冷式です。グレース・ブラックウェルは液冷式で、液冷技術の使用を検討しているデータセンターの数はかなりあります。その理由は、水冷式データセンター、どのデータセンター、つまり電力が限られているデータセンターでも、データセンターの規模に関係なく、人工知能スループットを設置して展開できるからです。その結果、液体冷却のコストは低くなります。液冷技術は総所有コスト(TCO)を下げます。また、液冷技術により、NVLinkと呼ばれる機能の恩恵を受けることができます。これにより、72個のGrace Blackwellパッケージ、つまり144個のGPUに拡張できます。

144個のGPUがNVLink経由で接続されていると想像してみてください。これを行うことの利点をどんどんお見せしていきます。次のクリックは、明らかにレイテンシーが非常に低く、スループットが非常に高い大きな言語モデル推論です。大きなNVLinkフィールドはゲームのルールを変えます。ですから、この2つの製品を導入するとき、人々はとても便利になると思います。

その結果、私たちが協力しているほとんどすべてのCSPが両方のテクノロジーを導入しています。したがって、生産能力の増強に成功すると確信しています。2つ目の質問は、将来を見据えて、来年は素晴らしい年になり、データセンター事業は来年大幅に成長すると予想しているということです。

ブラックウェルは業界全体のゲームのルールに革命をもたらし、ブラックウェルは来年もそれを続けます。前に述べたように、最初の原則から逆に、コンピューティングは2つのプラットフォームで同時に変革を遂げていることを覚えておいてください。これはとても重要です。一般的なコンピューティングはアクセラレーテッドコンピューティングに移行し、人間工学ソフトウェアはジェネレーティブ人工知能または人工知能学習ソフトウェアに移行しつつあるということです。

Q6: バーンスタイン・ステイシー・ラスゴン:コレットに聞きたい質問が2つあります。第4四半期のブラックウェルの収益は数十億ドルでした。これは追加でしたか?ホッパーの需要は下半期に増加すると予想しています。ブラックウェルの数十億ドルの増加に加えて、ホッパーも第3四半期から第4四半期にかけて堅調になるということですか?

2つ目の問題は、売上総利益率です。今年の売上総利益率が約75%の場合、第4四半期の売上総利益率は71%から72%の間になります。これはあなたの予想売上総利益率です?ブラックウェルが発展するにつれて、来年の売上総利益率の変化をどう見るべきですか?つまり、利回りや在庫準備金、その他すべてを改善したいです。

最高財務責任者兼副社長、コレット・M・クレスさん:

まず、ホッパーとブラックウェルについての質問に答えることから始めましょう。ホッパーは今年の後半も成長を続けると信じています。私たちはホッパーのために多くの新製品を開発してきましたが、ホッパーの既存の製品は今後数四半期(第3四半期を含む)にわたって成長し続け、これらの新製品は第4四半期に入ると考えています。したがって、ホッパーは今年の上半期と比較して間違いなく成長の機会です。さらに、ブラックウェル・プロジェクトもあります。これは第4四半期から稼働する予定です。ですから、この2つのポイントがあなたに役立つことを願っています。

第二の部分は売上総利益率です。第3四半期の売上総利益のガイダンスを提供します。私たちが提供する非GAAPベースの売上総利益率は約 75% です。現在進行中のさまざまな移行は私たちが処理しますが、第3四半期には75%に達すると考えており、年間総利益率は約70%になると予想しています。第4四半期には、私たちの変革と新製品発売のコスト構造の違いにも関係して、若干の違いが見られるでしょう。

しかし、私はあなたと同じ番号ではありません。正確なガイドラインはありませんが、あなたの期待は私たちの期待よりも低いと思います。

Q7: Meliusのリサーチアナリスト、Ben Reitzes:各地域の状況について聞きたいです。発表された第10四半期のレポートでは、米国の業績は引き続き低下しましたが、アジアのいくつかの地域は急激な成長を続けました。

ダイナミクスがどうなっているのか疑問に思っています。明らかに、中国は非常に好調です。あなたは声明でこれについて述べました。どのような影響がありますか?では、これらすべての好調な収益動向を踏まえると、会社の全体的な収益成長率が第4四半期に加速するということですか?

コレット・M・クレス、最高財務責任者兼執行副社長

10-Qレポートでの開示についてお話ししましょう。これは、さまざまな地域で開示する必要のある情報です。重要な部分を考え出す必要があるため、適切な情報開示を行うことは非常に難しい場合があります。私たちの開示には、販売先や具体的に請求する人が含まれているので、ここに表示されているのは請求先です。しかし、それが必ずしも製品の最終目的ではなく、最終顧客である必要もありません。

当社の製品ポートフォリオのほとんどの製品は、OEM、ODM、およびシステムインテグレーターに送られます。つまり、これらの製品がデータセンター、ラップトップ、その他の製品に入る前に、完全な構成を完了するために使用する人が急激に変わることがあるということです。この変革は、ゲーム、データセンター、自動車など、時々起こっています。

売上総利益率とホッパーとブラックウェルの収益状況に関するあなたの声明に戻りますが、ホッパーは下半期も成長を続け、現在の水準から成長を続けます。

現在、第3四半期と第4四半期の正確な組み合わせを特定することはできません。第4四半期に関しては、まだガイダンスを提供できません。しかし、現在の需要予想と、第4四半期には成長機会が見えてきます。さらに、ブラックウェルのアーキテクチャもあります。

Q8: カンター・フィッツジェラルドのアナリスト、C・J・ミューズ:あなたは毎年、目覚ましい製品リズムに乗り始めており、高度なパッケージングの世界が複雑さを増し続けるにつれて、ますます多くの課題に直面する可能性があります。

一歩下がると、この状況によって、垂直統合やサプライチェーンパートナーシップの拡大に対する考えが変わり、それに応じて収益にどのような影響が及ぶでしょうか?

ジェンセン・ファン、社長兼最高経営責任者

あなたの最初の質問に答えたいのですが、私たちがこんなに速い理由は、モデルの複雑さが増しており、コスト削減を続けたいからでもあります。

それは成長しています、そして私たちはそれを拡大し続けたいと思っています。私たちは、人工知能モデルをスケールアップし続けることで、並外れたレベルに到達し、次の産業革命を開始し、可能にすると信じています。私たちはこれを確信しています。したがって、私たちはスケールアップを続けるために最善を尽くします。

私たちには、人工知能工場を統合して設計する非常にユニークな能力があり、すべてのコンポーネントが揃っています。すべてのコンポーネントが揃っていない限り、毎年新しい人工知能工場を設計することは不可能です。その結果、来年は会社の歴史上よりも多くのCPUとGPUを出荷する予定です。もちろん、南北にはNVLinkスイッチ、CX DPU、East-West ConnectX、BlueField DPU、スーパーコンピューティングセンター向けのInfiniBandとイーサネットのデータおよびストレージ処理が出荷されます。実際、私たちはこれらすべてにアクセスでき、ご存知のように、完成したら新機能を市場に投入できるアーキテクチャスタックを構築できます。

そうしないと、これらの部品を出荷し、販売する顧客を見つけ、建設しなければならない状況が発生します。誰かが人工知能工場を設立しなければならず、人工知能工場には大量のソフトウェアがあります。つまり、誰がそれを統合するかが問題ではありません。サプライチェーンが混乱し、Quanta、Foxconn、HP、Dell、Lenovo、Ultramanにサービスを提供できるという事実が気に入っています。以前はZTEにサービスを提供できました。

それらは最近買収されたなどでした。その結果、ギガバイトというエコシステムパートナーが多数あり、私たちのアーキテクチャ、オリジナルデザインの製造業者とインテグレーター、そして統合されたサプライチェーンを採用するために必要な規模と範囲は、世界が広いので巨大です。ですから、私たちは仕事のこの部分をやりたくないし、それが得意でもありません。しかし、私たちはAIインフラストラクチャを設計し、お客様が好む方法を提供し、それをエコシステムに統合させる方法を知っています。

Q9: ウェルズ・ファーゴ・アーロン・レックス:ブラックウェルの製品サイクルについてもっと話したいのですが。よく聞かれる質問は、NVLink、GB NVL72、Blackwellの製品サイクルを利用した市場開拓のダイナミクスを考えるとき、ラックスケールシステムミックスのダイナミクスをどう見るかということです。ブラックウェルのサイクルプログレッションについて考え始めると、ラックスケールシステムの組み合わせについてどう思いますか?

ジェンセン・ファン、社長兼最高経営責任者

Blackwellラックシステムの設計とアーキテクチャはラックですが、分解されたシステムコンポーネントとして販売されています。ラック全体を販売するわけではありません。

その理由は、すべてのラックが同じではないからです。OCP標準のものもあれば、そうでないものもあります。一部はエンタープライズグレードなので、電力制限は人によって異なる場合があります。CDUの選択、電源バスの選択、構成、データセンターの統合はすべて同じではありません。そのため、設計時には、ラック全体を設計しました。ソフトウェアはラック全体で問題なく動作します。次に、システムコンポーネントを供給します。

たとえば、CPUとGPUの計算ボードはMGXに統合されます。これはモジュラーシステムアーキテクチャです。MGXは完全にオリジナルです。工場のいたるところにMGXのODM、インテグレーター、OEMがあります。

つまり、3,000ポンドのラックを納入する限り、ほとんどすべての構成で問題ありません。かなり重いため、データセンターの近くで統合して組み立てる必要があります。そのため、GPU、CPU、スイッチ、ネットワークカードを提供した瞬間から、サプライチェーンのすべてはCSPとデータセンターの近くで行われています。つまり、世界にデータセンターがいくつあるか、そしてODMパートナーとともに拡張したロジスティクスセンターの数を想像できるでしょう。

ですから、私たちはそれをラックとして見せていて、常にそのように表示されているので、おそらくお客様に私たちが統合しているという印象を与えていると思います。私たちの顧客は私たちの統合を嫌い、私たちのサプライチェーンは私たちの統合を嫌い、そして彼らは私たちの統合をしたいと思っています。

それが彼らの付加価値です。必要に応じて、最終的な設計統合もあります。データセンターに入るほど簡単ではありませんが、設計と設置は本当に複雑です。その結果、設計、設置、試運転、修理、交換の全サイクルが世界中で行われています。

私たちはODMとOEMパートナーの巨大なネットワークを持っており、この点で素晴らしい仕事をしてきました。ですから、統合は私たちがラックを作る理由ではありません。これは、私たちがラックを作る理由とは正反対です。私たちはインテグレーターになりたいのではなく、テクノロジープロバイダーになりたいと思っています。

ジェンセン・ホアンの閉会の挨拶

ありがとう、そして私が以前にしたコメントをもう少し投稿させてください。世界中のデータセンターが、アクセラレーテッドコンピューティングとジェネレーティブ人工知能を使ってコンピューティングスタック全体を近代化しようと懸命に取り組んでいます。ホッパーへの需要は依然として強く、ブラックウェルへの期待は信じられないほどです。

私たちの会社の5つのハイライトを紹介しましょう。アクセラレーテッドコンピューティングは転換点に達し、CPUの拡張は鈍化しています。開発者はすべてを可能な限りスピードアップする必要があります。

アクセラレーテッドコンピューティングはCUDA-Xライブラリから始まります。新しいライブラリはNvidiaに新しい市場を開きました。CUDA-X Accelerated Polars、Pandas、Sparkなど、CUVI-Sベクトルデータベース用の主要なデータサイエンスおよびデータ処理ライブラリであるCUDA-X Accelerated Polars、Pandas、Sparkなど、現在非常に人気のある多くの新しいライブラリをリリースしました。

アリエルと5Gワイヤレス基地局用のデータセンター一式にアクセスできるようになりました。遺伝子配列決定用のパラブリックとタンパク質構造予測用のAlphaFold2の両方がCUDAアクセラレーションを使用できるようになりました。私たちは、1兆ドル規模のデータセンターを汎用コンピューティングからアクセラレーテッドコンピューティングに近代化する初期段階にあります。これが最初のポイントです

第二に、ホッパーと比べると、ブラックウェルは機能的な飛躍を遂げています。Blackwellは単なるGPUではなく、人工知能の基盤となるプラットフォームです。それは私たちのGPUの名前でもありますが、人工知能インフラストラクチャプラットフォームです。パートナーやお客様にBlackwellやサンプルシステムをさらに紹介するにつれて、Blackwellがいかにリードしているかが一目でわかります。

ブラックウェルのビジョンは5年近くにわたり、7つのユニークなチップによって実現されました。グレイCPU、ブラックウェルのデュアルGPUとコロスパッケージ、東西トラフィック用のConnectX DPU、南北トラフィックとストレージトラフィック用のBlueField DPU、すべてのGPU通信用のNVLinkスイッチ、人間のインテリジェントな大量トラフィックをサポートできるInfiniBandとEthernet用のQuantumとSpectrum-Xです。ブラックウェルのAIファクトリーはビル規模のコンピューターです。Nvidiaは、お客様がAIファクトリーを迅速に構築できるように、チップ、システム、ネットワーク、さらには構内配線、電力と冷却、豊富なソフトウェアに至るまで、Blackwellプラットフォームを設計および最適化しました。

これらは非常に資本集約的なインフラストラクチャであり、顧客は機器を入手したらすぐに導入して、最高のパフォーマンスと総所有コストを実現したいと考えています。ホッパーと比較して、ブラックウェルは電力が限られているデータセンターで人工知能のスループットを3〜5倍向上させることができます。

3つ目はNVLinkです。これはGPUスワップゲーム全体のルールを変える非常に大きな問題です。ブラックウェルのシステムは、72 GB200パッケージの144基のGPUをNVLinkドメインに接続でき、1つのラックのNVLinkの合計帯域幅は毎秒259TBです。この観点から見ると、これはホッパーの約10倍です。1秒あたり259テラバイトの帯域幅は理にかなっています。何兆ものトークンで何百万ものパラメトリックモデルをトレーニングする必要があるからです。その結果、当然大量のデータをGPUからGPUに移動する必要が生じます。

推論の観点から、NVLinkは、低遅延で高スループットで大規模な言語モデルのマークアップを生成するために不可欠です。現在、私たちは3つのネットワークプラットフォームを持っています。GPU拡張用のNVLink、スーパーコンピューティングと専用AIファクトリー用のQuantum InfiniBand、イーサネットAI用のSpectrum-Xです。Nvidiaのネットワークフットプリントは以前よりもはるかに大きくなり、ジェネレーティブ人工知能は勢いを増しています。

最先端のジェネレーティブAIモデルメーカーは、モデルの安全性とIQを向上させるために、AIの次のハイポイントへの拡大を競っています。また、テキスト、画像、ビデオから3D物理学、化学、生物学まで、より多くのモデルを学ぶように拡大しています。チャットボット、コーディング、人工知能、画像ジェネレーターは急速に成長していますが、これは氷山の一角にすぎません。インターネットサービスでは、大規模なレコメンダー、広告ターゲティング、検索システムにジェネレーティブ人工知能を導入しています。

人工知能の新興企業は、毎年数百億ドルのCSPクラウド容量を消費しています。また、各国も人工知能の重要性を認識しており、主権的なAIインフラストラクチャに投資しています。NVIDIA 人工知能 (NVIDIA AI) と NVIDIA Omniverse (NVIDIA Omniverse) は、人工知能の次の時代、汎用ロボットの時代を始めています。企業の人工知能の波が始まった今、私たちは企業のビジネス変革を支援する準備ができています。NVIDIA AIエンタープライズプラットフォームは、Nemo、NIM、NIM Agent Blueprints、AI Foundryと、当社のエコシステムパートナーである大手グローバルIT企業がこれらのプラットフォームを使用して、企業がAIモデルをカスタマイズし、カスタムAIアプリケーションを構築できるよう支援しています。

その後、企業はNvidia AI Enterprise Editionの実行中に展開できます。これは、GPUあたり年間4,500ドルです。これは、AIをどこにでも展開するには非常に価値があります。Nvidiaソフトウェアの場合、インストールされているCUDA互換のGPUの数が数百万から数千万に増えるにつれて、TAMの価値も大きくなります。コレットが言ったように、Nvidiaソフトウェアの今年の売上高は20億ドルに達する見込みです。今日の会議に出席してくれてありがとう。

これらの内容は、情報提供及び投資家教育のためのものであり、いかなる個別株や投資方法を推奨するものではありません。 更に詳しい情報
    コメントする