share_log

NVIDIA Corp. (NVDA) Q2 2024 Earnings Call Transcript

NVIDIA Corp.(NVDA)の2024年第2四半期の決算説明会の記録

moomooニュース ·  2023/08/23 23:57

会社経営

ジェンセン・フアン-共同創設者、CEO、社長

コレット・クレス-EVP兼最高財務責任者

シモナ・ヤンコウスキー-IR担当副社長

アナリスト

ジョセフ・ムーア-モルガン・スタンレー

Vivek Arya-バンク・オブ・アメリカ

トシヤ・ハリ-ゴールドマン・サックス

マット・ラムゼイ-コーウェン

マーク・リパシス-ジェフリーズ

アティフ・マリク-シティ

ティモシー・アル?$#@$-UBS

ベンジャミン・ライツェス-メリウス

ステイシー・ラスゴン-バーンスタイン・リサーチ

オペレーター

こんにちは。私の名前はデイビッドです。今日はあなたの会議の主催者をします。この機会に、NVIDIAの第2四半期決算発表会に皆さんを歓迎したいと思います。今日の会議は録画中です。周囲の雑音を防ぐため、すべての回線がミュートになっています。スピーカーの発言の後、質疑応答があります。[オペレーターの指示]

ありがとうございます。シモナ・ヤンコウスキー、カンファレンスを始めてもいいですよ。

シモナ・ヤンコウスキー

ありがとうございます。みなさん、こんにちは。2024年度第2四半期のNVIDIAの電話会議へようこそ。今日、NVIDIAから私と一緒にいるのは、社長兼最高経営責任者のJensen Huangと、執行副社長兼最高財務責任者のColette Kressです。私たちの電話会議は、NVIDIAの投資家向け広報ウェブサイトでライブ配信されていることを思い出させてください。このウェブキャストは、2024会計年度第3四半期の決算について話し合う電話会議まで再生できます。今日の電話の内容はNVIDIAの所有物です。事前の書面による同意なしに、複製または転記することはできません。

この電話会議中に、現在の予想に基づいて将来の見通しに関する記述を行う場合があります。これらには多くの重大なリスクと不確実性が伴い、実際の結果は大きく異なる可能性があります。将来の財務結果や事業に影響を与える可能性のある要因については、本日の決算発表の開示、最新のフォーム10-Kと10-Q、およびフォーム8-Kで証券取引委員会に提出する報告書を参照してください。私たちの声明はすべて、現在入手可能な情報に基づいて、本日、2023年8月23日現在のものです。法律で義務付けられている場合を除き、私たちはそのような記述を更新する義務を負いません。

この電話会議では、非GAAP財務指標について話し合います。これらの非GAAP財務指標とGAAP財務指標との調整については、当社のウェブサイトに掲載されているCFOの解説をご覧ください。

それでは、コレットに電話をかけさせてください。

コレット・クレス

ありがとう、シモーナ。私たちは並外れた四半期を過ごしました。第2四半期の記録的な135.1億ドルの収益は、前四半期比88%、前年比101%増で、当社の見通しである110億ドルを上回りました。

まず、データセンターから始めましょう。過去最高の103.2億ドルの収益は、前四半期比で141%増加し、前年比で171%増加しました。データセンターのコンピューティング収益は前年比でほぼ3倍になりました。これは主に、ジェネレーティブAIと大規模言語モデルのエンジンであるHGXプラットフォームに対するクラウドサービスプロバイダーや大規模な消費者向けインターネット企業からの需要の加速によるものです。

AWS、Google Cloud、Meta、Microsoft Azure、Oracle Cloudなどの大手企業や、ますます多くのGPUクラウドプロバイダーが、ホッパーおよびアンペアアーキテクチャのテンソルコアGPUをベースにしたHGXシステムを大量に導入しています。AIのゴールドスタンダードであるエンドツーエンドのInfiniBandネットワークプラットフォームにより、ネットワーキング収益は前年比でほぼ2倍になりました。

NVIDIAアクセラレーテッドコンピューティングとAIプラットフォームには途方もない需要があります。私たちの供給パートナーは、私たちのニーズをサポートするためのキャパシティの増加において並外れた存在でした。35,000個の部品と非常に複雑なネットワークを備えたHGXを含む当社のデータセンターのサプライチェーンは、過去10年間に構築されてきました。また、[見分けがつかない] 包装などの製造プロセスの重要なステップに対応するために、追加の生産能力とサプライヤーを開発し、認定しました。

来年にかけて四半期ごとに供給が増えると予想しています。地域別では、顧客がAIとアクセラレーテッドコンピューティングに設備投資を向けたため、データセンターの成長が最も強かったのは米国です。中国の需要は、コンピューティングとネットワーキングソリューションを含め、データセンターの収益の20%から25%という過去の範囲内でした。

ここで、中国への輸出に対する規制が強化される可能性に関する最近の報告についてお話しします。現在の規制は意図した結果を達成していると私たちは信じています。世界中で当社製品に対する強い需要があることを考えると、データセンターのGPUに追加の輸出制限が採用されても、すぐに業績に重大な影響が及ぶとは考えていません。

しかし、長期的には、データセンターGPUの中国への販売を禁止する制限が実施された場合、永久的な損失となり、米国の業界が世界最大の市場の1つで競争し、主導権を握る機会となります。

当社のクラウドサービスプロバイダーは、アクセラレーテッドコンピューティングとAIの新時代に向けてデータセンターのインフラストラクチャをアップグレードするために世代交代を行う中、この四半期にHGXシステムに対する非常に強い需要を牽引しました。NVIDIA HGXプラットフォームは、シリコン、システム、インターコネクト、ネットワーク、ソフトウェア、アルゴリズムにわたる20年近くにわたるフルスタックの革新の集大成です。

NVIDIA H100 Tensor Core GPUを搭載したインスタンスは、現在、AWS、Microsoft Azure、およびいくつかのGPUクラウドプロバイダーで一般に提供されており、他のプロバイダーも間もなく提供される予定です。消費者向けインターネット企業も非常に強い需要を牽引しました。AI専用に構築されたデータセンターのインフラへの投資は、すでに大きな利益を生み出しています。たとえば、Metaは最近、リールを発売して以来、AIのレコメンデーションによってInstagramでの滞在時間が24%以上増加したことを強調しました。

企業もジェネレーティブAIの導入を競い合っており、クラウドでのNVIDIA搭載インスタンスの好調な消費とオンプレミスインフラストラクチャの需要が高まっています。クラウドでもオンプレミスでも、パートナー経由でも、直接顧客にサービスを提供していても、そのアプリケーションはアクセラレーションライブラリ、事前トレーニング済みのモデル、APIにアクセスして、NVIDIA AIエンタープライズソフトウェア上でシームレスに実行できます。

Snowflakeとのパートナーシップを発表しました。これにより、企業は独自のデータを使用してカスタマイズされたジェネレーティブAIアプリケーションをSnowflake Data Cloud内で安全に作成できるようになります。大規模言語モデルを開発するためのNVIDIA NeMoプラットフォームがあれば、企業はチャットボット、検索、要約などの高度なAIサービス用のカスタムLLMをSnowflakeデータクラウドから直接作成できるようになります。

事実上、どの業界もジェネレーティブAIの恩恵を受けることができます。たとえば、マイクロソフトが発表したばかりのようなAI Copilotは、10億人以上のオフィスワーカーと数千万人のソフトウェアエンジニアの生産性を向上させることができます。法律サービス、営業、カスタマーサポート、教育に携わる何十億人もの専門家が、それぞれの分野で訓練を受けたAIシステムを活用できるようになります。AI Copilotとアシスタントは、お客様に数千億ドル規模の新たな市場機会を創出しようとしています。

マーケティング、メディア、エンターテイメントにおけるジェネレーティブAIの初期の応用例がいくつか見られます。世界最大のマーケティングおよびコミュニケーションサービス組織であるWPPは、アーティストやデザイナーがジェネレーティブAIを3Dコンテンツ制作に統合できるように、NVIDIA Omniverseを使用してコンテンツエンジンを開発しています。WPPデザイナーは、ビジュアルデザイン用のカスタム生成AIモデルのファウンドリであるNVIDIA Picassoを使用して、アドビやゲッティイメージズなどのNVIDIAパートナーのジェネレーティブAIツールやコンテンツを責任を持ってトレーニングしながら、テキストプロンプトから画像を作成できます。

ビジュアルコンテンツプロバイダーのShutterstockもNVIDIA Picassoを使用して、ジェネレーティブAIの助けを借りて3Dシーンの背景を作成できるツールとサービスを構築しています。ServiceNowやアクセンチュアと提携して、エンタープライズAI機能の開発を迅速に進めるAI Lighthouseプログラムを立ち上げました。AI Lighthouseは、ServiceNowのエンタープライズオートメーションプラットフォームとエンジンを、NVIDIAアクセラレーテッドコンピューティングとアクセンチュアのコンサルティングおよび展開サービスと統合します。

また、Hugging Faceと協力して、企業向けの新しいカスタムAIモデルの作成を簡素化しています。Hugging Faceは、企業がNVIDIA HGXクラウドを搭載した高度なAIモデルをトレーニングおよび調整するための新しいサービスを提供します。そしてちょうど昨日、VMwareとNVIDIAは、NVIDIAとのVMware Private AI Foundationと呼ばれる主要な新しいエンタープライズサービスを発表しました。これは、VMwareを実行する企業向けのマルチクラウドソフトウェアを備えたNVIDIAのAIソフトウェアとアクセラレーテッドコンピューティングを特徴とする完全統合プラットフォームです。

VMwareの数十万の企業顧客は、モデルをカスタマイズし、インテリジェントなチャットボット、アシスタント、検索、要約などのジェネレーティブAIアプリケーションを実行するために必要なインフラストラクチャ、AI、クラウド管理ソフトウェアにアクセスできるようになります。また、業界標準のデータセンターサーバーエコシステム用に構築された新しいNVIDIA L40S GPUとBluefield-3 DPUデータセンターインフラストラクチャプロセッサを搭載した新しいNVIDIA AIエンタープライズ対応サーバーも発表しました。

L40Sは [見分けがつかない] 供給量に制限されず、世界をリードするサーバーシステムメーカー(ph)に出荷されています。L40Sは大容量データセンター向けに設計されたユニバーサルデータセンタープロセッサで、設計、視覚化、ビデオ処理、NVIDIA Omniverseの産業デジタル化を通じて、AIのトレーニングや発明など、最も計算量の多いアプリケーションを高速化するのに優れています。

NVIDIA AIエンタープライズ対応サーバーは、VMware、クラウドファンデーション、プライベートAIファンデーション向けに完全に最適化されています。デル、HP、レノボなどの世界有数のエンタープライズITコンピューティング企業から、100種類近くの構成のNVIDIA AIエンタープライズ対応サーバーが間もなく入手可能になります。ARMベースのグレースCPUとホッパーGPUを組み合わせたGH200グレースホッパースーパーチップがフル生産に入り、今四半期にOEMサーバーで発売される予定です。また、Atmos (ph)、国立研究所、スイス国立計算センターなど、複数のスーパーコンピューティング顧客にも出荷されています。

そして、NVIDIAとソフトバンクは、ジェネレーティブAIと5G/6Gアプリケーション向けのGH200ベースのプラットフォームで協力しています。最新のHBM3eメモリを搭載したグレースホッパースーパーチップの第2世代バージョンは、2024年の第2四半期に発売されます。巨大なAI言語モデル、レコメンデーターシステム、データ分析用の新しいクラスの大容量メモリAIスーパーコンピューターであるDGX GH200を発表しました。これは新しいNVIDIA [識別不能] スイッチシステムを初めて使用したもので、256個のグレースホッパースーパーチップすべてが一体となって動作するようになりました。[識別不能] 上でわずか8個のGPUを接続した前世代と比べると大きな進歩です。DGX GH200システムは年末までに利用可能になる予定で、グーグルクラウド、メタ、マイクロソフトが最初にアクセスできるようになっています。

ネットワークの力強い成長は、主にHGX GPUシステムを接続するためのInfiniBandインフラストラクチャによって推進されました。InfiniBandは、エンドツーエンドの最適化とネットワーク内コンピューティング機能のおかげで、AI向けに従来のイーサネットの2倍以上のパフォーマンスを提供します。数十億ドル規模のAIインフラストラクチャにとって、InfiniBandのスループットの向上による価値は何百 [見分けもつかない] 価値があり、ネットワークに利益をもたらします。さらに、数十万のGPUにスケーリングできるのはInfiniBandだけです。これは、主要なAI実践者が選択するネットワークです。

AIパフォーマンスの最適化を求めるイーサネットベースのクラウドデータセンター向けに、AIワークロード向けにイーサネットを最適化するように設計された高速ネットワークプラットフォームであるNVIDIA Spectrum-Xを発表しました。Spectrum-Xは、スペクトラムまたはイーサネットスイッチをBlueField-3 DPUと組み合わせて、従来のイーサネットの1.5倍優れたAIパフォーマンスと電力効率を実現します。ブルーフィールド3 DPUは大成功です。大手OEMの認定を受けており、複数のCSPや消費者向けインターネット企業に広がっています。

今度はゲームに移ります。ゲーム収益は24.9億ドルで、前四半期比で11%、前年比22%増加しました。成長は、ラップトップとデスクトップ用のGeForce RTX 40シリーズGPUによって促進されました。最終顧客の需要は堅調で、季節性にも対応していました。昨年の景気減速の後、世界の最終需要は成長に戻ったと考えています。私たちの前には大きなアップグレードの機会があります。インストールベースのわずか47%がRTXにアップグレードされ、GPUの約 20% がRTX 3060以上のパフォーマンスを備えています。

ノートパソコンのGPUは、RTX 4060 GPUを中心に重要な新学期シーズンに力強い成長を記録しました。NVIDIAのGPU搭載ラップトップは人気が高まっており、その出荷台数は現在、世界中のいくつかの地域のデスクトップGPUを上回っています。これにより、当社のゲーム収益全体の現実が少し変わる可能性があります。ラップトップの新学期と休暇中のビルドスケジュールを反映して、第2四半期と第3四半期が好調な四半期となります。

デスクトップでは、GeForce RTX 4060とGeForce RTX 4060 TI GPUを発売し、Ada Lovelaceアーキテクチャを299ドルという低価格に引き下げました。RTXとDLSSゲームのエコシステムは拡大し続けています。ディアブロIVやバルダーズゲート3などの大ヒット作を含む35の新しいゲームがDLSSサポートに追加されました。

現在、330を超えるRTXアクセラレーションゲームとアプリがあります。私たちはジェネレーティブAIをゲームにもたらしています。COMPUTEXでは、カスタムAIモデルファウンドリサービスであるNVIDIA Avatar Cloud EngineまたはACE for Gamesを発表しました。開発者はこのサービスを利用して、ノンプレイヤーキャラクターに知性をもたらすことができます。また、Nemo、Riva、Audio2Faceなど、多くのNVIDIAオムニバースとAIテクノロジーを利用しています。

今度はプロフェッショナルビジュアライゼーションに移ります。3億7,500万ドルの収益は、前四半期比で28%増加し、前年比で24%減少しました。Adaアーキテクチャの急成長は、第2四半期に力強い成長を牽引しました。当初はラップトップワークステーションで展開され、第3四半期にはデスクトップワークステーションのリニューアルが予定されています。これらには、最大4つのNVIDIA RTX 6000 GPUを搭載した強力な新しいRTXシステムが含まれており、5,800テラフロップス以上のAIパフォーマンスと192ギガバイトのGPUメモリを提供します。内部にはNVIDIA AIエンタープライズまたはNVIDIA Omniverseを設定できます。

また、Ada世代をベースにした3つの新しいデスクトップワークステーションGPUも発表しました。NVIDIA RTX 5000、4500、4000は、前世代と比較して最大2倍のRTコアスループットと最大2倍速いAIトレーニングパフォーマンスを提供します。3Dデザインやコンテンツ作成などの従来のワークロードに加えて、ジェネレーティブAI、大規模言語モデル開発、データサイエンスの新しいワークロードにより、RTXテクノロジーのプロビジュアライゼーションの機会が広がっています。

今月初めのJensenの基調講演 [indiscernible] での重要なテーマの1つは、グラフィックとAIの変換でした。これがNVIDIA Omniverseの位置付けです。OmniverseはOpenUSDのネイティブプラットフォームです。OpenUSDは、HTMLが2Dのユニバーサル言語であるように、急速に3D世界の標準になりつつあるユニバーサルインターチェンジです [識別不能]。アドビ、アップル、オートデスク、ピクサー、NVIDIAが協力してOpenUSDのアライアンスを結成しています。私たちの使命は、OpenUSDの開発と採用を加速することです。OpenUSDのワークロードにジェネレーティブAIをもたらすRunUSDやChatUSDなど、今後リリース予定の新しいOmniverseクラウドAPIを発表しました。

自動車に移ります。収益は2億5300万ドルで、前四半期比で15%減少し、前年比で15%増加しました。前年比で堅調な成長を牽引したのは、[見分けがつかない] またはいくつかの新エネルギー車メーカーに関連する自動運転プラットフォームの台頭です。この連続的な減少は、特に中国における自動車需要全体の減少を反映しています。ドライバーと乗客に車内での新しい体験を提供するために、MediaTekとのパートナーシップを発表しました。MediaTekは自動車用SoCを開発し、NVIDIAのGPUチップレットの新製品ラインを統合します。このパートナーシップは、高級車からエントリーレベルまで幅広い車両セグメントを対象としています。

損益計算書の他の部分に移ります。データセンターの売上の増加により、GAAPベースの売上総利益率は70.1%に、非GAAPベースの売上総利益率は71.2%に拡大しました。当社のデータセンター製品には、大量のソフトウェアと複雑さが含まれており、それが売上総利益の増加にもつながっています。連続したGAAPベースの営業費用は6%増加し、非GAAPベースの営業費用は5%増加しました。これは主に報酬と福利厚生の増加を反映しています。株式の買い戻しと現金配当という形で、約34億ドルを株主に還元しました。私たちの取締役会は、第2四半期末の残りの40億ドルの承認に加えて、さらに250億ドルの自社株買いを承認しました。

2024会計年度第3四半期の見通しについてお話しします。AIが途方もなく広く、業界を超えて顧客に幅広く活用されているデータセンタープラットフォームへの需要があります。私たちの需要の可視性は来年にまで及びます。サイクルタイムを短縮し、供給パートナーと協力して生産能力を増強するにつれて、今後数四半期にわたって供給は増え続けるでしょう。さらに、新しいL40S GPUは、クラウドからエンタープライズまで、さまざまなタイプのワークロードに対する高まる需要に対応するのに役立ちます。

第3四半期の総収益は160億ドル、プラスマイナス2%になると予想されています。連続的な成長は主にデータセンターが牽引し、ゲームとProVizも貢献すると予測しています。GAAPと非GAAPベースの売上総利益率は、それぞれ 71.5% と 72.5% で、プラスマイナス50ベーシスポイントになると予想されます。GAAPと非GAAPベースの営業費用は、それぞれ約29.5億ドルと20億ドルになると予想されています。

GAAPおよび非GAAPベースのその他の収益と費用は、非関連投資からの損益を除いて約1億ドルの収益になると予想されます。GAAPおよび非GAAPの税率は、個別の項目を除き、14.5%、プラスまたはマイナス1%になると予想されます。財務の詳細は、当社のIRサイトで入手できるCFOの解説やその他の情報に記載されています。

最後に、金融界の今後のイベントをいくつか強調させてください。8月30日にシカゴで開催されるジェフリーズ・テック・サミット、9月5日にサンフランシスコで開催されるゴールドマン・サックス・カンファレンス、9月6日にエバーコア・セミコンダクター・カンファレンス、9月7日にニューヨークで開催されるシティ・テック・カンファレンスに出席します。そして、9月11日のBofAバーチャルAIカンファレンス。2024会計年度第3四半期の結果について話し合う当社の決算説明会は、11月21日(火)に予定されています。

オペレーター、ここから質問を受け付けます。投票して質問してもらえますか?ありがとうございます。

質疑応答セッション

オペレーター

ありがとうございます。[オペレーターへの指示] TD Cowenのマット・ラムゼイから最初の質問を受けます。あなたの電話はもう開いています。

マット・ラムゼイ

はい。どうもありがとうございます。こんにちは。明らかに、驚くべき結果です。ジェンセン、最近登場した大規模モデル推論の応用について質問したいです。ですから、あなたたちがトレーニング市場で非常に大きなロックダウンシェアを持っていることは、大多数の投資家によく理解されていると思います。小規模市場の多く--小規模なモデル推論のワークロードは、過去にASICやCPUで行われていました。

そして、これらのGPTやその他の非常に大きなモデルの多くでは、この新しいワークロードが大規模モデルの推論を急速に加速させています。そして、あなたのグレースホッパースーパーチップ製品や他の製品はそれにかなり合っていると思います。しかし、スモールモデル推論とラージモデル推論の間の推論市場セグメントをどのように見ているか、そしてあなたの製品ポートフォリオはそのための位置付けについて教えていただけますか?ありがとう。

ジェンセン・フアン

ええ。どうもありがとう。それでは、少し話を戻しましょう。これらの大規模な言語モデルはかなり-かなり驚異的です。もちろん、いくつかのことをします。非構造化言語を理解する能力があります。しかし、その核となるのは、人間の言語の構造です。そして、研究したコーパスによって学習した大量の人間の知識をコード化または内部に圧縮しています。何が起こるかというと、このような大規模な言語モデルを作成し、できるだけ大きなモデルを作成し、そこからモデルのより小さなバージョン、本質的には教師と生徒のモデルを派生させます。それは蒸留と呼ばれるプロセスです。

したがって、これらの小さなモデルを見ると、教授、教師、学生などと同じように、大きなモデルから派生した、抽出された、またはそこから学んだ可能性が非常に高いです。そして、あなたはこれを今後見ることになるでしょう。そして、あなたは非常に大きなモデルから始めます。そのモデルには大量の一般性と一般化、そしていわゆるゼロショット機能があります。そのため、特にトレーニングしていないアプリケーションや質問、スキルの多くに対して、これらの大規模な言語モデルは奇跡的にそれらを実行することができます。それがそれをとても不思議なものにしているのです。

一方で、あらゆる種類のコンピューティングデバイスにこれらの機能を備えたいと思うので、あなたはそれらを抽出します。これらの小さなモデルは、特定のスキルに関しては優れた能力を備えているかもしれませんが、それほど一般化されていません。いわゆる優れたゼロショット機能はありません。そして、それらはすべて独自の機能を持っていますが、非常に大きなモデルから始めます。

オペレーター

分かりました。次に、BofA証券のVivek Aryaに行きます。あなたの電話はもう開いています。

ビベック・アーヤ

ありがとうございます。ちょっと説明と質問があります。コレット、来年には供給がどれだけ増える予定ですか?20%、30%、40%、50%上昇していると思いますか?四半期ごとに増えていると言っていたので、供給量の感覚を教えてください。

そして、ジェンセン、あなたへの質問は、ハイパースケーラーの全体的な支出を見ると、その購入は実際にはそれほど伸びていないということです。では、彼らがジェネレーティブAIのためにそのパイをさらに切り開くことができるという自信をあなたに与えているのは何ですか?この需要が今後1~2年でどの程度持続可能か、あなたの感想を教えてください。では、暗示されているデータセンターの第3四半期の見通し(120億ドル、130億ドル)を考えてみると、すでにAIアクセラレーションが導入されているサーバーの数についてどう思いますか?それはどこに行くのですか?ですから、あなたが見ている成長は、今後1〜2年は持続可能であるという自信を持ってください。

コレット・クレス

それで、私たちの供給についての質問をありがとう。はい、来会計年度だけでなく、次の四半期も供給を増やし続けると予想しています。パーセントで言うと、ここにはありません。これは、非常に多くの異なるサプライヤー、HGXの製造におけるさまざまな部分、および市場に出回っている他の多くの新製品にわたる作業です。しかし、私たちはサプライヤーへのサポートと、サプライヤーとの長い時間をかけて供給を改善してきたことの両方にとても満足しています。

ジェンセン・フアン

世界には、クラウド、企業など、約1兆ドル相当のデータセンターが設置されています。そして、その1兆ドルのデータセンターは、アクセラレーテッドコンピューティングとジェネレーティブAIへの移行を進めています。同時に2つのプラットフォームシフトが見られます。一つはアクセラレーテッドコンピューティングです。その理由は、それが現在最も費用対効果が高く、最もエネルギー効率が高く、最もパフォーマンスの高いコンピューティング方法だからです。

ご覧のとおり、そして突然、ジェネレーティブAIによって可能になり、アクセラレーテッドコンピューティングとジェネレーティブAIによって可能になりました。そして、この素晴らしいアプリケーションにより、誰もが従来のコンピューティング方法である汎用コンピューティングから、この新しいコンピューティング方法であるアクセラレーテッドコンピューティングへのプラットフォームシフトに移行する2つの理由ができました。これは、約1兆ドル相当のデータセンター、いわば年間0.25兆ドルの資本支出です。

ご覧のとおり、世界中のデータセンターは、その資本支出を今日のコンピューティングにおける最も重要な2つのトレンド、アクセラレーテッドコンピューティングとジェネレーティブAIに集中させています。ですから、これは短期的なことではないと思います。これは長期的な業界の移行であり、この2つのプラットフォームシフトが同時に起こっています。

オペレーター

次に、バーンスタイン・リサーチのステイシー・ラスゴンに行きます。あなたの電話は開いています。

ステイシー・ラスゴン

こんにちは、みんな。私の質問に答えてくれてありがとう。コレット、四半期内のデータセンターの規模を教えてもらえないかと思っていました。ガイドでさえ、システム対GPU、DGX対H100のようなものでしょうか?私が本当に把握しようとしているのは、価格やコンテンツ、あるいはそれをどのように定義するか、それと [見分けがつかない] ことと、実際に今後の成長を牽引するユニットとの比較です。そのあたりの色を教えてもらえますか?

コレット・クレス

もちろん、ステイシー。手伝わせてください。当四半期では、当社のHGXシステムは、当社のデータセンターだけでなく、これまで見てきたデータセンターの成長においても非常に重要な部分を占めました。これらのシステムには、ホッパーアーキテクチャのHGXだけでなく、アンペアアーキテクチャも含まれます。はい、私たちはまだこれらのアーキテクチャを両方とも市場で販売しています。それを考えると、もちろん、両方のシステムが一体となってかなり大きく成長していて、それが収益の増加を牽引しているとはどういう意味ですか。つまり、これら両方がデータセンター内の収益の原動力です。

私たちのDGXは常に、販売する追加システムの一部です。これらは、企業顧客だけでなく、消費者向けインターネット企業にも見られる他の多くの異なるタイプの顧客にとって素晴らしい機会です。DGXと一緒に販売するソフトウェアをまとめることも重要ですが、それは私たちが行っている売上の一部です。残りのGPU、L40Sについて話しているように、新しいGPUが市場に登場し、今後も成長を続けるでしょう。しかし、繰り返しになりますが、この前四半期の収益の最大の要因は、間違いなくHGXシステムでした。

ジェンセン・フアン

そして、ステイシー、何か付け加えることができれば。あなたはそれがH100だと言っています、そして私はあなたが心の中でどのような精神的イメージを抱いているか知っています。しかし、H100は35,000個の部品、70ポンド、合わせて約1兆個のトランジスタです。組み立てにはロボットが必要です。持ち上げるのに70ポンドかかるので、たくさんのロボットを作ります。そして、スーパーコンピューターをテストするにはスーパーコンピューターが必要です。そして、これらは技術の驚異であり、それらの製造は非常に集中的です。それで、私たちはそれをあたかもファブから外れるチップのようにH100と呼んでいると思いますが、H100は実際にはHGXが世界のハイパースケーラーに送られるのと同じように使われていて、本当に、非常に大きなシステムコンポーネントです。

オペレーター

次に、ジェフリーズと一緒にマーク・リパチスのところに行きます。あなたの電話はもう開いています。

マーク・リパシス

こんにちは。私の質問に答えてくれてありがとう、そして成功おめでとうございます。ジェンセン、それは成功の鍵のようです。市場での成功は、チップとハードウェアプラットフォームとともにソフトウェアエコシステムを提供することです。そして、これについて二部構成の質問をしました。あなたのソフトウェアエコシステムの進化、重要な要素を理解するのを手伝ってもらえないかと思っていました。また、この次元でリードを定量化する方法はありますか?たとえば、リードの構築に何年投資したかなどです。そして第二部、NVIDIAプラットフォームの価値のうち、ハードウェアの差別化とソフトウェアの差別化は何パーセントですか? についてのあなたの見解を教えてもらえませんか?ありがとうございます。

A — ジェンセン・フアン

ええ、マーク、私はその質問に本当に感謝します。AI Enterpriseというランタイムを用意するために、いくつかの指標を使用できるか見てみましょう。これは私たちのソフトウェアスタックの一部です。そして、これは、言ってみれば、ほぼすべての企業が、データ処理からの機械学習のエンドツーエンドの実行、実行したいフレームワークでの任意のモデルのトレーニング、推論とデプロイ、データセンターへのスケールアウトに使用しているランタイムです。ハイパースケールデータセンターのスケールアウトかもしれません。たとえば、VMware上のエンタープライズデータセンターのスケールアウトかもしれません。

これはどのGPUでも実行できます。現場には数億のGPU、クラウド、そしてほぼすべてのクラウドには何百万ものGPUがあります。また、単一のGPU構成で動作するだけでなく、コンピュートやマルチノードごとのマルチGPUでも動作します。また、GPUごとに複数のセッションまたは複数のコンピューティングインスタンスがあります。つまり、GPUごとの複数のインスタンスから複数のGPU、複数のノードからデータセンターの規模全体まで。つまり、NVIDIA AI Enterpriseと呼ばれるこのランタイムには、4,500のソフトウェアパッケージ、ソフトウェアライブラリがあり、互いに10,000ほどの依存関係があります。

そして、そのランタイムは、さっきも言ったように、スタックのインストールベースに合わせて継続的に更新され、最適化されています。そして、それはアクセラレーテッドコンピューティングを機能させるために必要なことのほんの一例にすぎません。コードの組み合わせの数とアプリケーションの組み合わせの種類は本当にすごいです。そして、ここにたどり着くまでに20年かかりました。しかし、私がおそらく私たちの会社として特徴づけるのは、言ってみれば、私たちの会社の要素はいくつかあります。1番は建築だと思います。

私たちのアーキテクチャの柔軟性、汎用性、パフォーマンスにより、データ処理からトレーニング、推論、推論を行う前のデータの前処理、データの後処理、そしてそれを使ってトレーニングできるように言語をトークン化することまで、先ほど言ったことをすべて行うことができます。その量--ワークフローは単なるトレーニングや推論よりもはるかに大変です。しかし、とにかく、そこに私たちは焦点を当てます、それで結構です。しかし、人々が実際にこれらのコンピューティングシステムを使用する場合、かなり多くのアプリケーションが必要です。そして、私たちのアーキテクチャの組み合わせにより、最低限の所有コストを実現することが可能になります。その理由は、私たちが非常に多くの異なるものを加速させるからです。

私たちの会社の第二の特徴は、インストールベースです。なぜすべてのソフトウェア開発者が私たちのプラットフォームに来るのかを自問する必要があります。その理由は、ソフトウェア開発者は、ビジネスを構築したり、投資から利益を得たりするために、最大数のエンドユーザーにリーチできる大規模なインストールベースを求めているからです。

そして、3つ目の特徴はリーチです。今日、私たちはパブリッククラウドとパブリックフェーシングクラウドの両方でクラウドを利用しています。なぜなら、私たちのプラットフォームを使用する顧客が非常に多いからです。私たちのプラットフォームを使用する開発者と顧客が非常に多いからです。CSPはそれをクラウドに置くことを喜んでいます。レコメンダーシステムや検索エンジン、データ処理エンジンの開発、訓練、運用、さらには訓練や推論に至るまで、社内消費のために使用しています。そして、私たちはクラウドにいて、エンタープライズにいます。

昨日、非常に重要な発表がありました。それを見るのは本当に価値があります。VMwareは世界の企業のオペレーティングシステムです。そして、私たちは数年前から一緒に仕事をしてきました、そして私たちは一緒になって、ジェネレーティブAIを世界の企業に端まで届けるつもりです。そして、リーチはもう一つの理由です。また、リーチが大きいため、世界中のすべてのシステムメーカーは、NVIDIAのプラットフォームを自社のシステムに組み込むことを切望しています。そのため、私たちのリーチにより、世界中のすべてのOEMやODMなどから非常に幅広い流通を行っています。

そして最後に、私たちの規模とスピードのおかげで、ソフトウェアとハードウェア、ネットワークとコンピューティングの非常に複雑なスタックを、さまざまな使用モデルとさまざまなコンピューティング環境のすべてにわたって維持することができました。そして、エンジニアリングのスピードを加速させながら、これらすべてを行うことができます。2年ごとに新しいアーキテクチャを導入しているようです。現在、私たちは約半年ごとに新しいアーキテクチャ、新製品を導入しています。そして、これらの特性により、エコシステムは私たちの上に会社とビジネスを構築することが可能になります。そして、それらの組み合わせが私たちを特別な存在にします。

オペレーター

次に、シティと一緒にアティフ・マリクに行きます。あなたの電話は開いています。

アティフ・マリク

こんにちは。私の質問に答えてくれてありがとう。結果と見通しについては素晴らしい仕事をしました。コレット、皆さんが話していたコアL40Sについて質問があります。L40Sは供給の密閉性にどの程度役立ちますか?そして、この製品による増収率や粗利益の貢献について教えていただけますか?ありがとうございます。

ジェンセン・フアン

ええ、アティフ。それをあなたのために取らせてください。L40Sは本当に異なるタイプのアプリケーション向けに設計されています。H100は大規模な言語モデル向けに設計されており、非常に大きなモデルと大量のデータだけを処理します。だから、それはL40の焦点ではありません。L40Sの焦点は、モデルを微調整し、事前にトレーニングされたモデルを微調整できるようにすることです。それは信じられないほどうまくいくでしょう。トランスフォームエンジンを搭載しています。パフォーマンスは高いです。サーバーには複数のGPUを搭載できます。ハイパースケールスケールアウト向けに設計されています。つまり、L40Sサーバーを世界のハイパースケールデータセンターに簡単に設置できます。標準ラック、標準サーバーに入っていて、すべてが標準なので、簡単に設置できます。

L40Sには、BlueField-3やVMwareで行ったすべての作業、SnowflakesやServiceNow、その他多くのエンタープライズパートナーと行ったソフトウェアスタックも組み込まれています。L40Sは世界の企業ITシステム向けに設計されています。だからこそ、HPE、デル、レノボ、その他約100種類のエンタープライズサーバーを構築している約20のシステムメーカーが、私たちと協力して、ジェネレーティブAIを世界の企業にもたらそうとしているのです。それで、L40Sは本当に別のタイプのスケールアウト用に設計されています。もちろん、それは大規模な言語モデルです。もちろん、ジェネレーティブAIですが、使用例は異なります。そして、L40Sは順調なスタートを切り、世界の企業やハイパースケーラーはL40Sの導入を強く求めています。

オペレーター

次に、モルガン・スタンレーと一緒にジョー・ムーアに行きます。あなたの電話は開いています。

ジョセフ・ムーア

素晴らしい。ありがとうございます。これらの数字で私にとって非常に驚くべきことは、一部の顧客と話しても、満たされていない需要の量だと思います。これらの数字は良いですが、あなたは数四半期で収益を3倍以上に増やしました。場合によっては、人々が得ているものの倍数に対する需要があります。それで、それについて話していただけますか?満たされない需要はどのくらいあると思いますか?そして、あなたは来年に向けて可視性を拡大することについて話しました。ここで、需要と供給の均衡がいつ実現するかについての見通しはありますか?

ジェンセン・フアン

ええ。一年中、そして来年にかけての視認性は抜群です。そして、私たちはすでに主要なCSPやデータセンタービルダーと共に次世代インフラを計画しています。需要 — 需要について考える最も簡単な方法です。世界は汎用コンピューティングからアクセラレーテッドコンピューティングに移行しつつあります。それが需要について考える最も簡単な方法です。企業がスループットを向上させ、エネルギー効率を改善し、コスト効率を向上させる最善の方法は、資本予算をアクセラレーテッドコンピューティングとジェネレーティブAIに振り向けることです。そうすることで、CPUから多くのワークロードをオフロードすることになりますが、利用可能なCPUは、データセンターでブーストされます。

そして、あなたが今見ているのは、企業がこれを認識していることです。ここの転換点は、この移行の始まりを認識し、設備投資をアクセラレーテッドコンピューティングとジェネレーティブAIに転用することです。そして、それはおそらく私たちの目の前にある機会について考える最も簡単な方法です。これは需要を牽引している単一のアプリケーションではありませんが、これは新しいコンピューティングプラットフォームです。言ってみれば、新しいコンピューティング移行が起こっています。そして、世界中のデータセンターがこれに対応し、広範囲にわたって変化しています。

オペレーター

次に、ゴールドマン・サックスの針敏也に行きます。あなたの電話はもう開いています。

トシヤ・ハリ

こんにちは。質問していただきありがとうございます。Coletteに簡単な説明の質問が1つあり、次にJensenにもう1つ質問がありました。コレット、前四半期に、CSPはデータセンターの収益の約40%、消費者向けインターネットは30%、企業は30%だと言っていたと思います。あなたの発言によると、CSPと消費者向けインターネットがあなたのビジネスのより大きな割合を占めていたように思えます。それを明確にしたり、確認したりできれば、とても助かります。

そして、ジェンセン、あなたへの質問です。AIの主要な実現者としてのあなたの立場、エンゲージメントの幅広さ、顧客プロジェクトに対する可視性を考えると、顧客が妥当な投資収益率を生み出すのに十分なアプリケーションやユースケースがあるとあなたがどれほど確信しているのか知りたいです。私が質問するのは、何年にもわたって需要プロファイルが少し一時停止する可能性があるという懸念があるからです。今後のデータセンター事業の持続的な拡大を支えるのに十分な幅と深さがあるかどうか知りたいです。ありがとうございます。

コレット・クレス

分かりました。Toshiyaさん、データセンター事業におけるお客様のタイプについての質問ありがとうございます。そして、私たちはそれをコンピューティングとネットワークを組み合わせるという観点から見ています。私たちのCSP、大規模なCSPは、第2四半期に収益の50%強を占めています。そして、次に大きなカテゴリーは、消費者向けインターネット企業です。そして、その最後の部分は、私たちのエンタープライズとハイパフォーマンスコンピューティングです。

ジェンセン・フアン

トシ、私は未来について推測するのは気が進まないので、コンピュータサイエンスの第一原理の観点から質問に答えます。汎用コンピューティングはブルートフォース汎用コンピューティングではないことがしばらく前から認識されています。汎用コンピューティングを大規模に使用することは、もはや前進するための最善の方法ではありません。エネルギーコストがかかりすぎ、高すぎ、アプリケーションのパフォーマンスが遅すぎます。

そしてついに、世界には新しいやり方があります。それはアクセラレーテッドコンピューティングと呼ばれ、それを加速させたのはジェネレーティブAIです。しかし、アクセラレーテッドコンピューティングは、すでにデータセンターにあるあらゆる種類の異なるアプリケーションに使用できます。そして、それを使うことで、CPUの負荷を軽減します。桁違い、コスト、エネルギーを大幅に節約でき、スループットも向上し、業界が本当に求めていることです。

今後、データセンターに投資する最善の方法は、汎用コンピューティングから設備投資をそらし、ジェネレーティブAIとアクセラレーテッドコンピューティングに集中させることです。ジェネレーティブAIは、生産性を向上させる新しい方法、顧客に提供する新しいサービスを生み出す新しい方法を提供します。アクセラレーテッドコンピューティングは、コストと電力の節約に役立ちます。そして、アプリケーションの数は、まあ、数え切れないほどです。たくさんの開発者、たくさんのアプリケーション、たくさんのライブラリ。展開する準備ができました。

ですから、世界中のデータセンターはこれを認識していると思います。これが今後、データセンターにリソースを配備し、資本を投入する最良の方法だということです。これは世界のクラウドにも当てはまり、GPUに特化した新しい専門分野、つまりGPUに特化したクラウドサービスプロバイダーがたくさん出てきています。有名なものの一つはCoreWeaveで、彼らは信じられないほどうまくやっています。しかし、あなたは今、世界中の地域のGPU専門サービスプロバイダーを見かけています。そして、それは皆同じことを認識しているからです。今後資本を投資する最善の方法は、アクセラレーテッドコンピューティングとジェネレーティブAIに資金を投入することです。

また、企業がそれを望んでいることもわかりました。しかし、企業がそれを実現するには、企業の管理システム、オペレーティングシステム、セキュリティとソフトウェアデファインドのデータセンターのアプローチをサポートする必要があります。それがすべてVMwareです。また、VMwareと数年間協力して、VMwareがCPUの仮想化だけでなく、GPUの仮想化やGPUの分散コンピューティング機能もサポートできるようにし、高性能ネットワークを実現するNVIDIAのBlueFieldをサポートしてきました。

そして、私たちが取り組んできたジェネレーティブAIライブラリはすべて、VMwareの営業部隊によって特別なSKUとして提供される予定です。これは、ご存知のとおり、世界中の数十万のVMware顧客に届いているため、非常に大きなものです。そして、この新しいSKUはVMwareプライベートAI財団と呼ばれる予定です。そして、これは企業にとってそれを可能にする新しいSKUになります。また、HP、デル、L40SをベースにしたLenovoの新しいサーバー製品と組み合わせれば、どの企業も最先端のAIデータセンターを持ち、ジェネレーティブAIを利用できるようになります。

ですから、その質問に対する答えでは、四半期ごとに何が起こるかを正確に予測するのは難しいと思います。しかし、プラットフォームの変化が見られるようになった今、この傾向は非常にはっきりしていると思います。

オペレーター

次に、UBSのティモシー・アル?$#@$のところに行きます。あなたの電話はもう開いています。

ティモシー・アル?$#@$

どうもありがとう。あなたのネットワークソリューションの、出荷しているコンピューティングへの接続率について教えていただけますか?言い換えれば、ネットワークソリューションとともに出荷されるコンピューティングの半分が半分以上、半分未満ということですか?そして、これはGPUの割り当ての優先順位を決めるのに使えるものですか?ありがとうございます。

ジェンセン・フアン

さて、逆に言えば、GPUの割り当ての優先順位付けにはそれを使用しません。どのネットワークを使いたいかはお客様に決めさせています。そして、非常に大規模なインフラストラクチャを構築している顧客にとって、InfiniBandは、言うまでもありませんが、考えるまでもありません。その理由は、InfiniBandの効率が非常に高いため、10億ドルのインフラストラクチャでスループットが約10%、15%、20%向上すれば、大幅な節約につながります。基本的に、ネットワークは無料です。

したがって、単一のアプリケーション、つまりインフラストラクチャがある場合、またはそれが主に大規模な言語モデルや大規模なAIシステムに特化している場合、InfiniBandは本当に素晴らしい選択肢です。ただし、さまざまなユーザー向けにホスティングしていて、イーサネットがデータセンターの管理方法の中核を成しているなら、最近発表したばかりのSpectrum-Xという優れたソリューションがあります。さて、私たちはInfiniBandの機能のすべてではなく、一部をイーサネットに導入します。そうすれば、イーサネット環境内でも、優れたジェネレーティブAI機能を利用できるようになります。

つまり、Spectrum-Xは今急上昇しているのです。BlueField-3が必要で、当社のSpectrum-2とSpectrum3イーサネットスイッチの両方をサポートしています。そして、追加のパフォーマンスは本当に素晴らしいです。BlueField-3はそれを可能にし、それに伴うソフトウェアもたくさんあります。ご存知のように、BlueFieldは私の心にとって本当に大切なプロジェクトで、素晴らしいスタートを切りました。ホームランだと思います。これはネットワーク内コンピューティングの概念であり、Bluefield-3ではコンピューティングファブリックに多くのソフトウェアを組み込むことが実現されており、ホームランになるでしょう。

オペレーター

最後の質問は、ベン・ライツェスとメリウスの話です。あなたの電話はもう開いています。

ベンジャミン・ライツェス

こんにちは。こんにちは。こんばんは。質問ありがとうございます、ここに入れました。私の質問は、DGX Cloudについてです。あなたが見ているレセプションと、その勢いについて教えていただけますか?それから、コレット、ソフトウェアビジネスについても話してもらえますか?現在の稼働率とそのビジネスの重要性はどれくらいですか?そして、それはすでにマージンを少し助けているようです。どうもありがとうございます。

ジェンセン・フアン

DGX Cloudの戦略、そこから始めましょう。DGX Cloudの戦略は、いくつかのことを達成することです。1つ目は、私たちと世界のCSPとの間で本当に緊密なパートナーシップを築くことです。私たちは、私たちの多くが世界中の約3万社の企業と仕事をしていることを認識しています。そのうち15,000社は新興企業です。そのうち数千社はジェネレーティブAI企業で、最も急成長しているセグメントはもちろんジェネレーティブAIです。私たちは世界中のすべてのAI新興企業と協力しています。そして最終的には、彼らは世界有数の雲の1つに着陸したいと考えています。そこで、私たちはDGX Cloudを世界をリードするクラウド内の足跡として構築しました。これにより、すべてのAIパートナーと同時に連携し、それらをクラウドパートナーの1つに簡単に組み込むことができます。

2つ目の利点は、CSPと私たち自身が緊密に連携して、ハイパースケールクラウドのパフォーマンスを向上させることができることです。ハイパースケールクラウドは、歴史的にマルチテナント向けに設計されており、ジェネレーティブAIのような高性能な分散コンピューティング向けには設計されていません。そのため、アーキテクチャ的に緊密に連携して、エンジニアが協力してネットワークのパフォーマンスとコンピューティングのパフォーマンスを向上させることができたのは、本当にパワフルで、本当に素晴らしいです。

そして第三に、もちろん、NVIDIAは私たち自身も非常に大規模なインフラストラクチャを使用しています。そして、私たちの自動運転車チーム、NVIDIA研究チーム、ジェネレーティブAIチーム、言語モデルチーム、私たちが必要とするインフラストラクチャの量はかなり多いです。そして、私たちの最適化コンパイラーはどれも、私たちのDGXシステムなしでは不可能です。最近のコンパイラでさえAIを必要とし、ソフトウェアやインフラソフトウェアを最適化するには開発にもAIが必要です。私たちのエンジニアリングがAIを使ってチップを設計していることはよく知られています。

そのため、社内、つまり私たち自身のAI消費、ロボティクスチームなど、Omniverseチームなどは、すべてAIを必要としています。そのため、私たちの内部消費量もかなり多く、それをDGX Cloudに当てています。そのため、DGX Cloudには複数のユースケースと複数のドライバーがあり、大成功を収めています。そして、私たちのCSPはそれが大好きで、開発者はそれが大好きで、社内のエンジニアはもっと欲しいと強く求めています。そして、それは私たちが世界中のすべてのAIエコシステムと関わり、緊密に連携するための素晴らしい方法です。

コレット・クレス

そして、私たちのソフトウェア収益に関するあなたの質問に答えられるか見てみましょう。冒頭の発言の一部でも、データセンター製品、GPUシステム、ゲームや将来の自動車製品など、ソフトウェアはほぼすべての製品の一部であることを忘れないでください。その通りです、私たちはそれを独立した事業でも販売しています。そして、そのスタンドアロンソフトウェアは成長を続け、ソフトウェアサービスとアップグレードの両方を提供しています。

現在、この時点で、私たちのソフトウェア事業はおそらく年間数億ドルと見込んでいます。そして、DGX、H100のPCIeバージョンなど、販売している製品の多くにNVIDIA AI Enterpriseが含まれると考えています。また、CSPマーケットプレイスでも入手可能性が高まると思います。それで、私たちは素晴らしいスタートを切りました、そして私はこれが今後も成長し続けると信じています。

オペレーター

これで、今日の質疑応答は終わりです。追加の挨拶や閉会の言葉があれば、Jensen Huangに電話をかけ直します。

ジェンセン・フアン

新しいコンピューティング時代が始まりました。業界は同時に、アクセラレーテッドコンピューティングとジェネレーティブAIという2つのプラットフォーム移行を経験しています。データセンターは、プラットフォームを汎用コンピューティングからアクセラレーテッドコンピューティングに移行しています。1兆ドル規模のグローバルデータセンターは、パフォーマンス、エネルギー効率、コストを桁違いに向上させるために、アクセラレーテッドコンピューティングに移行します。アクセラレーテッドコンピューティングによってジェネレーティブAIが可能になり、現在ではソフトウェアのプラットフォームシフトが推進され、これまで不可能だった新しいアプリケーションが可能になっています。アクセラレーテッドコンピューティングとジェネレーティブAIが一緒になって、広範囲にわたるコンピューター業界のプラットフォームシフトを推進しています。

私たちの需要は途方もないです。生産能力を大幅に拡大しています。今年の残りの期間と来年の供給は大幅に増加するでしょう。NVIDIAは20年以上にわたってこのための準備をしており、世界の業界、つまり世界の産業が構築できる新しいコンピューティングプラットフォームを開発しました。NVIDIAを特別なものにしているのは、一つは建築です。NVIDIAは、データ処理、トレーニング、推論、あらゆるAIモデル、リアルタイムの音声からコンピュータービジョン、巨大なレコメンダーからベクターデータベースまで、あらゆるものを高速化します。当社のアーキテクチャのパフォーマンスと汎用性は、データセンターのTCOを最小限に抑え、エネルギー効率を最大化します。

二、インストールベース。NVIDIAには、世界中で何億ものCUDA互換GPUがあります。開発者がエンドユーザーにリーチしてビジネスを成長させるには、大規模なインストールベースが必要です。NVIDIAは開発者が好むプラットフォームです。より多くの開発者がより多くのアプリケーションを作成し、NVIDIAを顧客にとってより価値のあるものにします。三、リーチ。NVIDIAは、クラウド、エンタープライズデータセンター、インダストリアルエッジ、PC、ワークステーション、機器、ロボティクスの分野です。それぞれが根本的にユニークなコンピューティングモデルとエコシステムを持っています。OEM、コンピューターOEMなどのシステムサプライヤーは、NVIDIAが大きな市場需要とリーチを提供しているため、自信を持ってNVIDIAに投資できます。スケールと速度。NVIDIAはかなりの規模を達成し、アクセラレーテッドコンピューティングとジェネレーティブAIに100%投資しています。私たちのエコシステムパートナーは、私たちが強力なロードマップとリーチを提供して成長を支援する専門知識、焦点、規模を持っていると信頼できます。

これらの機能の相乗効果により、私たちは加速しています。拡大するジェネレーティブAIの世界に対応するため、2年ごとではなく、約6か月ごとに新製品をアップグレードして追加しています。大規模な言語モデルのトレーニングと推論のためにH100の出力を増やしましたが、クラウドのスケールアウトやエンタープライズサーバー向けに、新しいL40SユニバーサルGPUを増やしています。イーサネットスイッチ、BlueField-3 Super NIC、ソフトウェアで構成されるSpectrum-Xは、イーサネットインフラストラクチャ上で可能な限り最高のAIパフォーマンスを求めるお客様に役立ちます。顧客はすでにグレースホッパーを使って次世代のアクセラレーテッドコンピューティングとジェネレーティブAIに取り組んでいます。

私たちは、プライバシー、セキュリティ、主権をモデルにしたジェネレーティブAIを求める世界の企業にNVIDIA AIを拡張しています。アクセンチュア、アドビ、ゲッティ、ハギングフェイス、スノーフレーク、ServiceNow、VMware、WPPなどの世界をリードするエンタープライズIT企業と、エンタープライズシステムパートナーであるデル、HPE、レノボと協力して、ジェネレーティブAIを世界の企業にもたらしています。NVIDIA Omniverseを構築するのは、世界の数兆ドル規模の重工業がジェネレーティブAIを使用して物理的資産の構築と運用を自動化し、生産性を向上させることをデジタル化し、可能にするためです。ジェネレーティブAIはクラウドから始まりますが、最も重要な機会は、企業が数兆ドルの生産性向上を実現できる世界最大の産業にあります。NVIDIA、お客様、パートナー、そしてエコシステム全体にとって、コンピューティングにおけるこの世代交代を推進するのはエキサイティングな時期です。来四半期の進捗状況をお知らせするのを楽しみにしています。

オペレーター

これで今日の電話会議は終わりです。これで接続を切断できます。

(ヒント:このトランスクリプトは録音によって変換されます。最善を尽くしますが、変換の正確性を完全に保証することはできません。あくまでも参考用です。)

これらの内容は、情報提供及び投資家教育のためのものであり、いかなる個別株や投資方法を推奨するものではありません。 更に詳しい情報
    コメントする