NvidiaがGTCで発表した「世界最強のAIチップ」について知るべきこと
$エヌビディア (NVDA.US)$不可欠なH100 AIチップは、企業価値を数兆ドルに押し上げ、巨大企業の価値を超える可能性があります。 $アルファベット クラスA (GOOGL.US)$そして、 $アマゾン・ドットコム (AMZN.US)$競合他社が追いつくために奮闘している中、Nvidiaは高度なBlackwell B200 GPUとパワフルなGB200「スーパーチップ」のローンチで支配力を更に強化することが可能です。エヌビディアは、先進的なBlackwell B200 GPUおよび強力なGB200 "superchip"の発売により、その支配をさらに強化するかもしれません。
新しいGB200スーパーチップ
Nvidiaの新しいB200 GPUは、2080億のトランジスタを搭載し、最大20ペタフロップのFP4パフォーマンスを発揮し、
2つのB200 GPUを単一のGrace CPUにペアリングしたGB200「スーパーチップ」は、LLM推論ワークロードにおいて、前のモデルと比較して最大30倍のパフォーマンスを提供し、かつ大幅に効率的で、H100よりも25倍以上のコストとエネルギーを削減します。シングルグレースCPUに2つのB200 GPUをペアリングしたGB200 "superchip"は、過去のモデルと比較して、大規模言語モデル(LLM)推論ワークロードに最大30倍のパフォーマンスを提供することができます。Nvidiaは、新しい技術によって、GPU間通信に費やす時間を大幅に短縮することで、より実際のコンピューティングを可能にしていることを強調しています。H100よりも最大25倍のコストとエネルギーを削減する1.8兆のパラメータを持つAIモデルをトレーニングする場合、以前は8,000のHopper GPUが必要でしたが、現在は2,000のBlackwell GPUで済みます。GB200は、1750億個のパラメータを持つGPT-3 LLMベンチマークで7倍のパフォーマンスと4倍のトレーニング速度を提供するだけでなく、コストとエネルギーをH100よりも25倍以上削減できます。Nvidiaは、新しい技術によって、GPU間通信に費やす時間を大幅に短縮することで、より実際のコンピューティングを可能にしていることを強調しています。
エヌビディアは、これらのGPUの大量購入を目指しており、GB200 NVL72などの大規模な構成を導入しています。これには、36のCPUと72のGPUを1つの液体冷却ラックに統合し、AIトレーニングで最大720ペタフロップ、推論能力で1.4エクサフロップ(1,440ペタフロップ)を提供します。このラックには、約2マイルのケーブルと5,000以上の個々のケーブルが詰まっており、最大27兆パラメータのモデルをサポートすることができます。アマゾン、Googleなどの主要なクラウドサービスプロバイダーも含まれます。 $マイクロソフト (MSFT.US)$世界平均株式ファンド、JPモルガンのテクノロジーファンド、そしてMSCI ACWI株式ファンド $オラクル (ORCL.US)$エヌビディアは、これらのNVL72ラックを彼らのオファーに含める予定ですが、購入数量は特定されていません。
アナリストの見解
エヌビディアは最新のAIスーパーコンピュータであるDGX SuperPODを装備したGB200 Grace Blackwell Superchipsで、人工知能の最前線を推進しています。このAIスーパーコンピュータは、FP4精度で驚異的な11.5エクサフロップの計算能力を誇り、先進の液体冷却アーキテクチャを搭載しています。ノビディアは高性能でエネルギー効率の良い人工知能ソリューションに対するコミットメントを示しています。 SuperPODは、数兆のパラメータを持つモデルの処理を可能にすることで、人工知能のリサーチと開発を再定義し、革命を起こす予定です。基盤技術の提供者として、NvidiaのDGX SuperPODは、競争が激化する中でも、AI革新の中心的プレイヤーとAIトレーニング分野のリーダーとしての地位を確立しています。
Nvidiaは、新しく導入されたGB200またはそれを組み込んだシステムの価格を公開していませんが、HSBCはFY26のラック数を35,000と予測し、売上高潜在額は397億ドルとなると発表しました。Nvidiaは、複雑なAIモデルへの需要の増加に対応し、高性能コンピューティングのトッププロバイダーとしての地位を維持するための戦略を強化しています。
Nvidiaの戦略には、ラックベースのプラットフォームへの移行も含まれる可能性があり、ラックあたりの収益が著しく増加し、GB200プラットフォームからの総売上高の大幅な増加につながる可能性があります。感度分析によると、AIラックの増加はFY26の売上高および利益の4%から11%の上昇をもたらす可能性があり、PERが30倍の目標価格収益率を想定した場合、より高いEPS範囲および評価を示します。
GH200 AIプラットフォームからFY25で焦点を移して、GB200プラットフォームは、2つのB200 AI GPUを内蔵した内部Grace Hopper ArmベースのCPUを統合し、従来のH100 AIプラットフォームよりも高い平均販売価格(ASP)のよりコスト効果の高い代替品を提供します。この新しい構成は、全体的なチップコストを削減するだけでなく、GB200用にモジュールあたり8枚必要だったGPUの要件を2枚だけに減らすことで、顧客により大きな柔軟性を提供します。Nvidiaの戦略は、ラックベースのプラットフォームに移行することを含む場合もあり、ラックあたりの収益が大幅に増加し、GB200プラットフォーム全体の売上高も大幅に増加する可能性があります。Nvidiaの戦略には、ラックベースのプラットフォームへの移行も含まれる可能性があり、ラックあたりの収益が著しく増加し、GB200プラットフォームからの総売上高の大幅な増加につながる可能性があります。感度分析によると、AIラックの増加はFY26の売上高および利益の4%から11%の上昇をもたらす可能性があり、PERが30倍の目標価格収益率を想定した場合、より高いEPS範囲および評価を示します。目標の株価収益率(PER)が30倍の場合、AIラックの増加は、今後の売上高と利益の4%から11%の上昇率、およびより高いEPS範囲と評価をもたらす可能性があります。
Nvidia Inference Microservice(NIM)
Nvidiaは、エンタープライズソフトウェアサブスクリプションラインナップにNvidia Inference Microservice(NIM)を導入し、既存のNvidia GPUを推論タスクに使用することを簡素化するよう設計されました。それは、新しいAIモデルをトレーニングするよりも計算需要が少ないAIソフトウェアを実行することです。このサービスにより、OpenAIなどの企業からAIの結果を購入する代わりに、組織はすでに所有している大量のNvidia GPUを活用して独自のAIモデルを運用することができます。
同社の戦略は、Nvidiaベースのサーバーを持つ顧客が1枚あたり年間4,500ドルの料金でNvidiaエンタープライズに登録することを促進することに関わるものです。 エヌビディアは、MicrosoftやHugging FaceのようなAI企業と提携して、Nvidiaチップ向けのAIモデルを最適化し、互換性のあるハードウェア上でスムーズな動作を確保することを計画しています。NImを使用すると、開発者はこれらのモデルを自身のローカルサーバーやNvidiaのクラウドサーバーに効率的に展開することができ、複雑なセットアップ手順をバイパスすることができます。Nvidiaによると、このソフトウェアはGPU搭載のノートパソコンでもAIアプリケーションを容易にし、クラウドサーバーに依存しない代替手段を提供します。
出典: The Verge, Nvidia, HSBC, CNBC, Forbes, Tech Crunch
免責事項:このコンテンツは、Moomoo Technologies Incが情報交換及び教育目的でのみ提供するものです。
さらに詳しい情報
コメント
サインインコメントをする
frank Crane_3546 : 大好きです。エヌビディアはプラットフォームチップソリューションソフトウェア、saas関連を提供するハイパーマーケットです!!!!!