NvidiaのH200 GPUは驚異的なパフォーマンスを発揮します!
Nvidiaは次世代AIプロセッサH200を発売します。
新しいH200 GPUは、現在のH100のアップグレード製品です。新しいGPUは、HBM3eと呼ばれるメモリ仕様を初めて利用しました。これにより、H200 GPUのメモリ帯域幅がH100の毎秒3.35TBから4.8TBに増加し、合計メモリ容量が前世代製品の80GBから141GBに増加しました。A100と比較して、帯域幅は2.4倍になり、容量はほぼ2倍になりました。パフォーマンスの面では、H200はH100と比較して60%から90%向上し、Llama 2(700億パラメータLLM)の推論速度はほぼ2倍になります。
H200は2024年の第2四半期に発売される予定で、主にCoreWeave、Lambda、Vultrなどのサードパーティのコンピューティングパワープロバイダーや、アマゾン、グーグル、マイクロソフト、オラクルなどのクラウドコンピューティングベンダーに提供されます。H200はAMDのMI300X GPUと競合します。AI市場での競争は依然として激しいですが、Nvidiaは依然としてAIチップ市場で主導的な地位を維持しており、ハードウェアとソフトウェアのエコシステムにおいて優位に立っています。
会社の業績の主な懸念は、中国市場での販売制限です。Nvidiaは、米国の政策規制要件を満たすために、中国市場向けにHGX H20、L20 PCIe、L2 PCIeの3つのチップを発売しました。これら3つのチップはパフォーマンスが低く、価格はまだ発表されていません。その利点は、依然としてNvidiaの成熟したソフトウェアエコシステムにあります。輸出許可は依然として必要であり、これら3つのチップが規制や市場の需要を満たすことができるかどうかは不明です。
免責事項:このコミュニティは、Moomoo Technologies Inc.が教育目的でのみ提供するものです。
さらに詳しい情報
コメント
サインインコメントをする
71805742 : CPIの減少、ナスダックの勝利
73417464 : 今度はNVDAが500に到達できるでしょうか。