ログアウト
donwloadimg

アプリをダウンロード

ログイン後利用可能
トップに戻る

AMDとNVIDIAのAI半導体マッチレース、栄冠はどちらに?

avatar
moomooニュース米国株 コラムを発表しました · 2023/11/14 14:53
この記事は一部に自動翻訳を利用しています
AMDとNVIDIAのAI半導体マッチレース、栄冠はどちらに?
$エヌビディア (NVDA.US)$は、ディープラーニングやOpenAIのGPT-4のような大規模言語モデル(LLM)における将来の飛躍的進歩に大きな役割を果たす可能性が高い、次世代AIスーパーコンピュータチップを発表した。
キーとなる製品は、NVIDIAの「Hopper」アーキテクチャに基づくHGX H200 GPUで、好評のH100 GPUの後継となる。これは、より高速で大容量のHBM3eメモリを採用した同社初のチップで、大規模な言語モデルに最適となっている。
「HBM3eにより、NVIDIA H200は141GBのメモリを4.8テラバイト/秒で実現し、その前身であるNVIDIA A100と比較して、ほぼ2倍の容量と2.4倍のバンド幅を提供します」と、同社は述べている。
AIパフォーマンス
AI向けのメリットとして、NVIDIAによれば、HGX H200は、700億パラメータのLLMであるLlama 2での推論速度をH100の2倍に向上させる。HGX H200は、H100システムのソフトウェアとハードウェアの両方と互換性のある4ウェイと8ウェイの構成で利用できる。また、Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructureなど、すべてのタイプのデータセンター(オンプレミス、クラウド、ハイブリッド・クラウド、エッジ)で利用可能という。提供開始は2024年第2四半期を予定している。
GH200 Grace Hopper
エヌビディアのもう1つのキー製品は、同社のNVLink-C2Cインターリンクを使用して、HGX H200 GPUとArmベースのNVIDIA Grace CPUを組み合わせたGH200 Grace Hopper「スーパーチップ」である。
スーパーコンピューター向けに設計されており、「科学者や研究者が、テラバイト級のデータを実行する複雑なAIやHPCアプリケーションを高速化することで、世界で最も困難な問題に取り組めるようにする」とエヌビディアは述べている。GH200は、Dell、Eviden、Hewlett Packard Enterprise(HPE)、Lenovo、QCT、Supermicroなど、「世界の研究センター、システムメーカー、クラウドプロバイダーの40以上のAIスーパーコンピューター」で使用される予定だと同社は述べている。
その中でも注目すべきは、クアッドGH200を使用するHPEのCray EX2500スーパーコンピュータが数万規模のGrace Hopper Superchipノードをスケールアップできる。
AMD Instinct MI300X
AMDとNVIDIAのAI半導体マッチレース、栄冠はどちらに?
12月6日、 $アドバンスト・マイクロ・デバイシズ (AMD.US)$「Advancing AI」を開催し、コードネーム「MI300」と呼ばれる次世代Instinctアクセラレーター・ファミリーの全貌を明らかにする。AMD Instinct MI300Xは、AI分野でNVIDIAのHopperとIntelのGaudiアクセラレーターを明確にターゲットにしているため、間違いなく最も注目されるチップだ。
AMDは、MI300XとMI300Aアクセラレーターにチップレット設計を採用し、 $台湾セミコンダクター・マニュファクチャリング (TSM.US)$の先端パッケージング技術を活用することで、モノリシックなH100とH200 Hopper AI GPUと競争する。AMDの新しいInstinct MI300Xは、5nmと6nmのIPを融合し、1,530億トランジスタという巨大な規模を特徴としている。
メモリは、大幅な性能向上が見られる部分で、MI300Xは前モデルのMI250X(128GB)より50%多い192GB容量のHBM3を搭載している。192GBのメモリ・プールを実現するため、AMDはMI300Xに8つのHBM3スタックを搭載し、各スタックは12-Hiで、16GbのICが組み込まれている。
AMDとNVIDIAのAI半導体マッチレース、栄冠はどちらに?
この192GB容量のHBM3メモリは、最大5.2TB/秒のバンド幅と896GB/秒のInfinity Fabric Bandwidthを提供する。比較として、 $エヌビディア (NVDA.US)$の近日発表したAIアクセラレーターH200は141GBの容量を提供し、 $インテル (INTC.US)$のGaudi 3は144GBの容量を提供する。大容量のメモリプールは、ほとんどがメモリに束縛されるLLMでは非常に重要であり、AMDはメモリ分野でリードすることで、間違いなくAIの実力を示すことができる。
AMDとNVIDIAのAI半導体マッチレース、栄冠はどちらに?
この記事は一部に自動翻訳を利用しています
出所:各社公式サイト、Bloomberg、Engadget、Wccftech、Tweaktown、CNBC
moomooニュース - Zeber
免責事項:このコンテンツは、Moomoo Technologies Incが情報交換及び教育目的でのみ提供するものです。 さらに詳しい情報
54
5
+0
1
翻訳
報告
36K 回閲覧
コメント
サインインコメントをする
avatar
moomooニュース米国株
moomooニュース公式アカウント
37Kフォロワー
2フォロー中
82K訪問者
フォロー
現在の話題
Trump 2.0 countdown: What's the next big opportunity in the markets?
Trump is gearing up for a return to the political stage, and his "America First" tariff policies, along with his stance on cryptocurrency an もっと見る