share_log

AMD(AMD.US)与英伟达战火蔓延至AI领域! Meta与甲骨文官宣斥巨资购AMD AI芯片

AMD(AMD.US)とNVIDIAの戦火はAI分野にも波及しました!MetaとOracleはAMDのAIチップを多額の資金で買収すると公表しました。

智通財経 ·  2023/12/06 20:30

AMDは、旗艦AI GPUアクセラレータMI300Xを正式に発表しました。これにより、AMDとNVIDIAの激しい競争はPC市場からAI市場に全面的に拡大しました。

智通財経アプリによると、CPUとGPUの両主力企業の1つであるNVIDIA(NVDA.US)の競合他社であるAMD(AMD.US)は、米国東部時間の週水曜日に「Advancing AI」リリースイベントを開催し、旗艦AI GPUアクセラレータMI300Xを正式に発表し、AMDとNVIDIAの激しい競争はPC市場からAI市場に全面的に拡大しました。AMDのテストデータによると、MI300Xの総合性能はNVIDIA H100よりも60%高いと示されました。「Instinct MI300X」、「MI300A」などの新製品が予想どおり発表された他、AI分野のいくつかのグローバルリーダーも現地に参加し、OpenAI、Microsoft、MetaなどがAMD Instinct MI300Xを大量に採用することを表明しました。

「Advancing AI」リリースイベントで最初に登場したのはInstinct MI300Xアクセラレーターです。 MI300シリーズのAIチップのパラメーターは、半年前の商品宣伝活動で既に公開されていましたが、「Advancing AI」リリースイベントでは、実際のアプリケーションでのシステム全体のパフォーマンスと、AIトレーニング/推論分野で最も注目を集めているNVIDIA H100 AIチップとの全面的な性能比較に焦点が当てられました。さらに、AMDは2027年までの世界のAIチップ市場規模を1500億ドルから4000億ドルに急上昇させる予想を発表しました。

AI分野のグローバルリーダーであるOpenAI、Microsoft(MSFT.US)、Meta(META.US)は、AMDの最新のAIチップ「Instinct MI300X」を使用すると、AMD活動の水曜日に発表しました。これは、これまでグローバルテクノロジー企業が高価なNVIDIA H100 AIチップの代替品を探していた最も明らかな証拠です。 NVIDIA H100は、ChatGPTなどの生成型人工知能(生成型AI)アプリケーションを開発/展開するためにOpenAIが所有する必要がある場合があります。人工知能チップ市場は、処理能力の要求/バックエンドに最適化された英国のH100がほとんど独占的に占めているため、競合他社のAMD Instinct MI300Xが登場しました。

AMDの最新の高性能AIチップが来年初めに出荷されれば、人工知能の大規模モデルを構築するために必要な技術企業やクラウドサービスプロバイダーの演算力の要求を満たし、技術企業の人工知能モデル開発コストを削減することができるため、オーディエンス収益は飛躍的に上がることが予想されます。 NVIDIAのAIチップの売上高に対して大きな競争圧力をかけます。

AMDのCEOであるLisa Su氏は水曜日に「潜在的な大口顧客は基本的に、クラウドコンピューティング用の大規模プロセッサと大規模GPUに関心が集中しています」と述べました。

AMDは、MI300Xが完全新規構成であることを示しました。このアーキテクチャは、より高速なデータ転送速度を持つ尖端の高性能HBM3メモリーを搭載しているため、より大規模な人工知能モデルに適した性能を提供します。

AMDファンの愛称である「Su Mama」は、MI300Xおよびそれが構築したシステムをNVIDIAの主要なAIチップH100と比較しました。「このタイプのパフォーマンスは、直接ユーザーエクスペリエンスに反映されます」、Lisa Su氏は述べています。「モデルに要求を送信する場合、より複雑な反応が求められる状況では、より速い応答が期待されています」。

AMDが直面している主要な問題は、常にNVIDIAのソフトウェア/ハードウェアに依存している企業が、別のAIチップサプライヤーを信頼するために時間と資金を投入するかどうかです。 AMDは水曜日に投資家とパートナーに話し、同社がROCmという名前のソフトウェアスイートを改善し、NVIDIAの業界標準CUDAソフトウェアと競合できるようにしたことを明らかにしました。これは、AIチップ市場におけるAMDが直面している重大な欠陥の一つであるソフトウェア/ハードウェアエコシステムの解決策の一部を解決しました。これは、AI開発者が現在NVIDIAの製品を好む主要な理由の1つでした。

AMDは水曜日にMI300Xの価格を明らかにしませんでしたが、NVIDIAのAIチップの1枚あたりの価格は4万ドルに達するため、Lisa Su氏はAMDのチップ購入と運用コストがNVIDIAのチップよりも低くなければ、潜在的な大口顧客を説得することはできないと述べました。

リリースイベントが市場予想に一致していたにも関わらず、AMDの株価を刺激することができませんでした。水曜日の米国株式市場において、テクノロジー株は全般的に低下し、AMDのリリースイベントが終わる前に株価は上昇から下落に転じ、最終的に1%超下落しましたが、アフター取引では1%超上昇しました。

AMDが英伟达H100と対抗する高性能AIチップを発売することになったため、ウォールストリートのアナリストはAMDの株価が上昇すると予想しています。 SeekingAlphaが編成したウォールストリートアナリストの値で、AMDの合意評価および目標株価は「買い」であり、平均目標価格予想は132.24ドルであり、将来の12ヶ月の潜在増加は最大で13%、最高目標価格は200ドルであります。

H100よりも性能が優れています! AMD市場規模の予測を大幅に増やしました。

NVIDIA H100 AIチップとAIトレーニング/推論分野で最も注目されている新しい性能比較データによると、一般的なLLMカーネルTFLOPにおいて、MI300XはFlashAttention-2とLlama 2 70BでH100に対して最大20%の性能向上を実現しました。プラットフォームレベルで8x MI300Xソリューションと8x NVIDIA H100ソリューションを比較すると、AMDはLlama 2 70Bに対して40%の利益率を発見し、Bloom 176B基準下では60%の利益率を発見しました。

具体的なAMD Instinct MI300XとNVIDIA H100の性能比較データは以下の通りです:

1対1の比較では、全体的なパフォーマンスはH100(Llama 2 70B)より20%高い

1対1の比較では、全体的なパフォーマンスはH100(FlashAttention 2)より20%高い

8v8サーバーによる全体的なパフォーマンスは、H100(Llama 2 70B)の40%高い

8v8サーバーにおける全体的なパフォーマンスは、H100(Bloom 176B)から60%高い

AMD Instinct MI300Xの背後にある最新のドライブフォースは、AMD ROCm 6.0です。このソフトウェアスタックは最新バージョンに更新され、生成型人工知能および大規模言語モデル(LLM)など、さまざまな人工知能ワークロードタスクをサポートする強力な新しい機能を備えています。

メモリはAMDのもう一つの大きなアップグレード領域であり、MI300XのHBM3容量は前身のMI250X(128 GB)よりも50%増加しています。AMDは、8つのHBM3スタックをMI300Xに搭載して、最大192GBのメモリプールを実現し、各スタックは12-Hiで、16Gb ICを統合します。それぞれのICは2GBの容量を持ち、または各スタックは最大24GBの容量を持ちます。

このレベルのメモリサイズは、最大5.3TB/sの帯域幅と896GB/sのInfinity Fabric帯域幅を提供します。英NVIDIAに対して、H200 AIチップは141GBの容量を提供する予定であり、Intel Gaudi3は同じく141GBの容量を提供します。消費電力面では、AMD Instinct MI300Xの定格電力は750Wであり、Instinct MI250Xの500Wよりも50%増加し、NVIDIA H200よりも50W多くなっています。

AMDは、AIチップ市場が急速に拡大すると予測し、その未来の市場規模について大胆な予測データを提供しました。具体的には、AMDは、AIチップ市場全体が2027年までに4000億ドル以上に達すると予想しており、同社が数か月前に提案した1500億ドルと比較して、ほぼ2倍に増加する見通しです。これは、世界中の企業が人工知能ハードウェアに対する期待の変化に迅速に対応していることを表しており、各企業は新しいAI製品の布置に急速に取り組んでいます。

MI300Xを使用する技術企業はどのようなものがありますか?

AMDは、その発表会で、最もGPUが必要な科技企業数社とMI300Xの使用契約書に署名したことを明らかにしました。調査会社Omidiaの最近の報告書によると、MetaとMicrosoftは2023年にNVIDIA H100 AIチップの最大のバイヤーになる予定です。

発表会で、FacebookとInstagramの親会社であるMetaは、MI300X GPUを使用して、AIスタンプ、画像編集、およびそのAIアシスタントを処理する多数の人工知能推論作業負荷を処理することを公式に発表しました。さらに、ROCmソフトウェアスタックを組み合わせて、AI推論ワークロードをサポートする計画もあります。

MicrosoftのCTOであるKevin Scottは、Azureネットワークサービスを通じてMI300Xチップへの技術アクセスを提供する予定だと公開的に述べました。さらに、同日には、MicrosoftがAMDのAIチップ製品の需要を評価し、新製品を採用する可能性を評価する予定であることが報じられています。

ChatGPTの開発者であるOpenAIは、AMD MI300などのGPUをTritonという重要なソフトウェア製品でサポートすることを明らかにしました。TritonはGPT-4のような大規模な言語モデルではないですが、人工知能研究分野にとって非常に重要な製品です。

NVIDIAの最大のバイヤーの一つであるOracleは、独自のクラウドコンピューティングサービスであるInstinct MI300Xアクセラレータを使用し、生成型AIサービスの開発を計画しています。

AMDは、このAIチップの長期的な販売収入についてまだ予測しておらず、2024年の予測値のみを提供しています。同社は、2024年にデータセンターGPUによる総収益が約20億ドルに達すると予想しています。たった1つの四半期だけで、NVIDIAのデータセンタ部門の収益は14億ドルを超えています。ただし、この数字にはGPU以外のビジネスも含まれています。しかし、AMDは、今後4年間で人工知能チップ市場全体が4000億ドルに達する可能性があると述べており、これは同社の以前の予測の2倍に相当します。

Su Zifeng氏は、記者に語ったところ、「AMDは市場で成功するためにNVIDIAを負かす必要はないとは思っていません。人工知能チップ市場について話すとき、Su Zifeng氏は、「NVIDIAは現在、大部分を占めていると考えています。」と述べ、「2027年までに、人工知能チップ市場の規模が4000億ドルを超える可能性があり、私たちは重要な役割を果たすことになるでしょう。」と述べました。

これらの内容は、情報提供及び投資家教育のためのものであり、いかなる個別株や投資方法を推奨するものではありません。 更に詳しい情報
    コメントする