NVIDIAはピークから後退:勢いを失っているのか、次の急上昇に向けて準備しているのか?
この週は新しいAIチップの一連の発表で印象づけられ、インテルはGaudi 3アクセラレータの詳細を開示し、アルファベットのGoogleとフェイスブックの親会社Meta Platformsは自社で製造されるチップを発表しました。
IntelのGaudiはNvidiaに対抗することができるのか?
Intelは2019年、たった20億ドルでガウディチップを持つ親会社Habana Labsを買収しましたが、これは実際には前管理陣の最も賢明な手段の1つと見なされています。
インテルの新しいGaudi 3 AIアクセラレータには、印象的な仕様があります。 Intelのプレゼンテーションによると、新しいチップは、Nvidia H100より50%優れた推論パフォーマンスと40%優れた省電力性を持ち、コストもはるかに低くなります。さらに、IntelはGaudi 3がH100に比べて50%高速なトレーニング時間も実現すると主張しています。
IntelがオープンソースのAIソリューションを革新する大規模なコンソーシアムのリーダーシップをとることは、潜在的な長期的な脅威を表す可能性がありますが、Nvidiaはこの年末に新しいBlackwellアーキテクチャをリリースします。Gaudi 3チップはH100に比べて50%のパフォーマンス向上を実現する可能性がありますが、BlackwellはH100の2.5倍から5倍のパフォーマンスを約束しており、さらにGaudi 3をはるかに上回ります。
NVIDIAのシェアは浸食されるのか?
BofA Securitiesのアナリスト、Vivek Arya氏は、Nvidiaが約900億ドルの今年のAIアクセラレータ市場全体の75%以上を占めると予想しており、2027年には約2,000億ドルに達する見込みだと述べています。
「今のところ、私たちはこの見方を変えるものを何も見ていません。実際、NvidiaのBlackwell製品は、トレーニングと推論の主導的なパフォーマンスに加え、Nvidiaの強力なエンタープライズプレゼンスにより、同社のシェアを維持/拡大する能力についての私たちの信頼を高めています」とArya氏は今週のリサーチノートで述べました。
Arya氏は、特にIntelのGaudi 3がAIアクセラレータセクターの市場シェアの1%未満を占めるだろうと予想し、AlphabetやMetaなどのカスタムチップが最終的に市場の10-15%を占める可能性があると述べています。 Arya氏は、Nvidiaの株式について、買いのレーティングと1100ドルの目標株価を維持しています。
「戦略的な投資とパートナーシップでAIの野望を強化」
Nvidiaは、有望なAIベンチャーに出資することで人工知能(AI)分野での地位を確立しようとしています。そのような会社の1つであるSoundHound AIに興味を示し、チップ製造の強国は、1,700,000株を購入することにより、SoundHound AIの革新的な音声AI技術を利用する戦略の一環としています。同社の高度な音声アシスタントは、Stellantisによって採用され、従来のオファリングを超える拡張されたデジタルアシスタント体験を運転手に提供しています。
Nvidiaのアプローチは、通常の半導体業界のハードウェアとチップ開発に焦点を当てたものを超えて、収益性の高いソフトウェアセクターにも大きな存在感を打ち立てています。 Nvidiaは、AIチップで動作するCUDAプログラミングインターフェースを積極的に販売しており、ソフトウェアが特定のグラフィックス処理ユニットを利用してより効率的な汎用処理を行うことができるようにしています。 Manyのノウハウがある会社がNvidiaのCUDAインターフェイスを採用しており、Oski Technology、Sinopec Technology、Advanced Micro Devicesなどがその広範かつ影響力のある到達率を示しています。
Elon MuskのAI企業はより多くのNvidiaチップを使用することが予想されています
最近のインタビューで、Elon Muskは人工一般知能(AGI)の開発を予測しています。彼は、AGIが次の2年以内に人間の知能を超える知能の破壊力を実現する可能性があると述べ、このプロセスには大量のGPUと電力消費が必要です。
Muskによると、彼の人工知能会社であるxAIは現在、2世代目の大型言語モデルGrok 2のトレーニングを行っており、来月には次のトレーニングフェーズを完了する予定です。 Grok 2のトレーニングには約20,000のNVIDIA H100 GPUが必要でした。将来の高度なバージョンのGrok 3の開発には、最大100,000台のNVIDIA H100 GPUが必要になる可能性があります。
マスク氏は、現在のAI技術の開発には2つの重大な問題があると指摘しました。1つ目は、Nvidia H100などの高性能GPUの供給が不足していることです。100,000のGPUをすばやく入手することは容易ではありません。2つ目は、巨大な電力需要があることです。Nvidia H100 GPUは、フル負荷で作業すると約700ワットの電力を消費するため、これらのGPUの100,000台を使用すると最大で70メガワットの電力を消費します。サーバーと冷却システムのニーズも考慮すると、100,000のNvidia H100プロセッサを装備したデータセンターの消費電力は、小さな都市の消費電力に相当する約100メガワットに達するでしょう。
これらの2つの制約は、成長する計算要件に対応するためにAI技術をスケーリングする上での課題を強調しています。
それでも、コンピューティングおよびストレージ技術の進展が、今後数年でより大規模な言語モデルをトレーニングすることを可能にするようになるでしょう。NvidiaがテクノロジーイベントGTC 2024でデモンストレーションしたBlackwell B200 GPUプラットフォームは、兆のパラメータに拡張できる大規模な言語モデルをサポートするように設計されており、AGIの開発において重要なステップを示唆しています。
マスク氏は、「最も賢い人間を超える知能としてAGIが定義される場合、おそらく1年から2年以内に達成されるだろうと思う」と述べています。
免責事項:このコンテンツは、Moomoo Technologies Incが情報交換及び教育目的でのみ提供するものです。
さらに詳しい情報
コメント
サインインコメントをする