Nvidia Corp (NASDAQ:NVDA) has successfully tested and approved Samsung Electronics' fifth-generation high bandwidth memory (HBM) chips, known as HBM3E, for use in its artificial intelligence (AI) processors.
Samsung and Nvidia will likely forge a supply agreement for the newly qualified eight-layer HBM3E chips, with supplies anticipated to begin by the fourth quarter of 2024, Reuters reports.
Also Read: Huawei And Baidu Increase Samsung HBM Purchases As US Curbs Loom
Samsung's 12-layer HBM3E version is still undergoing Nvidia's testing.
HBM is an essential component of graphics processing units (GPUs) for AI, helping to process vast amounts of data from complex applications.
Samsung anticipates that HBM3E chips will account for 60% of its HBM chip sales by the fourth quarter.
Analysts estimate Samsung's total DRAM chip revenue to be 22.5 trillion won ($16.4 billion) for the first six months of this year, with approximately 10% potentially derived from HBM sales.
Prior reports indicated that Nvidia approved using Samsung's fourth-generation HBM3 chips in its AI processors for the Chinese market.
The HBM market is expected to grow from $4 billion in 2023 to $71 billion in 2027, Bloomberg cites Morgan Stanley.
SK Hynix will maintain its leadership in the HBM market in 2024, holding over 52% market share, Nikkei Asia cites TrendForce. Meanwhile, Samsung is projected to follow closely with 42.4%, and Micron Technology, Inc (NASDAQ:MU) is expected to secure just over 5% of the market.
Price Action: NVDA shares traded lower by 0.52% at $103.71 at last check on Wednesday.
Also Read:
- AMD Expands Partnership with Samsung, New 3nm Chips to Boost Market Share
Disclaimer: This content was partially produced with the help of AI tools and was reviewed and published by Benzinga editors.
Image via Shutterstock
Nvidia Corp(NASDAQ:NVDA)は、人工知能(AI)プロセッサに使用するためにSamsung Electronicsの第5世代高帯域幅メモリ(HBM)チップであるHBM3Eを正式にテストおよび承認しました。
SamsungとNvidiaは、新たに承認された8層のHBM3Eチップの供給契約を結ぶ可能性が高く、供給は2024年第4四半期に始まる見込みです。
また読む:米国の制限が迫る中、華為技術とバイドゥ、Samsung HBM購入を増やす
Samsungの12層HBM3Eバージョンは、現在Nvidiaのテスト中です。
HBmは、人工知能のために重要なグラフィックス処理ユニット(GPU)の要素であり、複雑なアプリケーションからの膨大な量のデータを処理するのに役立ちます。
Samsungは、HBM3Eチップが2024年第4四半期までにHBMチップの販売の60%を占めると予想しています。
アナリストは、今年の上半期のSamsungのDRAMチップの総売上高を22.5兆ウォン(164億ドル)と見積もっており、そのうち約10%がHBMの売上高に由来する可能性があります。
以前の報道によれば、Nvidiaは中国市場向けのAIプロセッサにSamsungの第4世代HBM3チップを使用することを承認しました。
HBm市場は、Morgan Stanleyが引用するBloombergによれば、2023年の400億ドルから2027年の710億ドルに成長すると予想されています。
Nikkei Asiaによれば、Sk Hynixは2024年にHBM市場でリーダーシップを維持し、市場シェアの52%以上を占める一方、Samsungは42.4%に迫り、Micron Technology、Inc(NASDAQ:MU)は市場のわずか5%以上を確保すると予想されています。
プライスアクション:水曜日の最終確認時に、NVDA株は0.52%下落して103.71ドルで取引されました。
関連記事:戦略的転換と利益重視でBlockのアナリストは強気
- AMDはサムスンとのパートナーシップを拡大し、新しい3nmチップで市場シェアを拡大する
免責事項:このコンテンツは一部AIツールの支援を受けて作成され、Benzinga編集者によってレビューおよび公開されました。
Shutterstockを通じての画像