South Korea's SK Group, the parent company of Nvidia's chip supplier SK Hynix, has announced plans to amass 80 trillion won ($56 billion) by 2026. The funds will be primarily directed towards investments in artificial intelligence (AI) and semiconductors.
What Happened: The company's top brass agreed during a weekend meeting that the funds, secured through improved profitability, business structure optimization, and synergy creation, would be invested in high-bandwidth memory (HBM) chips, data centers, and personalized AI assistant services. The strategy is designed to bolster its supply chains for emerging technology, Nikkei Asia reported on Monday.
The group's chipmaking unit, SK Hynix, is projected to control over half the global market for HBM this year. The unit supplies nearly all HBM chips used by Nvidia (NASDAQ:NVDA), which utilizes them to boost the efficiency of its graphics processing units for AI computing and training.
However, Samsung Electronics and Micron are also vying for a significant share in the HBM market, posing potential competition for SK Hynix.
Despite the looming competition, analysts opine that SK Hynix continues to lead in chip-stacking technology, a technique that amalgamates multiple conventional DRAM chips to enhance speed and facilitate large-scale data processing.
SK Group has yet to disclose detailed plans on how it aims to reach its 80-trillion-won target.
Why It Matters: In April, SK Hynix reported its first profitable quarter in five, attributing the turnaround to soaring demand for AI chips. The company's strong performance was driven by increased sales of AI server products, particularly high-bandwidth memory, a technology crucial for AI chipsets used by Nvidia.
However, in June, Nvidia was in the final stages of certifying Samsung's HBM chips, a critical step before Samsung could supply components crucial for training AI platforms. Nvidia's approval is essential for companies like Samsung and Micron to compete with SK Hynix in the AI chip market.
Image via SK Hynix
This story was generated using Benzinga Neuro and edited by Pooja Rajkumari
NVIDIAの半導体サプライヤーであるSK Hynixの親会社である韓国のSKグループは、2026年までに80兆ウォン(約560億ドル)を集める計画を発表しました。これらの資金は主に人工知能(AI)と半導体への投資に主に向けられます。
同社のトップマネージメントは、週末のミーティング中に合意し、利益向上、事業構造の最適化、シナジー創造を通じて確保された資金がHigh-Bandwidth Memory(HBM)チップ、データセンター、および個人向けAIアシスタントサービスに投資される予定であることを確認しました。この戦略は、新興技術のためのサプライチェーンを強化するために設計されており、Nikkei Asiaは月曜日に報告しました。
グループの半導体製造部門であるSK Hynixは、今年のHigh-Bandwidth Memory(HBM)市場の半分以上を支配すると予想されています。同部門は、エヌビディアがAIコンピューティングとトレーニングに使用するために利用するほぼすべてのHBMチップを供給しています。しかし、サムスン電子とMicronもHBM市場で大きなシェアを狙っており、SK Hynixに対して潜在的な競争が発生しています。
しかし、サムスン電子とMicronもHBM市場で大きなシェアを狙っており、SK Hynixに対して潜在的な競争が発生しています。
競合の影響にもかかわらず、アナリストは、SK Hynixがチップスタッキング技術を引き続きリードしていると考えています。この技術は、複数の従来のDRAMチップを統合し、処理速度を高速化し、大量のデータ処理を容易にする技術です。
SKグループは、80兆ウォンの目標にどのように到達するかについて、詳細な計画をまだ発表していません。
4年ぶりに初めての黒字決算を報告したSK Hynixは、AIチップの需要の高まりに起因しています。同社の強力な業績は、特にHigh-Bandwidth Memoryが使用されるAIサーバー製品の販売増加に支えられています。
しかし、6月には、NVIDIAがサムスンのHBMチップを認定する最終段階に入っていました。これはNVIDIAがAIプラットフォームのトレーニングに必要なコンポーネントを供給できるようになる重要なステップです。NVIDIAの承認がなければ、サムスンやMicronのような企業がSK HynixとAIチップ市場で競合することはできません。
SK Hynixのイメージ
このストーリーはBenzinga Neuroを使用して生成され、編集されました。Pooja Rajkumari