share_log

Nvidia Supplier's Parent Company Pledges $56B Investment In AI, Chip Tech By 2026 As Competition From Samsung, Micron Heats Up

エヌビディアのサプライヤーの親会社は、2026年までにAIとチップ技術に560億ドルの投資を約束し、サムスン、マイクロンとの競争が加熱する中で。

Benzinga ·  07/01 09:35

NVIDIAの半導体サプライヤーであるSK Hynixの親会社である韓国のSKグループは、2026年までに80兆ウォン(約560億ドル)を集める計画を発表しました。これらの資金は主に人工知能(AI)と半導体への投資に主に向けられます。

同社のトップマネージメントは、週末のミーティング中に合意し、利益向上、事業構造の最適化、シナジー創造を通じて確保された資金がHigh-Bandwidth Memory(HBM)チップ、データセンター、および個人向けAIアシスタントサービスに投資される予定であることを確認しました。この戦略は、新興技術のためのサプライチェーンを強化するために設計されており、Nikkei Asiaは月曜日に報告しました。

グループの半導体製造部門であるSK Hynixは、今年のHigh-Bandwidth Memory(HBM)市場の半分以上を支配すると予想されています。同部門は、エヌビディアがAIコンピューティングとトレーニングに使用するために利用するほぼすべてのHBMチップを供給しています。しかし、サムスン電子とMicronもHBM市場で大きなシェアを狙っており、SK Hynixに対して潜在的な競争が発生しています。

しかし、サムスン電子とMicronもHBM市場で大きなシェアを狙っており、SK Hynixに対して潜在的な競争が発生しています。

競合の影響にもかかわらず、アナリストは、SK Hynixがチップスタッキング技術を引き続きリードしていると考えています。この技術は、複数の従来のDRAMチップを統合し、処理速度を高速化し、大量のデータ処理を容易にする技術です。

SKグループは、80兆ウォンの目標にどのように到達するかについて、詳細な計画をまだ発表していません。

4年ぶりに初めての黒字決算を報告したSK Hynixは、AIチップの需要の高まりに起因しています。同社の強力な業績は、特にHigh-Bandwidth Memoryが使用されるAIサーバー製品の販売増加に支えられています。

しかし、6月には、NVIDIAがサムスンのHBMチップを認定する最終段階に入っていました。これはNVIDIAがAIプラットフォームのトレーニングに必要なコンポーネントを供給できるようになる重要なステップです。NVIDIAの承認がなければ、サムスンやMicronのような企業がSK HynixとAIチップ市場で競合することはできません。

SK Hynixのイメージ

このストーリーはBenzinga Neuroを使用して生成され、編集されました。Pooja Rajkumari

これらの内容は、情報提供及び投資家教育のためのものであり、いかなる個別株や投資方法を推奨するものではありません。 更に詳しい情報
    コメントする