share_log

市值不到英伟达的十分之一,AMD的“硬伤”和“软肋”

市值不到英偉達的十分之一,AMD的“硬傷”和“軟肋”

證券之星 ·  06/17 02:47

在芯片界鐵娘子蘇姿豐的職業生涯裏,有兩場至關重要的戰役。第一場,是在2014年接手AMD(美國超威半導體),以力挽狂瀾之勢讓AMD從深陷財務危機到一舉成爲英特爾最強勁對手。

另一場則是在當下,其剛剛推出的新品AMD MI325X的內存容量相比英偉達H200提高2倍,內存帶寬性能、計算性能均提升1.3倍,該芯片將於2024年第四季度上市。

那麼AMD真的能成爲英偉達強勁的對手嗎?一起來看。

從業績看,英偉達要遠比AMD有吸引力

在GPU 市場份額上,目前,英偉達在AI領域處於制霸地位,它在AI處理器市場上佔據超80%的份額,其高端處理器已被用於訓練和運行各種聊天機器人。

從業績看,AMD2024財年第一季度業績顯示其營收爲54.73億美元,同比增長2%,環比則下降了11%;淨利潤爲1.23億美元,而上年同期的淨虧損爲1.39億美元,相當於同比增長188%,環比則大幅下降了82%;不按照美國通用會計準則的調整後淨利潤爲10.13億美元,同比增長4%,環比則下降了19%。

分部門看,AMD 數據中心事業部營業額創季度新高,達23億美元,同比增長80%,主要得益於AMD Instinct GPU和第四代AMD EPYC CPU的增長。營業額環比增長2%,主要得益於AMD Instinct GPU第一個完整的季度銷售,部分抵消了服務器CPU銷售的季節性下降。

客戶端事業部本季度營業額爲14億美元,同比增長85%,主要得益於AMD銳龍8000系列處理器的銷售增長。營業額環比下降6%。

遊戲事業部本季度營業額爲9.22億美元,同比下降48%,環比下降33%,主要原因是半定製業務收入減少與AMD Radeon GPU銷售下降。

嵌入式事業部本季度營業額爲8.46億美元,同比下降46%,環比下降20%,主要由於客戶繼續調整庫存水平。

在科技行業的激烈競爭中,AMD這份業績數據並不盡如人意。雖然營收方面勉強達到了市場的預期,但在利潤端,AMD卻再次遭遇了大幅下滑的尷尬局面。這一結果,無疑給這家知名科技公司的未來蒙上了一層陰影。

詳細剖析這份業績不難發現,即便剔除了此前收購產生的遞延費用,AMD的核心經營利潤也僅爲4.15億美元,環比竟下滑了45.1%。這一數字的背後,反映出的是下游需求不足的嚴峻現實。在這個以技術爲驅動的時代,需求的疲軟對於任何一家科技企業而言,都是一個不容忽視的警示信號。

與之形成對比的是英偉達2025財年的第一季度業績顯示在美國通用會計準則(GAAP)下,其營收達260.4億美元,同比增長262%,環比增長18%;淨利潤148.8億美元,同比上漲628%,環比上漲21%。

而比業績差距更明顯的是市值,英偉達目前的市值(截止6月14日)收盤已經達到了3.24萬億美元,而AMD市值僅爲2580億美元,不足英偉達的十分之一。這說明華爾街對英偉達未來的預期要遠遠好於AMD,那麼爲什麼同樣是做GPU ,兩者差距會這麼大呢?

AMD的硬傷:英偉達的GPU更適合Transformer結構

首先我們來看雙方目前的主流產品MI300X和H100。雖然AMD的MI300X的內存達到了192GB,但英偉達也能提供具備相同內存規格的產品,因此這不會成爲絕對優勢。此外AMD在與英偉達的H100對比時,不會有顯著的成本優勢,因爲高密度的HBM價格昂貴。

並且最關鍵的問題在於,MI300並不具備H100所擁有的Transformer Engine。Transformer Engine能夠用於加速Transformer模型,以在AI的訓練和推理中以較低的內存利用率提供更好的性能。

AMD的MI300系列是目前從硬件水平上最接近H100的產品,但MI300X並沒有像H100的Transformer Engine(用加速Transformer大模型的引擎),H100可以將大語言模型(LLM)的性能提高兩倍,這也意味着用同樣數量的MI300X將花費更長的訓練時間。

Transformer Engine是英偉達H100顯卡的一大亮點,專爲加速Transformer網絡設計。這類網絡是現代AI的基礎,用於處理語言理解、機器翻譯等任務。H100通過其Transformer Engine,能夠在保持高精度的同時,將大型語言模型的訓練時間縮短至原來的一小部分。這種技術的突破爲AI研究和應用帶來了革命性的速度提升。

並且英偉達還在不斷迭代自己的產品,不斷拉開自己與AMD等公司的代差。今年3月19日,英偉達推出了全新GPU架構的Blackwell。

這款號稱是“世界最強大的GPU芯片”:集成2080億顆晶體管,採用定製4NP工藝,承襲“拼裝芯片”的思路,採用統一內存架構+雙芯配置,將2個受光刻模板(reticle)限制的GPU die通過10TB/s芯片間NVHyperfuse接口連一個統一GPU,共有192GB HBM3e內存、8TB/s顯存帶寬,單卡AI訓練算力可達20PFLOPS。跟上一代Hopper相比,Blackwell因爲集成了兩個die,面積變大,比Hopper GPU足足多了1280億個晶體管。對比之下,前代H100只有80GB HBM3內存、3.35TB/s帶寬,H200有141GB HBM3e內存、4.8TB/s帶寬。

搭載了第二代Transformer引擎:將新的微張量縮放支持和先進的動態範圍管理算法與TensorRT-LLM和NeMo Megatron框架結合,使Blackwell具備在FP4精度的AI推理能力,可支持2倍的計算和模型規模,能在將性能和效率翻倍的同時保持混合專家模型的高精度。

AMD的軟肋:英偉達的CUDA有明顯的先發優勢

英偉達除了Transformer Engine的優勢外,它還通過研發開放CUDA平台統一計算架構,爲開發者提供高效、易用的環境,構建龐大生態系統。舉個蘋果手機和IOS生態的例子:

用戶使用一部蘋果手機,而他必然就要使用蘋果的IOS生態體系。在蘋果IOS的生態體系裏,APP開發者上架發佈各類應用、或者買家支付都需要給蘋果支付一筆生態費用,俗稱“蘋果稅”。而Cuda平台就有點形似於GPU領域的IOS生態了,它就是通用GPU API接口,可以讓不同領域的開發者訪問GPU的計算資源,從而實現GPU的日常通用化。

這樣一來,CUDA豐富的底層支持和軟件生態服務極大降低了GPU算力調用的門檻,而在此生態中已有幾百萬開發者推出了各種生態服務如圖形引擎、算法庫及各類API接口等。

而AMD也有自己的平台即ROCm。本質上CUDA和ROCm大同小異,從芯片供應商的角度來講,都是爲了給芯片使用者或者Al的開發者,提供一個更方便使用Al芯片、異構計算的計算機模型的軟件棧,都是方便用戶使用他的CPU或DSA,從這個角度來看,二者解決的需求相同。

二者的區別在於CUDA推出的時間比較早,在2006年的時候,英偉達已經開始推CUDA,當時CUDA比較難用。經過了10多年的發展,2015年開始Al成爲比較熱門的發展方向。再加上在圖形圖像和並行計算領域,英偉達本身就已經是國際上最著名的公司,所以不管是高校還是企業,天然地就會選擇N卡。從這個角度來講,英偉達趕上了這一波風口浪潮,再加上CUDA做並行計算的研發時間要早很多,就帶來了這種無與倫比的優勢。

至於ROCm,在2015年Al浪潮興起之後,AMD才開始做並行計算、Al計算領域的軟件生態,相對來說起步更晚一些。再加上AMD的研發實力也不如英偉達強勁,所以軟件棧的豐富度和好用程度相比英偉達的CUDA來說要差很多。並且AMD芯片本身的迭代速度和算力,與英偉達的迭代速度和架構變化發展相比也有不小差距。這一系列因素導致無論是AMD還是國內做GPU的芯片廠商,想用ROCm開源軟件棧兼容CUDA方案去做Al技術軟件棧都很困難。

結語:AMD可以分到一杯羹

雖然英偉達在算力芯片上仍然具有絕對領先的地位,但AI芯片的競爭還是處在一片正在快速擴張的藍海之中,隨着AI應用越來越深入我們的生活,更加難以想象AI芯片市場的規模極限,其中留給AMD和英偉達的空間自然也足夠大。英偉達儘管通過長期積累建立了強大的優勢,但還有足夠的市場需求等待AMD滿足,這也是後者的機會所在。

声明:本內容僅用作提供資訊及教育之目的,不構成對任何特定投資或投資策略的推薦或認可。 更多信息
    搶先評論