share_log

全文来了!英伟达电话会:下半年Hopper出货量将增加,Blackwell到明年都将“供不应求”

全文來了!英偉達電話會:下半年Hopper出貨量將增加,Blackwell到明年都將「供不應求」

華爾街見聞 ·  00:16

英偉達業績電話會表示,Blackwell 計劃於第四季度開始量產,預計將在第四季度帶來「數十億美元」的收入,Hopper的出貨量預計將在2025財年下半年增加;中國市場貢獻較大、主權AI業務在增長,NVLink將改變交換領域遊戲規則。

英偉達「不負衆望」,二季度業績再次表現出色,收入在強勁數據中心需求下繼續超預期。不過,三季度收入指引低於最樂觀預期,預計六個季度內首度放緩至兩位數,導致英偉達盤後股價巨震,目前跌超6%。

在業績公佈後的電話會上,CEO黃仁勳對AI前景保持樂觀態度,認爲生成式AI的發展勢頭正在加速,”公司在重塑全球數據中心方面才剛剛開始而已,而這是一個萬億美元規模的機會。

關於備受關注的Blackwell進展及需求,英偉達表示,市場對Hopper芯片的需求「持續強勁」,對Blackwell也備受期待。隨着Blackwell在四季度開始量產,預計將獲得數十億美元的收入,但未未回答數十億美元收入是否是增量。

以下是本次電話會要點:

Blackwell及Hopper強勁需求將共存:英偉達二季度向客戶交付Blackwell架構的樣品,對 Blackwell GPU 掩膜進行了更改以提高生產良率。Blackwell 計劃於第四季度開始量產,並持續到 2026 財年,預計將在第四季度帶來「數十億美元」的收入。

Hopper的出貨量預計將在2025財年下半年增加,Hopper的供應和可用性都有所改善,Blackwell 平台的需求遠高於供應,預計這種情況將持續到明年。

中國市場貢獻較大:第二季度中國市場數據中心收入連續增長,成爲數據中心收入的重要貢獻者。

主權AI業務在增長:隨着各國認識到人工智能技術和基礎設施是社會和產業的當務之急,我們的人工智能主權機會也在不斷擴大,預計2024年的主權AI業務將增加幾十億美元。

NVLink將改變交換領域遊戲規則:Blackwell系統可將72GB200封裝的144個 GPU連接到一 NVLink域,一個機架的 NVLink 總帶寬爲每秒259TB。從這個角度來看,這比Hopper高出約10 倍;在推理方面,NVLink對於低延遲、高吞吐量的大型模型至關重要。

產品迭代對毛利率的影響:三季度毛利率指引是75%左右,那麼第四季度毛利率就會在71%—72%之間,預計全年毛利率也將在70%,主要是由於轉型和推出的新產品成本結構不同。

關於資本支出回報問題:加速計算可以加快應用速度,這直接帶來的是更低的成本和能耗;多家公司都在加速創建AI業務,一旦建立的數據中心都會被租用,投資回報率非常高;目前AI是投入使用的最佳計算基礎設施。

以下是英偉達2025財年第二季度電話會全文

英偉達投資者關係部高級總監:Stewart Stecker

謝謝大家,大家下午好,歡迎收聽英偉達2025財年第二季度電話會議。今天與我一起參加英偉達電話會議的有總裁兼首席執行官黃仁勳和執行副總裁兼首席財務官科萊特-克萊斯。

在本次電話會議中,我們將討論非美國通用會計準則的財務指標。您可以在我們網站上發佈的首席財務官評論中找到非美國通用會計準則財務指標和美國通用會計準則財務指標的對賬。讓我重點介紹一下即將舉行的金融界活動,我們將參加9月11日在舊金山舉行的高盛社區與技術大會,屆時黃仁勳將參加一個主題對話。

英偉達2025財年第三季度業績的業績電話會議定於2024年11月20日星期三舉行,下面請科萊特發言。

首席財務官、執行副總裁:Colette M. Kress

第二季度又是一個創紀錄的季度,收入達到300億美元,環比增長15%,同比增長122%,遠高於我們預期的280億美元。

首先是數據中心,在英偉達Hopper、GPU計算和網絡平台強勁需求的推動下,數據中心收入達到創紀錄的263億美元,環比增長16%,同比增長154%。計算收入增長超過2.5倍,網絡業務收入同比增長了2倍多。雲服務提供商約佔我們數據中心收入的45%,50%以上來自消費互聯網和企業公司。

客戶繼續加快Hopper架構購買,同時準備採用Blackwell。推動我們數據中心增長的主要工作負載包括:AI模型訓練和推理;使用 CUDA 和人工智能工作負載進行視頻、圖像和文本數據預處理和後處理;合成數據生成;AI驅動的推薦系統;SQL 和矢量數據庫處理。

下一代模型將需要10—20 倍的算力來處理更多的數據,預計這一趨勢將持續下去。在過去的四個季度中,我們估計推理業務佔數據中心收入的 40% 以上,CSP、消費互聯網公司和企業都受益於英偉達推理平台驚人的吞吐量和效率。對英偉達推理平台的需求來自於前沿模型製造商、消費互聯網服務以及數以萬計的爲消費者、廣告、教育、企業和醫療保健以及機器人技術構建AI應用的公司和初創企業。開發人員渴望 NVIDIA 豐富的生態系統以及在各種雲中的可用性。

CSP 對 NVIDIA 的廣泛採用表示讚賞,並在需求旺盛的情況下不斷擴大其 NVIDIA 使用。NVIDIA H200 平台已於第二季度開始量產,並向大型 CSP、消費互聯網和企業公司發貨。英偉達H200以Hopper架構爲基礎,與H100相比,內存帶寬增加了40%以上。

第二季度,我們在中國的數據中心收入連續增長,成爲我們數據中心收入的重要貢獻者。我們仍然預計中國市場未來的競爭將非常激烈,最新一輪的MLPerf推理基準測試凸顯了英偉達在推理領域的領先地位,英偉達Hopper和Blackwell平台在所有任務中均獲得金牌。在本屆Computex上,英偉達與頂級計算機制造商共同發佈了一系列Blackwell架構驅動的系統和英偉達網絡,用於構建人工智能工廠和數據中心。

藉助英偉達MGX模塊化參考架構,我們的OEM和ODM合作伙伴正CSP構建100多個基於Blackwell的系統,NVIDIA Blackwell平台彙集了多個GPU、CPU、DPU、NVLink和Link Switch,以及網絡芯片、系統和NVIDIA CUDA軟件,爲跨空餘、跨行業和跨國家的下一代人工智能提供動力。搭載第五代NVLink的英偉達GB200 NVL72系統能夠讓所有72個GPU作爲單個GPU運行,爲LLM工作負載提供高達30倍的推理速度,並釋放實時運行萬億參數模型的能力。

Hopper 需求強勁,Blackwell 正在廣泛採樣,我們對Blackwell GPU的質量進行了調整,以提高產量。Blackwell 計劃於第四季度開始量產,並持續到26財年。在第四季度,我們預計將獲得數十億美元的Blackwell 收入,Hopper 的出貨量預計將在 2025 財年下半年增加。Hopper 的供應和可用性都有所改善,Blackwell 平台的需求遠高於供應,我們預計這種情況將持續到明年。

網絡業務收入連續增長 16%。隨着數百家客戶採用我們的以太網產品,我們的人工智能以太網收入(包括 Spectrum-X 端到端以太網平台)連續翻番。Spectrum-X得到了OEM和ODM合作伙伴的廣泛支持,並被CSP、GPU雲提供商和企業所採用,包括xAI連接全球最大的GPU計算集群。Spectrum-X爲人工智能處理提供了超強的以太網,其性能是傳統以太網的1.6倍。我們計劃每年推出新的Spectrum-X產品,以支持將計算集群從目前的數萬個GPU擴展到不久的將來的數百萬個DPU的需求。Spectrum-X 將在一年內成爲價值數十億美元的產品線。

隨着各國認識到人工智能專業技術和基礎設施是本國社會和產業的當務之急,我們的人工智能主權機會也在不斷擴大。日本國家先進工業科學與技術研究所正在與英偉達合作建設其人工智能橋接雲基礎設施 3.0 超級計算機。我們相信,今年Hopper 人工智能收入將達到低兩位數。

企業人工智能浪潮已經開始,企業推動了本季度收入的連續增長。我們正與大多數財富 100 強企業合作,在各個行業和地區實施人工智能計劃。一系列應用正在推動我們的增長,包括人工智能驅動的聊天機器人、生成式人工智能協同機器人以及用於構建新的可盈利業務應用和提高員工生產力的代理。Amdocs 將英偉達生成式人工智能應用於其智能代理,改變了客戶體驗,並將客戶服務成本降低了 30%。

ServiceNow 將英偉達技術用於其 Now Assist 產品,這是公司歷史上增長最快的新產品。SAP 正在使用英偉達打造企業級應用。Cohesity正在使用英偉達來構建其生成式人工智能代理,並降低生成式人工智能的開發成本。Snowflake公司每天爲10000多家企業客戶提供30多億次查詢服務,該公司正在與英偉達企業級應用。

最後,他們正在使用英偉達AI Omniverse 將工廠的端到端週期時間縮短 50%。汽車行業是本季度的主要增長動力,因爲每家開發自動駕駛汽車技術的汽車製造商都在其數據中心使用英偉達。汽車行業將爲內部部署和雲消費帶來數十億美元的收入,而且隨着下一代 AV 車型對計算能力的要求大幅提高,來自汽車行業的收入也將隨之增長。隨着人工智能對醫療成像、手術機器人、病人護理、電子健康記錄處理和藥物研發的革新,醫療保健也將成爲一項價值數十億美元的業務。

在本季度,我們宣佈了一項新的英偉達AI代工服務,利用Meta的Llama 3.1 模型集爲全球企業的生成式人工智能提供超級動力,這標誌着企業人工智能的分水嶺。企業首次可以利用開源前沿級模型的能力來開發定製的人工智能應用,將其機構知識編碼成人工智能飛輪,從而實現業務自動化和加速。埃森哲是首家採用新服務來構建定製 Llama 3.1 模型的公司,該模型既可用於公司自身,也可協助客戶部署生成式人工智能應用。

英偉達NIM模型加快並簡化了部署,醫療保健、能源、金融服務、零售、運輸和電信領域的公司都在採用 NIM,其中包括 Aramco、Lowes 和 Uber。AT&T 在將 NIM 用於生成式人工智能、呼叫轉錄和分類後,實現了70% 的成本節約和八倍的延遲降低。超過 150 家合作伙伴正在人工智能生態系統的每一層嵌入NIM。

我們發佈了 NIM Agent Blueprint,這是一個可定製的參考應用目錄,其中包括用於構建和部署企業生成式人工智能應用的全套軟件。有了 NIM Agent Blueprint,企業就可以逐步完善其人工智能應用,創建一個數據驅動的人工智能飛輪。首批 NIM Agent Blueprints 包括用於客戶服務、計算機輔助藥物發現和企業檢索增強生成的工作負載。我們的系統集成商、技術解決方案提供商和系統構建商正在爲企業帶來英偉達NIM Agent Blueprints。

英偉達NIM 和 NIM Agent Blueprints 可通過 NVIDIA AI Enterprise 軟件平台獲得,該平台勢頭強勁。我們預計,到今年年底,我們的軟件、SaaS 和支持收入的年增長率將接近 20 億美元,其中 NVIDIA AI Enterprise 對增長的貢獻尤爲顯著。

再來看遊戲和AI PC,遊戲收入爲28.8 億美元,環比增長9%,同比增長16%。我們看到遊戲機、筆記本電腦和臺式機收入連續增長,需求強勁且不斷增長,渠道庫存保持健康。每一臺配備 RTX 的 PC 都是一臺人工智能 PC。RTX PC 可提供多達 1300 個人工智能頂部,目前領先的 PC 製造商已設計出 200 多款 RTX AI 筆記本電腦。憑藉 600款人工智能驅動的應用和遊戲以及 1 億台設備的安裝量,RTX 將通過生成式人工智能徹底改變消費者的體驗。

NVIDIA ACE 是一套生成式人工智能技術,可用於 RTX AI PC。Megabreak 是首款使用英偉達的遊戲,其中包括我們的小語言模型 Nemotron 4B,該模型在設備推理上進行了優化。英偉達遊戲生態系統不斷髮展壯大。最近新增的 RTX 和 DLSS 遊戲包括《奪寶奇兵》、《沙丘覺醒》和《龍騰世紀:面殺守衛》。GeForce NOW 資料庫不斷擴大,目錄總規模超過 2000 種,是所有云遊戲服務中內容最多的。轉向專業可視化,收入爲 4.54 億美元,環比增長 6%,同比增長 20%。人工智能和圖形用例(包括模型微調和 Omniverse 相關工作負載)推動了市場需求。

汽車和製造業是本季度推動增長的主要垂直行業之一,各公司都在競相實現工作流程的數字化,以提高整個運營的效率。全球最大的電子製造商富士康正在使用 NVIDIA Omniverse 爲生產 NVIDIA Blackwell 系統的物理工廠的數字孿生提供支持。包括梅賽德斯-奔馳在內的幾家大型全球性企業與 NVIDIA Omniverse Cloud 簽訂了多年期合同,以構建工廠的工業數字孿生。

我們發佈了新的英偉達USD NIM 和連接器,將 Omniverse 開放給新的行業,使開發人員能夠將生成式人工智能協同駕駛員和代理納入 USD 工作負載,加快我們構建高精度虛擬世界的能力。WPP 正在爲可口可樂公司等客戶在其生成式人工智能內容創建流水線中實施 USD NIM 微服務。轉向汽車和機器人技術,收入爲 3.46 億美元,環比增長 5%,同比增長 37%。

自動駕駛平台新客戶的增加,以及對人工智能駕駛艙解決方案需求的增長推動了該業務同比增長,在計算機視覺與模式識別大會的消費者分會上,英偉達在「自主品牌挑戰賽」的「端到端高檔駕駛 」分會場中勝出,在全球400多個參賽項目中脫穎而出。波士頓動力、比亞迪電子)、Figure、Intrinsyc、西門子和泰瑞達機器人正在將英偉達 Isaac 機器人平台用於自主機械臂、人形機器人和移動機器人。

現在,我們來看看損益表其他部分,GAAP 毛利率爲 75.1%,非 GAAP 毛利率爲 75.7%,環比下降的原因是數據中心的新產品組合增加,以及爲低收益的Blackwell材料計提了庫存撥備。GAAP 和非 GAAP 運營費用環比增長12%,主要反映了薪酬相關成本的增加。運營現金流爲145 億美元,第二季度,我們動用了74億美元的現金,以股票回購和現金分紅的形式回報股東,這反映了每股股息的增加。我們的董事會最近批准了500 億美元的股票回購授權,以補充第二季度末剩餘的 75 億美元授權。

請允許我談談第三季度的展望,總收入預計爲 325 億美元,上下浮動2%,我們的第三季度收入展望包括 Hopper 架構的持續增長和 Blackwell 產品的樣品,預計Blackwell的產量將在第四季度上升,GAAP 和非 GAAP 毛利率預計分別爲74.4%和75%,上下浮動50個點子。隨着我們的數據中心組合繼續向新產品轉移,預計這一趨勢將持續到 2025 財年第四季度,全年的毛利率預計在 70% 左右。

按照美國通用會計準則(GAAP)和非美國通用會計準則(Non-GAAP)計算的運營費用預計分別約爲43億美元和30億美元,由於我們致力於開發下一代產品,預計全年運營費用將增長40%左右。按照美國通用會計準則(GAAP)和非美國通用會計準則(Non-GAAP)計算的其他收入和支出預計約爲3.5 億美元,其中包括非關聯投資和公開持有的股權證券損益。美國通用會計準則(GAAP)和非美國通用會計準則(Non-GAAP)稅率預計爲17%,上下浮動1%,不包括任何單項項目。

Q&A環節

Q1 分析師Vivek Arya:感謝你回答我的問題,Jensen你在評論中提到,Blackwell GPU掩膜有所變化。我很好奇,在後端封裝或其他方面是否有其他增量變化?與此相關的是,你曾表示儘管設計有變化,但第四季度 Blackwell 的出貨量仍將達到數十億美元。是因爲到那時所有這些問題都會得到解決嗎?請幫助我們評估Blackwell時間安排上的任何變化會產生什麼整體影響,這對你們的收入狀況意味着什麼,以及客戶對此有何反應?

總裁兼首席執行官:Jensen Huang

好的謝謝,Blackwell的改動已經完成,沒有功能上的改變,我們正在對 Blackwell、Grace Blackwell 以及各種系統配置進行功能性採樣。在 Computex上展示的基 Blackwell 的系統大約有 100 種不同類型,我們正在讓我們的生態系統開始提供這些樣品。Blackwell的功能保持不變,我們預計將在第四季度開始生產。

Q2 高盛 Toshiya Hari:我有一個相對長期的問題。您可能知道,市場上對您的客戶和客戶的客戶的投資回報率,以及這對未來資本支出的可持續性意味着什麼,爭論得相當激烈。

在英偉達內部,你們在關注什麼?在衡量客戶回報以及客戶回報對資本支出的影響時,你們的儀表盤上有哪些內容?然後是科萊特的後續問題。我想文你們全年的主權AI可能會增加幾十億。是什麼推動了前景的改善,我們應該如何看待 26 財年?

總裁兼首席執行官:Jensen Huang

首先,當我說第四季度開始生產時,我指的是發貨,而不是開始發貨。關於更長遠的問題,讓我們退一步說。你們聽我說過,我們正在同時經歷兩個平台的轉型。

首先是從加速計算過渡到通用計算,從通用計算過渡到加速計算。究其原因,衆所周知CPU的擴展速度已經放緩了一段時間,而且已經慢到了爬行的地步。然而,計算需求量仍在大幅增長。甚至可以估計,每年都在翻番。

因此,如果我們不採取新的方法,計算膨脹將推高每家公司的成本,並將推高全球數據中心的能耗。事實上,你們已經看到了這一點,就是加速計算。

我們知道,加速計算當然可以加快應用速度。它還能讓你進行更大規模的計算,例如科學模擬或數據庫處理,但這直接帶來的是更低的成本和能耗。事實上,本週就有一篇博客介紹了我們提供的一系列新庫。而這正是第一個平台過渡的核心,從通用計算到加速計算,有人能節省 90% 的計算成本,這並不稀奇。當然,原因在於你剛剛將應用程序的運行速度提高了 50 倍。你會預期計算成本會大幅下降。

其次,加速計算之所以能夠實現,是因爲我們將訓練大型語言模型或訓練深度學習的成本降到了令人難以置信的地步,以至於現在有可能建立巨大規模的模型、數百萬參數的模型,並對其進行訓練,在全世界幾乎所有的知識語料庫上對其進行預訓練,然後讓模型去弄清楚如何理解人類語言表徵,如何將知識編碼到其神經網絡中,以及如何學習推理,從而引發了生成式人工智能革命。現在,我們回過頭來看看,爲什麼我們要如此深入地研究生成式人工智能,因爲它不僅僅是一種功能,也不僅僅是一種能力,這是一種全新的軟件開發方式。我們現在有了數據,而不是人類設計的算法。我們告訴人工智能,我們告訴模型,我們告訴計算機預期的答案是什麼。我們之前的觀察結果是什麼?

然後讓它找出算法是什麼,功能是什麼。它學習一個通用人工智能是一個通用函數近似器,它可以習函數。因此,你可以學習幾乎任何東西的功能,任何可預測的東西,任何有結構的東西,任何你以前有例子的東西,所以現在我們有了生成式人工智能。這是計算機科學的一種基本新形式。從 CPU 到 GPU,從人類設計的算法到機器學習的算法,它正在影響計算的每一層,而你現在可以開發和生產的應用類型從根本上來說是非常了不起的。

生成式人工智能正在發生幾件事情。首先,前沿模型的規模正在不斷擴大, 我們仍在看到擴展帶來的好處。每當你把一個模型的規模擴大一倍,你也必須把用於訓練它的數據集的規模擴大一倍以上。因此,創建模型所需的運算次數會呈四倍增長。因此,下一代模型所需的計算量可能是上一代的 10、20、40 倍,這並不出人意料。

因此,我們必須繼續大幅提高世代性能,這樣才能降低能耗,降低必要的成本。因此,首先是在更多模式下訓練的前沿模型更大。令人驚訝的是,前沿模型的製作者比去年更多了。因此,你會有越來越多、越來越多的機會。這就是生成式人工智能的動力之一。

其次,雖然這還只是冰山一角,但我們看到的是 ChatGPT 圖像生成器。我們看到的是編碼,在英偉達,我們將生成式人工智能廣泛用於編碼。當然,我們也有很多數字設計師和諸如此類的人員。但這些只是冰山一角。冰山之下的是當今世界上最大的系統、最大的計算系統,也就是你們過去聽我講過的,從中央處理器轉向的推薦系統。現在正從CPU 轉向生成式人工智能。

因此,推薦系統、廣告生成、定製廣告生成,以非常大的規模和相當高的定位、搜索和用戶生成的內容爲目標的廣告,這些都是非常大規模的應用,現在已經發展到生成式人工智能。當然,生成式人工智能初創企業的數量正在爲我們的雲合作伙伴帶來數百億美元的雲租賃機會。還有主權人工智能,一些國家現在意識到,他們的數據是他們的自然資源和國家資源,他們必須使用人工智能,建立自己的人工智能基礎設施,這樣他們就可以擁有自己的數字智能。正如科萊特之前提到的,企業人工智能正在起步,你可能已經看到我們宣佈全球領先的IT公司將加入我們的行列,將英偉達人工智能企業平台推向全球企業。

與我們交談過的公司中,有很多都對提高公司生產力感到無比興奮。然後是通用機器人技術。去年,隨着我們能夠通過觀看視頻和人類演示來學習物理人工智能,以及從 Omniverse 等系統的強化學習中生成合成數據,我們實現了重大轉變,現在我們能夠與幾乎所有機器人公司合作,開始思考和構建通用機器人技術。你可以看到,生成式人工智能正朝着許多不同的方向發展。

因此,我們實際上看到生成式人工智能的發展勢頭正在加速。

首席財務官、執行副總裁:Colette M. Kress

關於自如人工智能的問題,以及我們在增長和收入方面的目標,這當然是一個獨特的、不斷增長的機會,隨着生成式人工智能的出現,世界各國都希望擁有自己的生成式人工智能,能夠將自己的語言、自己的文化、自己的數據融入該國。因此,越來越多的人對這些模型以及它們能爲這些國家帶來什麼感到興奮,所以,我們看到了一些發展機遇。

Q3 摩根士丹利喬-摩爾:在新聞稿中,你談到Blackwell的預期令人難以置信,但似乎hopper的需求也非常強勁。如果沒有Blackwell,你們十月份也將迎來一個非常強勁的季度。那麼,你認爲兩者的強勁需求還能共存多久?你能談談向Blackwell的過渡嗎?你認爲人們會混合使用集群嗎?你認爲Blackwell的大部分活動是新的集群嗎?想了解一下過渡時期的情況。

總裁兼首席執行官Jensen Huang

好的謝謝,對hopper的需求真的很強烈沒錯,對Blackwell的需求也非常大。

這有幾個原因。第一個原因是,如果你看看全球的雲服務提供商,他們可用的 GPU 容量基本上是零。究其原因,是因爲它們要麼在內部部署,用於加速自己的工作負載,比如數據處理。數據處理,我們很少談論它,因爲它很平凡。

它並不酷,因爲它不會生成圖片或文字。但是世界上幾乎所有的公司都在後台處理數據。而英偉達的 GPU 是這個星球上唯一能處理和加速數據的加速器,SQL數據、Pandas數據、數據科學工具包(如Pandas工具包和新推出的Polar工具包)。

這些都是世界上最流行的數據處理平台,正如我之前提到的,除了CPU,NVIDIA的加速計算確實是提升CPU性能的唯一途徑。早在生成式人工智能出現之前,第一大用例就是將應用程序一個接一個地遷移到加速計算平台。

第二當然是租賃,他們把產能租給模型製造商。他們把能力租給初創公司。而一家人工智能公司則會將絕大部分投資資金投入到基礎設施建設中,以使用人工智能來幫助他們創造產品,因此這些公司現在就需要。他們只是根本負擔不起 -。你只是籌集資金。他們希望你現在就把錢用起來,你有必須要做的事情。

你不能明年再做,你必須今天就做,這是一個公平的原因。hopper需求強勁的第二個原因是,人們都在爭先恐後地向下一階段邁進。第一個到達下一個高原的人,就能引入革命性的人工智能。第二個達到目標的人也會逐步提高,或者與第一個人差不多。因此,有系統地、持續地向下一階段邁進,併成爲第一個到達那裏的人,這就是建立領導地位的方法。英偉達一直在這樣做,我們向世界展示了這一點,我們製造的 GPU、我們製造的人工智能工廠、網絡系統、SoC。

我的意思是我們要引領潮流,希望始終保持世界第一,這就是我們如此努力的原因。當然,我們也希望夢想成真,未來能力以及我們能爲社會帶來的益處,這些模型製造商也是如此。當然,他們想成爲世界上最好的。他們想成爲世界第一。雖然Blackwell將在今年年底開始出貨,金額達數十億美元,但產能的建立可能還需要數週或一個月左右的時間。因此從現在到那時,生成式人工智能市場將充滿活力。

每個人都非常着急,這要麼是他們需要它的操作原因。他們需要加速計算。他們不想再建立更多的通用計算基礎設施,甚至是 Hopper。當然H200 是最先進的。如果你要在現在爲企業構建 CPU 基礎設施和現在爲企業構建 Hopper 基礎設施之間做出選擇,那麼這個決定是相對明確的。我認爲,人們只是急於將已安裝的 1 萬億美元基礎設施轉化到現代基礎設施,而 Hopper 就是最先進的基礎設施。

Q4 TD Cowen分析師Matt Ramsay:我想回到之前的一個問題,即投資者對所有這些資本支出的投資回報率的爭論。你看到有多少人花了這麼多錢,希望推動AGI融合的前沿,正如你剛才說的,在能力上達到一個新的高度,他們會不惜一切代價達到這樣的能力水平,這爲行業和他們的公司打開了許多大門。

而現在的客戶則非常、非常關注資本支出和投資回報率。我不知道這樣區分是否有意義。我只是想了解一下,你是如何看待那些在這項新技術上投入資金的人的優先考慮事項,他們的優先考慮事項是什麼,他們的投資時間框架是什麼?

總裁兼首席執行官Jensen Huang:

投資英偉達基礎架構的用戶馬上就能獲得回報,這是目前投資回報率最高的基礎架構、計算基礎架構投資。因此,一種思考方式,可能是最簡單的思考方式,就是回到最初的原則。

你擁有價值 1 萬億美元的通用計算基礎設施,問題是,你還想不想建立更多這樣的基礎設施?每建立一個價值 10 億美元的通用CPU 的基礎設施,租用費用可能不到 10 億美元。因此,由於它的商品化,地面上已經有 1 萬億美元了,再多又有什麼意義呢?因此,那些吵着要獲得這種基礎設施的人,一是當他們建立起基於 Hopper 的基礎設施,很快就會建立起基於 Blackwell 的基礎設施時,他們就開始省錢了。

這就是巨大的投資回報。他們開始省錢的原因是數據處理省錢,而數據處理可能只是其中的一個重要部分。因此,推薦系統可以省錢,等等等等,這樣,你就開始省錢了。

第二件事是,你所建立的一切都會被租用,因爲有這麼多公司正在創建生成式人工智能。你的能力馬上就會被租用,投資回報率非常高。

第三個原因是你自己的業務。你是想自己創造下一個前沿領域,還是想讓自己的互聯網服務受益於下一代廣告系統、下一代推薦系統或下一代搜索系統?因此,對於你自己的服務、你自己的商店、你自己的用戶生成內容、社交媒體平台、你自己的服務,生成式人工智能也是一個快速的投資回報率。因此,你可以從很多方面來考慮這個問題。

但究其核心,是因爲它是目前可以投入使用的最佳計算基礎設施。通用計算的世界正在轉向加速計算。人類設計的軟件世界正在轉向生成式人工智能軟件。如果你要建立基礎設施來實現雲計算和數據中心的現代化,那就用英偉達的加速計算技術來建立吧,這是最好的辦法。

Q5 瑞銀Timothy Arcuri:非常感謝。我想問一下近期和長期的收入增長情況。我知道,你們今年確實增加了運營成本。如果我看一下你們採購承諾和供應義務的增加,這也是相當樂觀的。

另一方面,也有一些觀點認爲,似乎並沒有多少客戶真正準備好使用液冷,我也知道有些機架可以使用風冷。這是否是Blackwell 在發展過程中需要考慮的問題?然後,當你把目光投向明年以後,這顯然會是一個很好的年份,你會看到 26 年,你是否會擔心任何其他制約因素,比如說,電源供應鏈,或者在某些時候,機型開始變得越來越小?

總裁兼首席執行官Jensen Huang

我要倒着來。非常感謝你的提問請記住,世界正在從通用計算轉向加速計算,全球正在建設價值約 1 萬億美元的數據中心。

幾年後,價值 1 萬億美元的數據中心將全部採用加速計算。過去數據中心沒有GPU只有 CPU,未來每個數據中心都將配備 GPU。這樣做的原因很清楚:因爲我們需要加速工作負載,這樣我們才能繼續保持可持續發展,繼續降低計算成本,這樣當我們進行更多計算時,就不會出現計算膨脹。

其次,我們需要 GPU 來實現一種名爲「生成式人工智能」的新計算模式,我們都知道這將對未來的計算產生巨大的變革。因此我認爲,逆向思維的方式是,世界基礎設施的下一個 1 萬億美元將明顯不同於上一個1 萬億美元,它將大大加速。關於坡道的形狀,我們提供多種配置的Blackwell配置。Blackwell有經典Blackwell和HGX兩種,前者採用了我們在Volta上率先採用的HGX外形尺寸。

我認爲是Volta,我們的 HGX 外形已經出貨一段時間了,它是風冷式的。Grace Blackwell是液冷的,希望採用液冷技術的數據中心數量相當可觀。究其原因,是因爲我們可以在液冷數據中心,在任何數據中心 -- 限電數據中心,無論你選擇什麼規模的數據中心,都可以安裝和部署比過去高三到五倍的人工智能吞吐量。因此,液冷的成本更低。液冷技術使我們的總體擁有成本(TCO)更低,液冷技術還能讓你受益於我們稱之爲NVLink 的功能,它允許我們將其擴展到 72 個Grace Blackwell軟件包,基本上有144 個GPU。

想象一下,144 個GPU通過 NVLink 連接在一起。我們會越來越多地向你展示這樣做的好處。下一次點擊顯然是非常低的延遲、非常高的吞吐量的大型語言模型推理,而大型 NVLink 領域將改變遊戲規則。因此,我認爲人們在部署這兩款產品時會非常得心應手。

因此,幾乎所有與我們合作的 CSP 都在部署這兩種技術。因此我很有信心,我們會順利地提升產能。第二個問題是,展望未來,明年將是一個偉大的年份,我們預計明年的數據中心業務將大幅增長。

Blackwell 將徹底改變整個行業的遊戲規則,Blackwell將延續到下一年。正如我之前提到的,從第一原則倒推,請記住計算正在同時經歷兩個平台的轉型。這一點非常非常重要,你要保持頭腦清醒,集中注意力,即通用計算正在向加速計算轉變,而人類工程軟件將向生成式人工智能或人工智能學習軟件過渡。

Q6:伯恩斯坦Stacy Rasgon:我有兩個簡短的問題想問科萊特。第四季度,Blackwell收入有幾十億美元,這是否是新增的?你預計 Hopper 的需求在下半年會增加。這是否意味着在 Blackwell 增加幾十億美元的基礎上,Hopper第三季度到第四季度也會得到加強?

第二個問題是毛利率。如果今年的毛利率是75%左右,那麼第四季度毛利率就會在71%—72%之間。這是你預期的毛利率退出率嗎?隨着Blackwell的發展,我們應該如何看待明年毛利率的變化?我的意思是,我希望收益率和庫存儲備以及其他一切都能提高。

首席財務官、執行副總裁Colette M. Kress:

我們先來回答你關於 Hopper和Blackwell的問題。我們相信,Hopper 將在下半年繼續增長。我們爲 Hopper 開發了許多新產品,我們相信Hopper的現有產品將在接下來的幾個季度(包括第三季度)開始持續增長,這些新產品將進入第四季度。因此,可以說,Hopper 相對於上半年是一個增長的機會。此外,我們還有 Blackwell 項目,Blackwell 項目將於第四季度開始投入運營。所以,我希望這兩點對你有所幫助。

第二部分是毛利率,我們提供了第三季度的毛利率指引,我們提供的非美國通用會計準則毛利率約爲 75%。我們將處理好正在經歷的各種過渡,但我們相信第三季度可以達到75%,預計全年毛利率也將在 70% 左右。我們在第四季度可能會看到一些微小的差異,這同樣與我們的轉型和新產品推出的不同成本結構有關。

不過,我和你們的人數不一樣。我們沒有確切的指引,但我相信你的預期比我們低。

Q7:Melius Research分析師Ben Reitzes:我想問一下各地區的情況。在發佈的10-Q報告中,美國的業績連續下滑,而亞洲幾個地區則連續大幅增長。

只是想知道那裏的動態如何。顯然中國的表現非常好,你在發言中提到了這一點。有什麼影響?然後,鑑於所有這些有利的收入動態,這是否意味着第四季度公司整體收入的增長率會加快?

首席財務官、執行副總裁Colette M. Kress

請允許我談談我們在10-Q報告中的披露情況,這是在不同地區都需要披露的信息。有時,創建正確的披露非常具有挑戰性,因爲我們必須提出一個關鍵部分。我們的披露內容包括我們的銷售對象和/或具體的發票開具對象,因此你在這裏看到的是我們的發票開具對象。但這並不一定是產品的最終去向,也不一定是最終客戶。

在我們的產品組合中,大部分產品都在向我們的OEM 或 ODM 以及系統集成商。因此,你所看到的是,在這些產品進入數據中心、進入筆記本電腦和其他產品之前,他們在使用誰來完成全部配置方面,有時會發生迅速的轉變。這種轉變時有發生,既包括遊戲,也包括數據中心,還包括汽車。

回到你的發言,關於毛利率以及Hopper和Blackwell的收入情況,下半年Hopper 將繼續增長,我們將在目前的基礎上繼續增長。

我們現在還無法確定第三季度和第四季度的具體組合。就第四季度而言,我們還無法提供指引。但我們現在確實看到了需求預期,以及第四季度的增長機會。除此之外,我們還有Blackwell架構。

Q8:Cantor Fitzgerald分析師C. J. Muse:你們已經開始了令人矚目的年度產品節奏,鑑於先進封裝世界的複雜性不斷提高,你們面臨的挑戰可能會越來越多。

如果你退一步想,這種背景如何改變你對可能的更大縱向整合、供應鏈合作關係的想法,然後對你的利潤狀況產生相應的影響?

總裁兼首席執行官Jensen Huang

我想對你第一個問題的回答是,我們的速度之所以這麼快,同時也是因爲模型的複雜性在增加,我們希望繼續降低成本。

它正在成長,我們希望繼續擴大其規模。我們相信,通過繼續擴大人工智能模型的規模,我們將達到一個非凡的水平,並開啓並實現下一次工業革命。我們堅信這一點。因此,我們將全力以赴,繼續擴大規模。

我們有相當獨特的能力整合、設計一家人工智能工廠,我們擁有所有的零部件。除非你擁有所有部件,否則不可能每年都設計出新的人工智能工廠。因此,我們明年將出貨比公司歷史上更多的 CPU、更多的 GPU,當然還有 NVLink 交換機、CX DPU、東西部的 ConnectX、南北部的 BlueField DPU,以及用於超級計算中心的 InfiniBand 和以太網的數據和存儲處理。因此,事實上,我們可以構建--我們可以訪問所有這些,我們有一個架構堆棧,正如你所知道的,它允許我們在完成後向市場推出新的功能。

否則,就會出現這樣的情況:你運送這些部件,你去尋找客戶來銷售,然後你必須建立 -- 有人必須建立一個人工智能工廠,而人工智能工廠有堆積如山的軟件。因此,這與誰來整合無關。我們喜歡這樣一個事實,即我們的供應鏈被瓦解了,我們可以爲廣達、富士康、惠普、戴爾、聯想、超微提供服務。我們過去可以爲中興通訊提供服務。

他們最近被收購了,等等。因此,我們擁有大量的生態系統合作伙伴,技嘉,他們能夠採用我們的架構,我們的原始設計製造商和集成商以及集成供應鏈所需的規模和覆蓋範圍是巨大的,因爲世界是巨大的。因此,這部分工作我們不想做,也不擅長做。但我們知道如何設計人工智能基礎設施,提供客戶喜歡的方式,並讓生態系統將其整合。

Q9:富國銀行亞倫-瑞克斯:我想再談談Blackwell的產品週期。我們經常被問到的一個問題是,在考慮利用NVLink、GB NVL72以及Blackwell產品週期的上市動態中,你如何看待機架規模系統組合的動態。在我們開始考慮Blackwell週期進展,您如何看待機架規模系統的組合?

總裁兼首席執行官Jensen Huang

Blackwell機架系統的設計和架構是一個機架,但它是以分解的系統組件形式銷售的。我們不銷售整個機架。

究其原因,是因爲每個機架都不盡相同。有些是 OCP 標準,有些不是。有些是企業級的,因此每個人的功率限制都可能有些不同。CDU 的選擇、電源匯流排的選擇、配置以及與數據中心的集成都不盡相同。因此,我們在設計時,對整個機架進行了架構設計。軟件將在整個機架上完美運行。然後我們提供系統組件。

例如,CPU和GPU計算板就會集成到 MGX 中。這是一種模塊化系統架構。MGX 完全是獨創的。我們的工廠裏到處都有 MGX 的 ODM、集成商和 OEM。

因此,幾乎的任何配置都可以,只要您希望交付3000磅的機架。它必須在數據中心附近集成和組裝,因爲它相當重。因此,從我們交付 GPU、CPU、交換機、網卡的那一刻起,供應鏈上的一切工作都是在靠近 CSP 和數據中心的地方完成的。因此,你可以想象世界上有多少個數據中心,我們與 ODM 合作伙伴一起擴展到了多少個物流中心。

因此,我認爲由於我們將其顯示爲一個機架,而且總是以這種方式呈現和顯示,我們可能給客戶留下了我們正在進行集成的印象。我們的客戶討厭我們做集成,供應鏈討厭我們做集成,他們想做集成。

這就是他們的附加值。如果你願意的話,還有最後的設計融入。這並不像進入數據中心那麼簡單,但設計安裝確實很複雜。因此,設計、安裝、調試、維修和更換,整個週期在世界各地進行。

我們擁有一個龐大的ODM和OEM合作伙伴網絡,在這方面做得非常出色。因此,集成並不是我們做機架的原因。這是我們做機架的反面原因,我們不想成爲集成商,而是想成爲技術提供商。

Jensen Huang閉幕詞

謝謝,請允許我再發表幾條,我之前發表過的評論。全球的數據中心正在全力以赴,利用加速計算和生成式人工智能實現整個計算堆棧的現代化。對Hopper的需求依然強勁,對Blackwell的期待也令人難以置信。

請允許我重點介紹我們公司的五大亮點。加速計算已達到臨界點,CPU 擴展速度放緩。開發人員必須儘可能加速一切。

加速計算始於 CUDA-X 庫。新庫爲英偉達開闢了新市場。我們發佈了許多新的庫,包括 CUDA-X Accelerated Polars、Pandas 和 Spark,領先的數據科學和數據處理庫,用於矢量數據庫的 CUVI-S,這在當前是非常熱門的。

Ariel和用於5G 無線基站的一整套數據中心,我們現在都可以進入。用於基因測序的 Parabricks 和用於蛋白質結構預測的 AlphaFold2 現在都可以使用 CUDA 加速。我們正處於將價值 1 萬億美元的數據中心從通用計算現代化爲加速計算的起步階段。這是第一點

其次,與 Hopper 相比,Blackwell是一次功能上的飛躍。Blackwell是一個人工智能基礎平台,而不僅僅是 GPU。它也是我們 GPU 的名稱,但它是一個人工智能基礎架構平台。隨着我們向合作伙伴和客戶展示更多的 Blackwell 和示例系統,Blackwell 的領先程度將變得一目瞭然。

Blackwell的願景歷時近五年,通過七款獨一無二的芯片得以實現:Gray CPU、Blackwell 雙 GPU 和 colos 包、用於東西向流量的 ConnectX DPU、用於南北向和存儲流量的 BlueField DPU、用於所有 GPU 通信的 NVLink 交換機,以及用於 InfiniBand 和以太網的 Quantum 和 Spectrum-X,可以支持人工智能的海量流量。Blackwell AI 工廠是樓宇規模的計算機。英偉達設計並優化了Blackwell平台,從芯片、系統、網絡,甚至結構化電纜、電源和冷卻,以及大量軟件,實現了端到端的全堆棧,使客戶能夠快速構建人工智能工廠。

這些都是非常資本密集型的基礎設施,客戶希望在拿到設備後立即部署,並提供最佳性能和總體擁有成本。與 Hopper 相比,Blackwell 可在電力有限的數據中心內提供三到五倍的人工智能吞吐量。

第三個是 NVLink,這是一個非常大的交易,其改變了全GPU交換遊戲規則。Blackwell 系統可將 72 GB200 封裝的144 個 GPU 連接到一個 NVLink 域,一個機架的 NVLink 總帶寬爲每秒259TB。從這個角度來看,這比 Hopper高出約10 倍。每秒 259 TB 的帶寬是有道理的,因爲你需要在數萬億代幣上提升數百萬參數模型的訓練。因此,自然需要將大量數據從 GPU 轉移到 GPU。

在推理方面,NVLink 對於低延遲、高吞吐量的大型語言模型標記生成至關重要。我們現在有三個網絡平台:用於 GPU 擴展的 NVLink、用於超級計算和專用 AI 工廠的 Quantum InfiniBand 以及用於以太網 AI 的 Spectrum-X。英偉達的網絡足跡比以前大得多,生成式人工智能的發展勢頭正在加速。

生成式人工智能前沿模型製造商正競相向下一個人工智能高點擴展,以提高模型的安全性和智商。我們還在不斷擴展,以了解從文本、圖像和視頻到三維物理、化學和生物等更多模式。聊天機器人、編碼人工智能和圖像生成器發展迅速,但這只是冰山一角。互聯網服務正在爲大規模推薦器、廣告定位和搜索系統部署生成式人工智能。

人工智能初創企業每年消耗數百億美元的CSP雲容量,各國也認識到人工智能的重要性,紛紛投資主權人工智能基礎設施。英偉達人工智能(NVIDIA AI)、英偉達全功能(NVIDIA Omniverse)正在開啓下一個人工智能時代,即通用機器人時代。現在,企業人工智能浪潮已經開始,我們已經準備好幫助企業實現業務轉型。NVIDIA AI 企業平台由 Nemo、NIMs、NIM Agent Blueprints 和 AI Foundry 組成,我們的生態系統合作伙伴、全球領先的 IT 公司利用這些平台幫助企業定製 AI 模型並構建定製的 AI 應用程序。

然後,企業就可以在英偉達AI 企業版的運行時間上進行部署,英偉達AI 企業版每塊 GPU 每年的價格爲 4500 美元,對於在任何地方部署 AI 來說都是非常超值的。對於英偉達軟件來說,隨着兼容CUDA的GPU裝機量從數百萬增長到數千萬,TAM的價值也將非常可觀。正如科萊特提到的,英偉達軟件今年的銷售額將達到20億美元,感謝大家參加今天的會議。

声明:本內容僅用作提供資訊及教育之目的,不構成對任何特定投資或投資策略的推薦或認可。 更多信息
    搶先評論