中文繁體
返回
下載
登入後諮詢在線客服
回到頂部

NVIDIA 宣布開始運行布萊克威爾服務器,拒絕延遲的謠言,並揭露了許多技術創新

2024/8/24(全文轉載)這是一句很長的句子 👇
英維亞宣布開始運營下一代人工智能平台布萊克威爾,我拒絕了有關延遲的謠言。在 Hot Chips 2024 會議前,該公司揭露了 Blackwell 服務器的安裝和配置狀況,並澄清了將塑造 AI 和高性能計算未來的先進技術的細節,例如創新的液體冷卻技術和新的量化系統。
英維亞的 BlackWell:開啟人工智能新時代的綜合平台
Nvidia 的 BlackWell 被設計為一個超越簡單 GPU 的界限的綜合生態系統。NVIDIA 加速運算產品部總監戴夫·薩爾瓦托(Dave Salvator)表示,「NVIDIA 布萊克威爾是一個平台,GPU 只是開始」,表明了布萊克威爾的整體形象。
布萊克威爾平台是由多個 NVIDIA 芯片組成的綜合解決方案。通過與每個元件緊密合作,例如 Blackwell GPU,GraceCPU,BlueFieldDPU,ConnextX 網絡接口卡,NVLink 交換器,頻譜乙太網交換器,量子光頻交換器等,可以推論和加速計算大型語言模型(LLM)。
構成布萊克威爾核心的 GPU 是一個巨大的芯片,其中有 208 億晶體管採用台積公司的 4NP 過程。它具有 20 個 PB 的 FP4 AI 效能、8 TB/s 的記憶體頻寬和 8 個站台 HBM3e 記憶體,並提供 1.8 TB/s 雙向 NVLINK 頻寬。這些規格表明對於 AI 工作負載的強大效能。
值得注意的是 NVIDIA 認為,與傳統的 H100 GPU 相比,Blackwell 具有實時執行具有 1 萬億參數的 LLM 的能力,並且成本和功耗可以降低到 1/25。這種顯著的性能改進有潛力大幅擴大 AI 的應用範圍。
Nvidia 還增強了 NVLink 交換器,以進一步發揮布萊克威爾的功能。全新的 NVLink 交換器將網狀架構頻寬增加到 1.8 TB/s,並支援最多 72 個 GB200 NVL72 機架的 GPU。這款 800 毫米平方米模具可透過 72 個連接埠提供 7.2 TB/s 雙向頻寬,並具有 3.6 TFLOPS 網路內運算能力。這種增強的互連有效率地連接多個 GPU,使得可以處理更大且更複雜的 AI 模型。
冷卻技術的創新也是布萊克威爾平台的重要特點。阿里·海達里(NVIDIA 的數據中心冷卻和基礎設施部門總監)計劃展示熱水直接芯片冷卻方法。這項技術可以降低資料中心耗電量高達 28% 的潛力。直接使用熱水而不使用傳統冷卻器,可以大大提高能源效率。這可以說是 NVIDIA 的創新解決方案,可以解決與快速增加的 AI 工作負載相關的需求問題。
此外,Nvidia 宣布了一個新的準星量化系統。該軟件使用 Blackwell 的變壓器引擎即使在低精度模型中也可以實現高精度。使用 FP4(4 位浮點準確度)技術,可以提高性能和準確度,同時減少模型記憶體使用量。NVIDIA 發布使用 FP4 的穩定擴散模型產生的圖像,顯示與 FP16 模型相似的質量。該技術具有大大提高 AI 模型的效率和實用性的潛力。
NVIDIA 還正在努力通過利用 AI 來改善芯片設計過程。Mark Ren(NVIDIA 的設計/自動化部門總監)正計劃展示一種支持問題回答,代碼生成和調試設計問題的 AI 模型。特別值得注意的是 LLM,它加速了 Nvidia 開發的 Verilog 代碼的生成。這個 AI 將為布萊克威爾 B200 GPU 的設計做出貢獻,該 GPU 具有 20 億個電晶體管,也將用於下一代魯賓 GPU 的開發。這創造了一個有趣的循環,人工智能加速自己的進化。
可以說 Nvidia 的 Blackwell 平台是創新技術的峰值,這些技術將塑造 AI 和高性能運算的未來。在 Hot Chips 2024 會議上,將披露有關 Blackwell 架構的詳細信息,生成人工智能在計算機輔助設計中的使用和液體冷卻技術的詳細信息。此外,NVIDIA 已表明計劃於 2025 年宣布黑威爾超級產品,2026 年的維拉 CPU 和魯賓 GPU,並在 2027 年推出維拉超級,表明對持續技術創新的堅定承諾。
這一系列公告加強了 NVIDIA 在人工智能和高性能運算領域的領先地位,並預計將對未來技術行業的趨勢產生重大影響。
免責聲明:社區由Moomoo Technologies Inc.提供,僅用於教育目的。 更多信息
1
23
1
1
+0
2
原文
舉報
瀏覽 1.7萬
評論
登錄發表評論
フォローしてくださっても、私からフォローすることはありません😪 チャットもお断りしています😪
3321粉絲
2關注
3.1萬來訪
關注