share_log

马斯克启动“全球最强AI集群”:集成10万个英伟达H100 GPU!

馬斯克啓動“全球最強AI集群”:集成10萬個英偉達H100 GPU!

芯智訊 ·  07/22 22:02

7月23日消息,特斯拉、“X”、xAI CEO 埃隆·馬斯克 (Elon Musk)近日在“X”平台上宣佈,自己已經啓動了“世界上最強大的 AI 集群”,以在今年12 月之前創建“世界上最強大的AI”——該系統在單個結構上將集成10萬個英偉達(Nvidia)H100 GPU。

馬斯克表示,當地時間凌晨4:20左右開始,在xAI團隊、X團隊、Nvidia和支持公司的努力下,其孟菲斯超級計算工廠“Supercluster”開始正常運行——它在一個RDMA結構上有10萬個液冷H100,是世界上最強大的人工智能訓練集群!

今年 5 月,馬斯克曾表示在 2025 年秋季之前開設超級計算工廠,當時,馬斯克匆匆忙忙地開始了Supercluster的工作,需要購買英偉達“Hopper”H100 GPU。這似乎表明,當時這位科技大亨沒有耐心等待 H200 芯片推出,更不用說即將推出的基於 Blackwell 的 B100 和 B200 GPU。儘管預計較新的 Nvidia Blackwell 數據中心 GPU 將在 2024 年底之前發貨。

那麼,根據最新的消息來看,原本計劃在2025年秋季開業的超級計算工廠,現在有望提前近一年的時間實現了。但目前下結論還爲時尚早。但今年早些時候,路透社和The Information交談的消息人士似乎更有可能在項目時間上說錯了時間節點。此外,隨着 xAI Supercluster的啓動和運行,關於爲什麼 xAI 沒有等待更強大或下一代 英偉達GPU 的問題也得到了解答。

Supermicro 爲 xAI 提供了大部分硬件,該公司的首席執行官 Charles Liang 也對馬斯克的帖子發表了評論稱,“與馬斯克的孟菲斯團隊合作真是太棒了!爲了實現目標,我們的執行必須儘可能完美、儘可能快、儘可能高效、儘可能環保——大量的艱苦工作。”

在隨後的推文中,馬斯克解釋說,新的Supercluster”將“從各個方面訓練世界上最強大的人工智能”。從之前的意向聲明來看,xAI 的 100,000 個 H100 GPU 安裝功能現在將針對 Grok 3 模型進行訓練。馬斯克表示,改進後的LLM應該在“今年12月之前”完成訓練階段。

從規模上看,新的xAI的Supercluster在GPU算力上將會超越目前最強的超級計算機,比如Frontier(37,888個AMD GPU),Aurora(60,000個Intel GPU)和Microsoft Eagle(14,400個Nvidia H100 GPU)。

編輯:芯智訊-浪客劍

声明:本內容僅用作提供資訊及教育之目的,不構成對任何特定投資或投資策略的推薦或認可。 更多信息
    搶先評論