个人中心
登出
中文简体
返回
登录后咨询在线客服
回到顶部

NVIDIA宣布Blackwell服务器开始运营,驳斥延迟传闻,并透露了许多技术创新

2024/8/24(全文转载)这句话很长 👇
英伟达宣布下一代人工智能平台布莱克威尔开始运营,我驳斥了关于延迟的传闻。在2024年Hot Chips会议之前,该公司披露了Blackwell服务器的安装和配置状况,还澄清了将塑造人工智能和高性能计算未来的先进技术的细节,例如创新的液体冷却技术和新的量化系统。
Nvidia 的 BlackWell:开启人工智能新时代的综合平台
英伟达的BlackWell被设计为一个全面的生态系统,它超越了简单GPU的界限。戴夫·萨尔瓦托(NVIDIA加速计算产品部主管)表示:“NVIDIA Blackwell是一个平台,而GPU仅仅是个开始”,这表明了布莱克韦尔的总体情况。
Blackwell平台是一个由多个NVIDIA芯片组成的全面解决方案。通过与Blackwell GPU、GraceCPU、BlueFieldDPU、ConnextX网络接口卡、NVLink交换机、SpectrumeEthernet交换机、QuantuminFiband交换机等每个组件的密切合作,可以推断和加速计算大规模语言模型(LLM)。
构成布莱克韦尔核心的GPU是一个巨大的芯片,采用台积电的4NP工艺,拥有2080亿个晶体管。它具有 20 petaflops 的 FP4 AI 性能、8 TB/s 的内存带宽和 8 站点 HBM3e 内存,并提供 1.8 Tb/s 的双向 NVLINK 带宽。这些规格表明在 AI 工作负载下具有压倒性的性能。
值得注意的是,NVIDIA认为,与传统的H100 GPU相比,布莱克韦尔有能力实时使用1万亿个参数执行LLM,并且成本和功耗可以降低到1/25。这种显著的性能改进有可能极大地扩大人工智能的应用范围。
英伟达还增强了NVLink交换机,以进一步发挥布莱克韦尔的功能。新的 NVLink 交换机将光纤带宽翻了一番,达到 1.8 TB/s,并在 GB200 NVL72 机架中最多支持 72 个 GPU。这款 800 mm² 芯片通过 72 个端口提供 7.2 Tb/s 的双向带宽,并具有 3.6 TFLOPS 的网络内计算能力。这种增强的互连可以有效地连接多个 GPU,从而可以处理更大、更复杂的人工智能模型。
冷却技术的创新也是Blackwell平台的一个重要特征。阿里·海达里(NVIDIA数据中心冷却和基础设施部门主管)计划介绍一种热水直接冷却芯片的方法。该技术有可能将数据中心的功耗降低多达28%。直接使用热水而不使用传统的冷却器,可以大大提高能源效率。可以说这是NVIDIA针对与快速增加的人工智能工作负载相关的电力需求问题的创新解决方案。
此外,英伟达还宣布了新的类星体量化系统。该软件使用Blackwell的变压器引擎即使是低精度模型也能实现高精度。借助 FP4(4 位浮点精度)技术,可以提高性能和精度,同时减少模型内存使用量。NVIDIA已经发布了使用FP4的稳定扩散模型生成的图像,其质量与FP16模型相当。这项技术有可能极大地提高人工智能模型的效率和实用性。
NVIDIA 也在努力利用人工智能来改善芯片设计流程。Mark Ren(NVIDIA的设计/自动化部门主管)计划展示一个支持问题解答、代码生成和调试设计问题的人工智能模型。特别值得注意的是LLM,它加速了Nvidia开发的Verilog代码的生成。这种人工智能将为拥有208亿个晶体管的布莱克韦尔B200 GPU的设计做出贡献,还将用于开发下一代鲁宾显卡。这创造了一个有趣的循环,人工智能加速了自身的发展。
Nvidia的Blackwell平台可以说是创新技术的结晶,这些技术将塑造人工智能和高性能计算的未来。在2024年的Hot Chips会议上,将披露有关Blackwell架构、生成式人工智能在计算机辅助设计中的使用以及液体冷却技术的更多详细信息。此外,英伟达已经表示计划在2025年发布BlackWell Ultra,在2026年发布Vera CPU和Rubin GPU,在2027年发布Vera Ultra,这表明了对持续技术创新的坚定承诺。
这一系列公告巩固了NVIDIA在人工智能和高性能计算领域的领先地位,预计将对科技行业的未来趋势产生重大影响。
免责声明:社区由Moomoo Technologies Inc.提供,仅用于教育目的。 更多信息
1
22
1
1
+0
2
原文
举报
浏览 1.6万
评论
登录发表评论
フォローしてくださっても、私からフォローすることはありません😪 チャットもお断りしています😪
2953粉丝
2关注
2.5万来访
关注