个人中心
登出
中文简体
返回
登录后咨询在线客服
回到顶部
“AI风向标”GTC大会来了:英伟达或有望冲击1000大关?
浏览 94.8万 内容 382

What You Should Know About the 'World's Most Powerful AI Chip' That Nvidia Unveiled at GTC

avatar
Analysts Notebook 参与了话题 · 03/19 07:00
$英伟达 (NVDA.US)$的H100人工智能芯片推动公司价值达到了数万亿美元,并有望超越像这样的巨头。 $谷歌-A (GOOGL.US)$ $亚马逊 (AMZN.US)$在竞争对手争分夺秒之际, 英伟达可能通过推出先进的Blackwell B200 GPU和强大的GB200“超级芯片”进一步巩固其主导地位。
“Hopper太棒了,但我们需要更大的GPU,”英伟达CEO黄仁勋周一在公司在加利福尼亚举办的开发者大会上表示。
新的GB200超级芯片
英伟达的新B200 GPU拥有高达20千亿次FP4性能,2080亿个晶体管,而 GB200“超级芯片”配备两个B200 GPU和一个Grace CPU,可在大型语言模型(LLM)推理工作负载中比以往模型提供的性能高出30倍。,而且效率显著提高, 比H100节省成本和能源高达25倍。 对于训练具有1.8万亿参数的人工智能模型来说,曾经需要8000个Hopper GPU消耗15兆瓦电力,现在只需要2000个Blackwell GPU,只消耗4兆瓦电力。 GB200在GPt-3 LLm基准测试中提供的性能是之前的7倍,训练速度是之前的4倍,拥有1750亿个参数。 英伟达还强调,其新技术显著减少了在GPU间通信上的时间,提高了实际计算能力。
这是GB200的外观:两个GPU,一个cpu芯片-云计算和一个主板;来源:英伟达
这是GB200的外观:两个GPU,一个cpu芯片-云计算和一个主板;来源:英伟达
英伟达旨在批量购买这些GPU,并推出了像GB200 NVL72这样的大规模配置,它将36个cpu芯片-云计算和72个GPU集成到一个液冷机柜中,提供高达720 petaflops的AI训练或1.4 exaflops(1440 petaflops)的推理能力。这个机柜里充满了近两英里长的电缆和5000根单独的电缆,可以支持高达27万亿参数的模型。包括亚马逊、谷歌在内的主要云服务提供商 $微软 (MSFT.US)$,和 $甲骨文 (ORCL.US)$他们计划在其产品中包括这些NVL72机架,尽管他们购买的确切数量尚未确定。
分析师观点
英伟达正在用其最新的AI超级计算机DGX SuperPOD推动人工智能的前沿,配备GB200 Grace Blackwell超级芯片。这款AI超级计算机拥有惊人的11.5艾克斯每秒的FP4精度计算能力,并采用先进的液冷架构,展示了英伟达对高性能、节能的人工智能解决方案的承诺。 英伟达致力于提供高性能、节能的人工智能解决方案。 SuperPOD将通过能够处理具有数万亿参数的模型来彻底改变人工智能,重新定义人工智能研究与开发。作为基础技术的提供商,英伟达的DGX SuperPOD将公司定位为人工智能创新中的关键参与者和人工智能训练领域的领导者,尽管面临日益激烈的竞争。
随着DGX SuperPOD的推出, 英伟达强化了其战略,以满足对复杂AI模型不断增长的需求,保持其作为高性能计算领域顶尖供应商的地位。
尽管英伟达尚未公布新推出的GB200或集成该芯片的系统的定价,汇丰银行预计FY26年将有35,000个机架,营业收入潜力为397亿美元。
在FY25年,GB200平台将从GH200人工智能平台转移关注点,将内部的格雷斯·霍珀(Grace Hopper)基于Arm架构的CPU与两个B200人工智能gpu芯片集成, 提供一种更具成本效益的选择,其平均销售价格(ASP)比以前的H100人工智能平台更高。 该新配置不仅降低了整体芯片成本,还为客户提供了更大的灵活性,从每个模块需要八个gpu芯片降至GB200只需要两个。 英伟达的策略也可能包括向基于机架的平台迈进,可能会为每个机架带来可观的营业收入,从而导致来自GB200平台的总营业收入大幅增加。 敏感性分析表明,人工智能机架增加可能导致FY26销售和收益增加4%至11%,估值范围更高,考虑到目标市盈率(PER)为30倍。
英伟达人工智能路线图;来源:汇丰银行
英伟达人工智能路线图;来源:汇丰银行
英伟达推出了NIM(Nvidia Inference Microservice)服务,加入企业软件订阅服务中。
Nvidia推出了NIM(Nvidia Inference Microservice)服务,加入其企业软件订阅系列。 旨在简化现有Nvidia GPU的使用,用于推理任务-使用AI软件,与训练新AI模型相比,计算需求更少。 该服务使组织能够利用他们已经拥有的大量Nvidia GPU来运行自己的AI模型,为他们提供一个选择,而不是从OpenAI等公司购买AI结果作为服务。
该公司的策略是鼓励使用基于Nvidia的服务器的客户以每GPU年均价4500美元订阅Nvidia企业。 Nvidia计划与Microsoft和Hugging Face等AI公司合作,优化Nvidia芯片的AI模型,确保兼容硬件的流畅运行。有了NIm,开发人员可以更有效地在本地服务器或Nvidia的云服务器上部署这些模型,避开复杂的设置程序。根据Nvidia的说法,该软件还将促进配备GPU的笔记本电脑上的AI应用,提供了一种不依赖云服务器的替代方案。
信息来源:The Verge,Nvidia,HSBC,CNBC,Forbes,Tech Crunch
免责声明:此内容由Moomoo Technologies Inc.提供,仅用于信息交流和教育目的。 更多信息
55
1
4
1
+0
1
原文
举报
浏览 23.8万
评论
登录发表评论