个人中心
登出
中文简体
返回
登录后咨询在线客服
回到顶部

谁赢了 AMD 和 NVIDIA 之间的 AI 半导体对抗赛?

avatar
moomooニュース米国株 发表了文章 · 2023/11/14 00:53
本文的某些部分使用自动翻译
谁赢了 AMD 和 NVIDIA 之间的 AI 半导体对抗赛?
$英伟达(NVDA.US)$宣布推出下一代人工智能超级计算机芯片,该芯片很可能在深度学习和 OpenAI 的 GPT-4 等大规模语言模型 (LLM) 的未来突破中发挥重要作用。
关键产品是基于英伟达 “Hopper” 架构的HGX H200 GPU,它是广受欢迎的H100 GPU的继任者。这是该公司首款使用更快、更大容量的 Hbm3e 内存的芯片,非常适合大型语言模型它已经变成了。
该公司表示:“借助Hbm3e,NVIDIA H200以每秒4.8太字节的速度实现了141 GB的内存,与其前身NVIDIA A100相比,其容量和带宽几乎是其前身NVIDIA A100的两倍。”
人工智能性能
根据英伟达的说法,作为人工智能的优势,HGX H200 是 Llama 2,这是一款拥有 700 亿个参数的 LLM推理速度提高了 H100 的 2 倍让我来做吧。HGX H200 提供与 H100 系统软件和硬件兼容的四向和八向配置。此外,据说它可以用于所有类型的数据中心(本地、云、混合云、边缘),例如亚马逊网络服务、谷歌云、微软 Azure 和 Oracle 云基础设施。该服务计划于2024年第二季度开始。
GH200 Grace Hopper
英伟达的另一款关键产品是 GH200 Grace Hopper “超级芯片”,它使用该公司的NVLink-C2c互连将HGX H200 GPU和基于ARM的Nvidia Grace CPU结合在一起。
它是为超级计算机设计的,NVIDIA表示:“科学家和研究人员将能够通过加快执行太字节数据的复杂人工智能和高性能计算应用程序来解决世界上最困难的问题。”该公司表示,GH200 将用于 “来自全球研究中心、系统制造商和云提供商的40多台人工智能超级计算机”,例如戴尔、Eviden、惠普企业(HPE)、联想、QCT和Supermicro。
其中,值得注意的是,使用四核 GH200 的慧与的 Cray EX2500 超级计算机可以扩展成千上万个 Grace Hopper Superchip 节点。
AMD Instinct MI300X
谁赢了 AMD 和 NVIDIA 之间的 AI 半导体对抗赛?
十二月 6, $美国超微公司(AMD.US)$“采用人工智能”它被保存并代号为“MI300”下一代Instinct加速器系列的完整故事将揭晓。AMD Instinct MI300X 显然以人工智能领域的 NVIDIA Hopper 和英特尔的 GAUDI 加速器为目标,因此最受关注的绝对是芯片。
AMD 为 MI300X 和 MI300A 加速器采用了芯片组设计, $台积电(TSM.US)$通过利用先进的封装技术,它可以与单片H100和H200 Hopper AI GPU竞争。AMD 的新款 Instinct MI300X 结合了 5 纳米和 6 纳米 IP,其特点是 1530 亿个晶体管的巨大规模。
内存是可以显著提高性能的部分,而 MI300X 比之前的型号 MI250X(128GB)高出 50%容量为 192 GB 的 HBM3它配备了。为了实现 192 GB 的内存池,AMD 为 MI300X 配备了 8 个 HBM3 堆栈,每个堆栈都是 12-Hi,并内置 16 GB 的 IC。
谁赢了 AMD 和 NVIDIA 之间的 AI 半导体对抗赛?
这个192 GB 的 HBM3 内存提供的最大带宽为 5.2 Tb/s,无限结构带宽为 896 Gb/s。相比之下, $英伟达(NVDA.US)$最近发布的人工智能加速器 H200 是什么141GB它提供的容量为 $英特尔(INTC.US)$Gaudi 3 是怎么写的144 GB提供的容量为。大容量内存池在 LLM 中极为重要,大多数内存池都与内存绑定,AMD 绝对可以通过在内存领域处于领先地位来展示人工智能的力量。
谁赢了 AMD 和 NVIDIA 之间的 AI 半导体对抗赛?
本文的某些部分使用自动翻译
来源:每家公司的官方网站,彭博社、Engadget、Wccftech、Tweaktown、CNBC
moomoo 新闻-Zeber
免责声明:此内容由Moomoo Technologies Inc.提供,仅用于信息交流和教育目的。 更多信息
54
5
+0
1
原文
举报
浏览 3.2万
评论
登录发表评论
avatar
moomoo资讯官方账号
2.8万粉丝
2关注
6.2万来访
关注