SMCI是服务器!而且是英伟达的良好合作伙伴!Supermicro推出了行业首款搭载NVIDIA HGX H100 8和4-GPU H100服务器带液冷技术—将数据中心功耗降低高达40%。
采用液冷技术的大规模人工智能训练基础设施,作为一体式整体机架解决方案交付,加速部署,提高性能,降低对环境的总成本SYS-821GE-TNHR – (双第四代英特尔至强可扩展CPU,英伟达HGX H100 8 GPU,8U)
https://www.supermicro.com/en/products/system/GPU/8U/SYS-821GE-TNHRAS-8125GS-TNHR – (双第四代AMD EPYC CPU,英伟达HGX H100 8 GPU,8U)
https://www.supermicro.com/en/products/system/GPU/8U/AS-8125GS-TNHRSYS-421GU-TNXR - (双第四代英特尔至强可扩展CPU,英伟达HGX H100 4 GPU,4U)
https://www.supermicro.com/en/products/system/GPU/4U/SYS-421GU-TNXRSYS-521GU-TNXR - (双第四代英特尔至强可扩展CPU,英伟达HGX H100 4 GPU,5U)
https://www.supermicro.com/en/products/system/GPU/4U/SYS-521GU-TNXR
https://www.supermicro.com/en/products/system/GPU/8U/SYS-821GE-TNHRAS-8125GS-TNHR – (双第四代AMD EPYC CPU,英伟达HGX H100 8 GPU,8U)
https://www.supermicro.com/en/products/system/GPU/8U/AS-8125GS-TNHRSYS-421GU-TNXR - (双第四代英特尔至强可扩展CPU,英伟达HGX H100 4 GPU,4U)
https://www.supermicro.com/en/products/system/GPU/4U/SYS-421GU-TNXRSYS-521GU-TNXR - (双第四代英特尔至强可扩展CPU,英伟达HGX H100 4 GPU,5U)
https://www.supermicro.com/en/products/system/GPU/4U/SYS-521GU-TNXR
加州圣何塞,德国汉堡---2023年5月21日-- 超微电脑公司 (纳斯达克: SMCI)作为一家全面的云计算、AI/ML、存储和5G/边缘解决方案提供商,超微继续扩展其数据中心产品线,推出采用特斯拉英伟达HGX H100机架规模解决方案的液冷技术。完全来自超微的先进液冷技术不仅缩短了完整安装的领先时间,还提高了性能,降低了营业费用,显著降低了数据中心的PUE值。相比于空调数据中心,使用超微液冷方案可节省数据中心电力成本高达40%。此外,与现有数据中心相比,直接冷却成本可降低高达86%。
超微继续领导着支持全球AI工作负载和现代数据中心不断增长需求的行业,"超微电脑公司总裁兼首席执行官Charles Liang表示。"我们创新的GPU服务器采用我们的液冷技术,显著降低了数据中心的电力需求。随着启用当今快速发展的大规模AI模型所需的电力量,优化TCO和TCE对数据中心运营商至关重要。我们在设计和构建高性能服务器整架的专业经验已得到证明。这些GPU系统从头开始设计,用于机架规模集成,配备液冷技术可提供卓越性能、效率和部署便捷性,让我们能在短时间内满足客户需求。
了解更多关于超微GPU服务器的信息,请访问:
https://www.supermicro.com/en/products/gpu
https://www.supermicro.com/en/products/gpu
最新的超微产品系列包括英特尔和AMD服务器产品线,可根据用户的独特需求,从标准工程模板快速交付或进行定制。超微继续提供行业最广泛的产品线,包括性能最高的服务器和存储系统,以应对复杂的计算密集型项目。机架规模集成解决方案让客户有信心和能力插入机架,连接到网络,并比自己管理技术更快地变得更具生产力。
顶级液冷GPU服务器配备双英特尔或AMD CPU,以及八或四个相互连接的英伟达HGX H100 Tensor Core GPU。使用液冷技术可将数据中心的功耗降低多达40%,从而降低营业费用。此外,这两种系统明显超越了先前一代配备英伟达HGX GPU系统,提供了高达30倍性能和效率,在当今大型变压器模型中,GPU-GPU互连速度更快,采用了基于PCIe 5.0的网络和存储。
超微提供的最先进的八块NVIDIA H100 SXM5 Tensor Core GPU服务器,适用于当今规模最大的人工智能模型包括:
超微还设计了一系列GPU服务器,可定制快速人工智能训练、大容量人工智能推理,或人工智能融合的高性能计算工作负载,包括配备四块NVIDIA H100 SXM5 Tensor Core GPU的系统。
超微的液冷机架级解决方案包括冷却液分配单元(CDU),可为当今最高TDP的CPU和GPU提供高达80kW的直接到芯片(D2C)冷却,适用于各种超微服务器。冗余和可热插拔的电源以及液冷泵确保即使出现电源或泵故障,服务器仍将持续冷却。防漏接头为客户提供了对所有系统无间断液冷的额外信心。了解更多关于超微液冷系统的信息:
https://www.supermicro.com/en/solutions/liquid-cooling
https://www.supermicro.com/en/solutions/liquid-cooling
机架规模的设计和集成已成为供应商的关键服务。随着人工智能和高性能计算在组织内变得日益重要,从服务器级到整个数据中心的配置必须进行优化,并针对最大性能进行配置。超微的系统和机架专家与客户密切合作,探讨要求,并拥有知识和制造能力,能够向全球客户交付大量机架。
阅读超微大规模人工智能解决方案简介-
https://www.supermicro.com/solutions/Solution-Brief_Rack_Scale_AI.pdf
https://www.supermicro.com/solutions/Solution-Brief_Rack_Scale_AI.pdf
免责声明:社区由Moomoo Technologies Inc.提供,仅用于教育目的。
更多信息
评论
登录发表评论