💡Cerebras Systems计划通过创新的ai芯片进行80亿美元规模的IPO $CBRS
Cerebras Systems Inc.于2024年10月1日向美国证券交易委员会(SEC)申请了IPO(首次公开募股)。凭借晶圆尺度的巨大AI芯片作为武器,公司旨在实现高达80亿美元的估值。计划在纳斯达克上市,股票代码为$CBRS。
1️⃣ Cerebras的创新技术: WSE-3
Cerebras的主力产品是一款名为WSE-3(Wafer Scale Engine 3)的巨大AI芯片,该芯片利用了整个硅片,是单一的。
其规格令人惊叹:
- 晶体管数:4万亿
- 核心数量:约90万
- 单片内存:44GB SRAM
与市售最大的GPU相比,WSE-3在核心数量上约为其50倍,在内存容量上约为其880倍,具有令人震撼的性能参数。WSE-3由TSMC的5nm工艺制造,相较于其前身WSE-2(7nm工艺),实现了显著的性能提升。
值得一提的是,即使是目前最大的AI模型,也能放入单一芯片中。这使得无需模型并行或张量并行等复杂分布式处理,就能实现高效的AI训练。
2️⃣ 集群结构和可扩展性
Cerebras提供搭载WSE-3的计算设备CS-3。这款迷你冰箱大小的系统可配置最多2,048个台构成集群。这比之前的CS-2模型的192台大幅扩展。
构成集群核心的是Memory X和Swarm X两个组件:
- Memory X: 配备大容量DRAM,保存整个模型的Weight信息
- Swarm X: 进行高效的Weight信息分发和梯度信息聚合的开关
这种架构实现了随着集群规模扩大而呈线性性能提升。这是因为可以大幅减少GPU集群中常见的通信开销问题。
3️⃣ AI训练的新“性能”因子
Cerebras在AI训练中重新定义了“性能”,不仅包括简单的计算速度,还包括以下因素:
- 纯粹的计算能力:例如,将Llama模型的训练时间从GPU集群的1个月缩短到1天
- 可编程性: 适用于单台机器的代码也可以在2,048台集群上运行
- 缩短开发周期: 从模型开发到培训完成的综合时间
根据这个新的“性能”定义,Cerebras系统展示了与传统GPU集群相比,高达35倍以上的效率,例如,阿联酋的G42公司使用了64台CS-2集群,在GPU集群上花费68天进行的13B参数语言模型培训,只用了短短2天完成。
4️⃣ 与GPU的比较: 技术优势
Cerebras的WSE专为AI工作负载而设计,与通用GPU相比具有以下优势:
- 适用于稀疏计算: 许多AI模型具有稀疏特性,而WSE可以有效处理这一特性
- 内存带宽: 借助芯片上的大容量SRAM,消除了内存访问的瓶颈
- 减少通信开销: 可在单个芯片上处理整个模型,无需芯片间通信
-编程的简易性:无需复杂的分散处理代码,可以通过标准的Python和PyTorch进行开发
这些优势可能使得Cerebras系统在特别是大规模语言模型(LLM)的训练中表现出卓越的效率。
特别值得关注的是,Cerebras可能推动“稀疏AI”研究的发展。WSE架构更适合开发更高效的稀疏模型,这可能成为下一代AI开发的突破口。
5️⃣ 财务状况和已上市新股的详细信息
Cerebras的增长率令人惊讶。2022年至2023年,营业收入增加了3倍以上(78.7百万美元),截至2024年上半年(1-6月),营业收入达到了1.364亿美元,同比增长了约15.7倍。但是,也存在挑战。2024年上半年87%的营收来自阿联酋的AI公司G42,客户集中风险较高。
在已上市新股方面,旨在筹集7.5亿至10亿美元资金,将成为加速公司成长战略的重要资金来源。
📍 总结和展望
Cerebras Systems $CBRS 拥有革新性的硬件和独特的方法,可能开创AI计算的新时代。但是,仍然存在许多需要克服的挑战,如扩大客户基础和优化制造成本。在迎接AI芯片市场的快速增长的同时,也要高度关注技术风险和竞争环境的变化。
Cerebras Systems正在引发AI训练的范式转变,NVIDIA $NVDA在AI训练市场中垄断,是否能打破这一局面,成为AI革命的“第二幕”,我们将继续关注其动向,包括IPO。
1️⃣ Cerebras的创新技术: WSE-3
Cerebras的主力产品是一款名为WSE-3(Wafer Scale Engine 3)的巨大AI芯片,该芯片利用了整个硅片,是单一的。
其规格令人惊叹:
- 晶体管数:4万亿
- 核心数量:约90万
- 单片内存:44GB SRAM
与市售最大的GPU相比,WSE-3在核心数量上约为其50倍,在内存容量上约为其880倍,具有令人震撼的性能参数。WSE-3由TSMC的5nm工艺制造,相较于其前身WSE-2(7nm工艺),实现了显著的性能提升。
值得一提的是,即使是目前最大的AI模型,也能放入单一芯片中。这使得无需模型并行或张量并行等复杂分布式处理,就能实现高效的AI训练。
2️⃣ 集群结构和可扩展性
Cerebras提供搭载WSE-3的计算设备CS-3。这款迷你冰箱大小的系统可配置最多2,048个台构成集群。这比之前的CS-2模型的192台大幅扩展。
构成集群核心的是Memory X和Swarm X两个组件:
- Memory X: 配备大容量DRAM,保存整个模型的Weight信息
- Swarm X: 进行高效的Weight信息分发和梯度信息聚合的开关
这种架构实现了随着集群规模扩大而呈线性性能提升。这是因为可以大幅减少GPU集群中常见的通信开销问题。
3️⃣ AI训练的新“性能”因子
Cerebras在AI训练中重新定义了“性能”,不仅包括简单的计算速度,还包括以下因素:
- 纯粹的计算能力:例如,将Llama模型的训练时间从GPU集群的1个月缩短到1天
- 可编程性: 适用于单台机器的代码也可以在2,048台集群上运行
- 缩短开发周期: 从模型开发到培训完成的综合时间
根据这个新的“性能”定义,Cerebras系统展示了与传统GPU集群相比,高达35倍以上的效率,例如,阿联酋的G42公司使用了64台CS-2集群,在GPU集群上花费68天进行的13B参数语言模型培训,只用了短短2天完成。
4️⃣ 与GPU的比较: 技术优势
Cerebras的WSE专为AI工作负载而设计,与通用GPU相比具有以下优势:
- 适用于稀疏计算: 许多AI模型具有稀疏特性,而WSE可以有效处理这一特性
- 内存带宽: 借助芯片上的大容量SRAM,消除了内存访问的瓶颈
- 减少通信开销: 可在单个芯片上处理整个模型,无需芯片间通信
-编程的简易性:无需复杂的分散处理代码,可以通过标准的Python和PyTorch进行开发
这些优势可能使得Cerebras系统在特别是大规模语言模型(LLM)的训练中表现出卓越的效率。
特别值得关注的是,Cerebras可能推动“稀疏AI”研究的发展。WSE架构更适合开发更高效的稀疏模型,这可能成为下一代AI开发的突破口。
5️⃣ 财务状况和已上市新股的详细信息
Cerebras的增长率令人惊讶。2022年至2023年,营业收入增加了3倍以上(78.7百万美元),截至2024年上半年(1-6月),营业收入达到了1.364亿美元,同比增长了约15.7倍。但是,也存在挑战。2024年上半年87%的营收来自阿联酋的AI公司G42,客户集中风险较高。
在已上市新股方面,旨在筹集7.5亿至10亿美元资金,将成为加速公司成长战略的重要资金来源。
📍 总结和展望
Cerebras Systems $CBRS 拥有革新性的硬件和独特的方法,可能开创AI计算的新时代。但是,仍然存在许多需要克服的挑战,如扩大客户基础和优化制造成本。在迎接AI芯片市场的快速增长的同时,也要高度关注技术风险和竞争环境的变化。
Cerebras Systems正在引发AI训练的范式转变,NVIDIA $NVDA在AI训练市场中垄断,是否能打破这一局面,成为AI革命的“第二幕”,我们将继续关注其动向,包括IPO。
参考
免责声明:社区由Moomoo Technologies Inc.提供,仅用于教育目的。
更多信息
评论
登录发表评论
Kimihiko 楼主 : 英伟达的竞争对手Cerebras在美国申请了IPO
作为人工智能新兴企业的Cerebras Systems在周一在美国申请了新股上市。
募集条件和规模尚未明确。这家总部位于加利福尼亚州圣克拉拉的公司已向纳斯达克全球市场提交了使用“CBRS”符号上市A类普通股的申请。
花旗集团全球市场和巴克莱资本将负责本次公开募股的共同主承销商。
Cerebras是目前几家试图利用支撑人工智能的半导体需求激增的初创企业之一,该市场目前由技术巨头Nvidia(纳斯达克股票代码:NVDA)独占。
该公司设计用于AI培训和推理的处理器,声称解决了计算机行业数十年来的一个问题,即开发与整个硅晶圆尺寸相同的芯片。
2023年和2022年的收入分别为7,870万美元和2,460万美元,增长率高达220%。在2024年和2023年6月30日截至的6个月内,分别产生了1亿3,640万美元和870万美元的收入。
该公司报告称,截至2024年6月30日的6个月内,亏损为6,660万美元,截至2023年6月30日的6个月内,亏损为7,780万美元。
Cerebras在2021年的F轮融资中筹集了2.5亿美元,估值超过了40亿美元。
ミツ5963 : 十年后会不会变成一万亿美元呢~
Kimihiko 楼主 ミツ5963 : 让我们稍微买入一些
ミツ5963 : 卖出后会试着购买
人生が含み損 : 虽然感觉有点靠技术硬气,但看起来只是排列了许多小东西吧?
就像雨后竹笋一样,各种半导体制造商似乎将会接踵而至
嗯,不可能全部买下来嘛