share_log

Elon Musk Reveals The Staggering Amount Of Nvidia H100 GPUs That Will Be Used To Train XAI Chatbot Grok

Elon Musk Reveals The Staggering Amount Of Nvidia H100 GPUs That Will Be Used To Train XAI Chatbot Grok

埃隆·马斯克透露,将使用惊人数量的英伟达 H100 GPU 来训练 XAI 聊天机器人 Grok。
Benzinga ·  08:54

特斯拉首席执行官、xAI创始人伊隆·马斯克展示了他的人工智能聊天机器人Grok开发中投入的资源。

最近马斯克透露,即将推出的他的AI聊天机器人Grok 3将在10万块英伟达H100芯片上进行训练。

H100芯片(也称为Hopper)对于处理大语言模型(LLMs)的数据处理非常重要,在硅谷备受青睐。

每个英伟达H100 GPU芯片的成本估计约为30000美元,有些估计甚至高达40000美元。

订阅 《Benzinga技术趋势电子报》 ,即可获得所有最新技术发展信息。为了让您的收件箱收到所有最新的技术发展,请订阅《芝加哥商业新闻》的科技趋势新闻简报。获取最新技术发展动态,请订阅我们的简报。

这意味着Grok 3的培训可能潜在地使用了价值30亿至40亿美元的AI芯片,这几乎是马克·扎克伯格的Meta平台公司所押注的三到四倍。

Grok 3在使用10万个H100芯片进行训练后,到年底时将会非常特殊。

— 马斯克(@elonmusk)2024年7月1日

目前还不清楚这些芯片是马斯克的公司直接购买还是从云服务提供商租赁的。

阅读更多: 微软AI首席引起争议,称开放网络内容就是'免费软件',与使用受版权保护的在线内容进行培训的诉讼相抵触。

在先前的一次采访中,马斯克提到Grok 2的训练需要大约2万个H100芯片。

马斯克的AI创业公司xAI已经发布了Grok-1和Grok-1.5,并计划在8月份推出Grok 2。马斯克暗示Grok 3将于年底发布。

在各行各业中使用人工智能的需求急剧增加,导致对人工智能芯片的高需求。

这已经导致了科技公司之间对这些芯片的争夺,正如马斯克的xAI和Meta之间所展现的那样,他们都累积了大量的GPU芯片。

这也导致为顶级的人工智能人才进行激烈的竞争,正如AI创业公司Perplexity的创始人兼首席执行官Aravind Srinivas所强调的那样。

人工智能技术的发展和投入的资源对于包括汽车和太空探索在内的各个行业的未来都至关重要,而马斯克的公司是这些行业的主要参与者。

查看更多Benzinga的消费技术报道,请点击此链接关注此链接以获取更多信息.

  • 苹果将为欧盟客户从iOS 18和macOS Sequoia中排除重要功能:原因如下

免责声明:本文部分内容使用了Benzinga Neuro的帮助。此内容是通过AI工具部分制作的,并由Benzinga编辑进行了审查和发布。

图片来源:shutterstock

声明:本内容仅用作提供资讯及教育之目的,不构成对任何特定投资或投资策略的推荐或认可。 更多信息
    抢沙发