AI 系列 | ChatGPT 的成本有多高?1 年的运行成本高达 4.75 亿美元
ChatGPT 的主要成本是多少?最重要的成本包括计算资源成本(即培训成本)和运行成本。此外,还有研发投资(主要是研发人员成本)。
1、首先,让我们计算一下运营成本:每年的运营成本高达4.747亿美元。
单个 Nvidia A100 GPU 最多可能需要 350 毫秒才能在 ChatGPT 上打印一个单词。 Chat-GPT 是从 GPT-3.5 演变而来的,因此应该有 1750 亿个参数。训练数据约为 45 亿 TB。而且,一个30亿个参数模型可以在大约6毫秒内在NVIDIA A100 GPU(半精度+Tensorrt+激活缓存)上生成代币。以这种速度为参考,单个 Nvidia A100 GPU 可能需要 350 毫秒才能在 ChatGPT 上打印一个单词。
由于最新版本ChatGPT-3.5具有超过1750亿个参数,因此大约需要五个A100 GPU来执行必要的操作才能获得单个查询的输出。在获得 ChatGPT 每秒输出大约 15-20 个字的能力后,平均获得了 8 个 A100 GPU。
在ChatGPT上生成的每个单词的价格为0.0003美元。 考虑到微软目前的费率,单个Nvidia A100 GPU的价格为每小时3美元。根据在 350 毫秒内生成单词的速度,可以计算出每小时可以生成的字数。最后,在ChatGPT上生成的每个单词的成本为0.0003美元。
每次查询的费用接近 0.01 美元。 考虑到Chat-GPT每次需要大约30个字来回复用户的查询,因此每次查询的费用接近0.01美元。是谷歌搜索成本的三倍。
每日运营成本高达130万美元。 根据瑞银的统计,Chat-GPT的月活跃用户数量预计将在1月份达到1亿,每天约有1300万人使用它。因此,根据1300万人的计算,每人每天查询10次,那么每天有1.3亿次查询,每次查询的成本为0.01美元,最终的每日成本高达130万美元。
以一年365天计算,每年的运行成本高达4.747亿美元,这非常昂贵。
2、计算资源成本(即训练成本):单次迭代的成本高达460万美元。
像ChatGPT这样的大型语言模型需要至少成千上万的GPU图形集群进行训练,而且其本身的构造成本非常高,并且对计算数量有一定的限制。经过一定数量的计算,资源将耗尽。此时,需要建造一个新的。GPU 集群。
就单次迭代的训练成本而言,至少训练十到几十次需要花费460万美元。即使只有十次,成本也将达到四千六百万美元。
3、总结
如此昂贵的ChatGPT意味着随后的商业化需要更好的想法。在许多情况下,并不是人工智能技术不符合要求,而是实际上负担不起。与一个人的成本相比,现在的人工智能仍然太昂贵了。因此,一些生成 AI 公司宣布破产,Open AI 将自己卖给了微软寻求资金。
因此,我们可以理解为什么以其强大的人工智能而闻名的谷歌在人工智能的应用方面如此保守。因为一方面,谷歌已经形成了搜索垄断地位,不愿花这么高的成本。高昂的成本将侵蚀其利润。此外,还有另一个问题。当你使用chatgpt时,你可能还会发现有时候数据是错误的,有时候是胡说八道。谷歌还担心这些错误会损害自己的搜索品牌。
但是对于微软来说,必应的市场份额已经很小了。如果有足够的现金流支持,它愿意使用chatgpt来争夺市场份额。
这次让我们谈谈成本,下次我们将讨论商业化。
免责声明:社区由Moomoo Technologies Inc.提供,仅用于教育目的。
更多信息
评论
登录发表评论
74376197 : 有几点澄清。当我5年前离开谷歌搜索时,他们认为必应比谷歌搜索落后了3年。谷歌自己也表示,必应拥有10.5%的搜索市场份额,因此他们的市场份额不是 “很小”,而且我认为它正在增长。在过去(露丝·波拉特之前,简称 “PR”),谷歌很乐意从搜索中获利,并将其投入免费服务(例如地图和谷歌文档),作为 “谢谢” 和 “增强用户信任”。在2013-2018年谷歌任职期间,我一直在讨论这个问题。AR(继露丝之后),谷歌的表现要糟糕得多,它尽量从不使用一项活动的利润来补贴其他活动,而且自增强现实以来,它减缓了谷歌的步伐,给谷歌蒙上了更卑鄙的面孔。