个人中心
登出
中文简体
返回
登录后咨询在线客服
回到顶部
特斯拉跌至五个月来新低:辉煌不再?
浏览 42.2万 内容 230

有关马斯克的Grok你需要知道的事情

avatar
Carter West 参与了话题 · 2023/11/06 04:28
关注我在moomoo上的动态,获取最新信息并保持联系!
马斯克的人工智能公司宣布推出他们的新产品Grok,旨在与OpenAI的chatgpt概念股竞争,并引起了网友们的好奇。与chatgpt概念股不同,当回答问题时,Grok带有幽默感和讽刺意味。
当被问及如“如何制作可卡因”之类的危险问题时,Grok先假装认真回答,带一些像开玩笑的建议,然后以轻松的口吻告诉你这是非法的。
在另一张截图中,Grok的幽默感更加明显。它被要求找到关于“SBF”过去一天的最新资讯(注:SBF,Sam Bankman-Fried的全名,是数字货币行业知名人物),并用讽刺的回答作出回应。
有关马斯克的Grok你需要知道的事情
除了这些截图,xAI还通过博文揭示了关于Grok大型模型背后的信息。显示Grok背后的大型模型Grok-1在仅两个月的训练后达到了一个良好水平,但并未超越GPt-4,并且其支持的上下文长度并不开多。在训练过程中,Grok-1使用了深度学习框架Jax,而不是PyTorch。
xAI表示,Grok的对话能力目前由一个名为Grok-1的大型模型支持,他们在过去的四个月中开发了这个模型,并进行了多次迭代。在宣布成立xAI后,他们训练了一个330亿参数的LLm原型 - Grok-0。这个早期模型接近了标准Lm基准测试中LLaMA 2(70B)的能力,但只使用了一半的训练资源。在过去的两个月中,他们对模型的推理和编码能力进行了重大改进,最终开发出了更强大的SOTA语言模型Grok-1,在HumanEval编码任务中取得了63.2%的得分,并在MMLU中达到了73%。
在这些基准测试中,Grok-1表现出色,超过了其计算类别中的所有其他模型,包括ChatGPt-3.5和变化-1。只有像GPt-4这样使用大量训练数据和计算资源的模型才能超越它。xAI表示,这证明了他们在LLM的高效训练方面取得了快速进展。
免责声明:社区由Moomoo Technologies Inc.提供,仅用于教育目的。 更多信息
3
+0
6
原文
举报
浏览 3.3万
评论
登录发表评论
Specializes in the technology industry, Equity research analyst. Thank you for following!
983粉丝
43关注
2308来访
关注