個人中心
登出
中文繁體
返回
登入後諮詢在線客服
回到頂部
特斯拉跌至五個月來新低:輝煌不再?
瀏覽 42.2萬 內容 230

有關馬斯克的Grok你需要知道的事情

avatar
Carter West 參與了話題 · 2023/11/06 04:28
在Moomoo上關注我,保持資訊和聯繫!
Musk的人工智能公司宣布推出了他們的新產品Grok,旨在與OpenAI的chatgpt概念股競爭,引起了網友的好奇。與ChatGPt不同的是,Grok在回答問題時帶有一種幽默和諷刺的感覺。
當被問及危險的問題,如“如何制作可卡因”,Grok首先假裝給出了一些嚴肅的回答,然後以輕鬆的口吻告訴你這是非法的。
在另一個截圖中,Grok的幽默感更加明顯。它被要求查找過去一天關於“SBF”(註:SBF指Sam Bankman-Fried在加密貨幣行業中的名字)的最新資訊,並用諷刺的回答給出了答案。
有關馬斯克的Grok你需要知道的事情
除了這些截圖外,xAI還通過一篇博客文章揭示了Grok大型模型背後的信息。這篇文章顯示,Grok背後的大型模型Grok-1在僅僅兩個月的訓練後取得了不錯的水平,但並沒有超越GPt-4,且支持的上下文長度不長。在訓練期間,Grok-1使用的是深度學習框架Jax,而不是PyTorch。
xAI表示,Grok的對話能力目前由一個名為Grok-1的大型模型支持,他們在過去四個月中對其進行了多次迭代。在宣布成立xAI後,他們訓練了一個330億參數的LLm原型機 - Grok-0。這個早期模型在標準Lm基準測試中接近LLaMA 2(70B)的能力,但只使用了一半的訓練資源。在過去的兩個月中,他們在模型的推理和編碼能力方面取得了顯著的進展,最終開發出了Grok-1,一個更強大的SOTA語言模型,在HumanEval 編碼任務中得到了63.2%的分數,MMLU中達到了73%。
在這些基準測試中,Grok-1展示了強大的性能,超越了其計算類別中的所有其他模型,包括ChatGPt-3.5和Inflection-1. 只有使用大量訓練資料和計算資源訓練的模型,例如GPt-4,才能超越它。 xAI表示,這證明了他們在高效訓練LLMs方面的快速進步。
免責聲明:社區由Moomoo Technologies Inc.提供,僅用於教育目的。 更多信息
3
+0
6
原文
舉報
瀏覽 3.3萬
評論
登錄發表評論
Specializes in the technology industry, Equity research analyst. Thank you for following!
983粉絲
43關注
2309來訪
關注