share_log

4050亿参数!Meta或将7月23日发布迄今最强大Llama 3模型

4050億參數!Meta或將7月23日發佈迄今最強大Llama 3模型

華爾街見聞 ·  13:26

本文作者:李丹

來源:硬AI

不到兩週後,我們可能就會見到迄今爲止最強大的開源Llama 3模型。

美東時間7月12日週五,媒體援引一名Meta Platforms的員工消息稱,Meta計劃7月23日發佈旗下第三代大語言模型(LLM)Llama 3的最大版本。這一最新版模型將擁有4050億參數,也將是多模態模型,這意味着它將能夠理解和生成圖像和文本。該媒體未透露這一最強版本是否開源。

Meta公司拒絕對上述消息置評。週五盤中,低開的Meta股價跌幅收窄,盤初曾跌3.6%,午盤跌不足2%,仍將在週四大幅回落超4%後連跌兩日,或將刷新6月28日以來收盤低位。

big

去年7月Meta發佈的Llama 2有三個版本,最大版本70B的參數規模爲700億。今年4月,Meta發佈Llama 3Meta,稱它爲“迄今爲止能力最強的開源LLM”。當時推出的Llama 3有8B和70B兩個版本。

Meta CEO扎克伯格當時稱,大版本的Llama 3將有超過4000億參數。Meta並未透露會不會將4000億參數規模的Llama 3開源,當時它還在接受訓練。

對比前代,Llama 3有了質的飛躍。Llama 2使用2萬億個 token進行訓練,而訓練Llama 3大版本的token超過15 萬億。

Meta稱,由於預訓練和訓練後的改進,其預訓練和指令調優的模型是目前8B和70B兩個參數規模的最佳模型。在訓練後程序得到改進後,模型的錯誤拒絕率(FRR)大幅下降,一致性提高,模型響應的多樣性增加。 在推理、代碼生成和指令跟蹤等功能方面,Llama 3相比Llama 2有極大改進,使Llama 3更易於操控。

4月Meta展示,8B和70B版本的Llama 3指令調優模型在大規模多任務語言理解數據集(MMLU)、研究生水平專家推理(GPQA)、數學評測集(GSM8K)、編程多語言測試(HumanEval)等方面的測評得分都高於Mistral、谷歌的Gemma和Gemini和Anthropic的Claude 3。8B和70B版本的預訓練Llama 3多種性能測評優於Mistral、Gemma、Gemini和Mixtral。

當時社交媒體的網友評論稱,根據基準測試,當前的Llama 3模型不完全是 GPT-4 級別的,但仍在訓練中的較大尺寸的模型將達到 GPT-4 級別。

big

英偉達高級科學家Jim Fan認爲,Llama 3的推出已經脫離了技術層面的進步,更是開源模型與頂尖閉源模型可分庭抗禮的象徵

從Jim Fan分享的基準測試可以看出,Llama 3 400B 的實力幾乎媲美 Claude“超大杯”以及新版 GPT-4 Turbo,將成爲“分水嶺”,相信它將釋放巨大的研究潛力,推動整個生態系統的發展,開源社區或將能用上GPT-4級別的模型big

此後有消息稱,研究人員尚未開始對Llama 3進行微調,還未決定Llama 3是否將是多模態模型;正式版的Llama 3將會在今年7月正式推出。

不同於OpenAI等開發商,Meta致力於開源LLM,不過,這個賽道也越來越擁擠。谷歌、特斯拉CEO馬斯克旗下的xAI和Mistral 等競爭對手也發佈了免費的AI模型。

Llama 3問世後,同在4月亮相的4800億參數模型Arctic擊敗Llama 3、Mixtra,刷新了全球最大開源模型的紀錄。

Arctic基於全新的Dense-MoE架構設計,由一個10B的稠密Tranformer模型和128×3.66B的MoE MLP組成,並在3.5萬億個token上進行了訓練。相比Llama 3 8B和Llama 2 70B,Arctic所用的訓練計算資源不到它們的一半,評估指標卻取得了相當的分數。

声明:本內容僅用作提供資訊及教育之目的,不構成對任何特定投資或投資策略的推薦或認可。 更多信息
    搶先評論