Taupoklow
讚了
已翻譯
5
Taupoklow
參與了投票
開源奇蹟再次展現:Mistral AI 發布了第一個開源專家混合(MoE)大型模型。
僅在幾天前,一個磁鐵鏈接立即通過 AI 社區發出衝擊波。
87GB 種子,8x7B MoE 架構 — 它看起來像「開源 GPT-4」的迷你版本!
沒有新聞發布會,沒有促銷視頻-只是一個磁鐵鏈接...
僅在幾天前,一個磁鐵鏈接立即通過 AI 社區發出衝擊波。
87GB 種子,8x7B MoE 架構 — 它看起來像「開源 GPT-4」的迷你版本!
沒有新聞發布會,沒有促銷視頻-只是一個磁鐵鏈接...
已翻譯
5