Taupoklow
赞了
已翻译
5
Taupoklow
参与了投票
开源奇迹再次展开:Mistral AI 发布了首款开源专家组合 (MoE) 大型模型。
就在几天前,一个磁力链接立即给人工智能社区带来了冲击。
87GB 种子,8x7B MoE 架构 —— 它看起来像 “开源 GPT-4” 的迷你版!
没有新闻发布会,没有宣传视频——只是一个磁力链接...
就在几天前,一个磁力链接立即给人工智能社区带来了冲击。
87GB 种子,8x7B MoE 架构 —— 它看起来像 “开源 GPT-4” 的迷你版!
没有新闻发布会,没有宣传视频——只是一个磁力链接...
已翻译
5