All the articles with the tag "moe".
120B 总参数、12B 激活参数的 Mamba-Transformer MoE 混合模型,开放权重,推理吞吐量比同类高 5 倍,专门针对多智能体系统优化。
智谱 AI 发布 GLM-5,一个 744B 参数的混合专家(MoE)开源模型,基于华为昇腾芯片训练,MIT 许可证,SWE-bench Verified 达 77.8%,开源阵营中排名第三。