据华为计算官微消息,10月15日,openPangu-Ultra-MoE-718B-V1.1正式在GitCode平台开源,模型权重与技术细节全面公开。openPangu-Ultra-MoE-718B- … Continue reading 华为盘古Ultra-MoE-718B-V1.1模型正式开源
标签: moe
蚂蚁百灵开卷模型性价比!长文本推理只要1/10成本,6.1B激活撬动40B性能
作者 | 江宇 编辑 | 漠影 智东西9月26日报道,蚂蚁百灵团队近日正式开源两款全新混合线性推理模型——Ring-mini-linear-2.0与Ring-flash-linear-2.0。相比前代 … Continue reading 蚂蚁百灵开卷模型性价比!长文本推理只要1/10成本,6.1B激活撬动40B性能
阿里云发布通义Qwen3-Next基础模型架构并开源80B-A3B系列
阿里云发布通义Qwen3-Next基础模型架构并开源80B-A3B系列:改进混合注意力机制、高稀疏度MoE结构 IT之家 9 月 12 日消息,阿里云通义团队今日宣布推出其下一代基础模型架构 Qwen … Continue reading 阿里云发布通义Qwen3-Next基础模型架构并开源80B-A3B系列
美团首个开源大模型来了!5600亿个参数,推理速度比DeepSeek-V3快50%
作者 | 陈骏达 编辑 | 云鹏 智东西9月1日报道,昨日,美团发布了其首款开源大模型LongCat-Flash,这是一款拥有5600亿个总参数的MoE(混合专家)模型。 推理速度是这一模型最大的特点 … Continue reading 美团首个开源大模型来了!5600亿个参数,推理速度比DeepSeek-V3快50%