面壁智能发布基于稀疏-线性混合架构SALA训练9B模型

2月12日,面壁智能正式发布稀疏-线性注意力混合架构SALA,以及基于该架构的文本模型MiniCPM-SALA,模型仅有9B参数。据介绍,MiniCPM-SALA不使用投机采样等加速算法在云端推理芯片上,当序列长度为256K词元时推理速度高达Qwen3-8B的3.5倍,并支持在云端芯片和消费级端侧GPU上进行高达一百万词元上下文长度的推理。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平