腾讯混元开源轻量级翻译模型:支持5种汉语言与方言互译

凤凰网科技讯 9月1日,腾讯混元团队今日正式对外发布并开源了其最新的轻量级翻译模型Hunyuan-MT-7B。该模型以仅7B(70亿)的参数规模,在刚刚结束的国际权威机器翻译竞赛WMT2025中,于31个语种的竞赛项目中取得了30个第一名的压倒性成绩,展现了其在小语种和常见语种翻译领域的领先能力。

据了解,Hunyuan-MT-7B不仅支持包括中文、英语、日语在内的33个语种,还特别针对国内用户需求,实现了5种民汉语言及方言的互译。与传统机器翻译相比,该模型依托大模型技术,能够更好地理解对话背景与上下文,在处理俚语、古诗词及网络缩写等复杂翻译场景时,表现出高度的准确性和流畅性,实现了翻译领域追求的“信达雅”标准。

此次WMT2025竞赛的一大特点是要求参赛模型必须开源,且只能使用公开数据训练,这为评估模型真实能力提供了公平的环境。在这样的限制下,Hunyuan-MT-7B依然击败了众多参数规模远超于它的对手。同时,在行业公认的翻译能力评测基准Flores200上,该模型的表现也显著优于同尺寸模型,效果堪比许多超大规模模型。这一系列成果得益于腾讯混元提出的覆盖预训练到强化学习的全链条训练范式。

与模型一同开源的,还有业界首个翻译集成模型Hunyuan-MT-Chimera-7B(奇美拉)。该模型的独特之处在于,它能够整合并评估来自不同翻译模型(包括Hunyuan-MT-7B及DeepSeek等第三方模型)的译文,并在此基础上生成一个质量更高的最终版本,为专业翻译场景提供了新的优化路径。

对于开发者和企业而言,Hunyuan-MT-7B的轻量化特性带来了显著的实际应用优势。其7B的参数规模确保了更快的推理速度和更低的部署成本,能够灵活部署于从云端服务器到边缘设备的各类硬件环境中。官方透露,通过腾讯自研的AngelSlim压缩工具进行FP8量化后,其推理性能可再提升30%。目前,该模型技术已应用于腾讯会议、企业微信、QQ浏览器等多个内部业务。

目前,Hunyuan-MT-7B模型已在腾讯混元官网开放体验,并已在Huggingface和Github等社区提供模型下载和技术报告,持续其在AI领域的开源生态贡献。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平