
昨日,腾讯混元宣布带来一个在国际机器翻译比赛拿下 30 个第一名的翻译模型「Hunyuan-MT-7B」。
官方介绍,Hunyuan-MT-7B 总参数量仅 7B,支持 33 个语种、5 种民汉语言/方言互译,是一个能力全面的轻量级翻译模型。
混元方面称,在 8 月底结束的国际计算语言学协会(ACL)WMT2025 比赛中,Hunyuan-MT-7B(参赛名称:Shy-hunyuan-MT)拿下了全部 31 个语种比赛中的 30 个第一名,处于绝对领先地位,这 31 个语种除了中文、英语、日语等常见语种,也包含捷克语、马拉地语、爱沙尼亚语、冰岛语等小语种。
据悉,Hunyuan-MT-7B 的特点在于仅用少量的参数,就达到甚至超过了更大规模模型的效果,这也为模型的应用带来了众多优势。
同时开源的还有一个翻译集成模型 Hunyuan-MT-Chimera-7B (奇美拉),是业界首个翻译集成模型,它能够根据原文和多个翻译模型给出的不同内容,再生成一个更优的翻译结果,不仅原生支持 Hunyuan-MT-7B,也支持接入 DeepSeek 等模型。
Hunyuan-MT-7B 模型已在腾讯混元官网上线体验入口,并在 HuggingFace 和 GitHub 等开源社区提供下载,对应的技术报告和论文也已经在开源社区公开。
|