12月30日,腾讯混元宣布推出并开源翻译模型1.5,共包含两个模型:Tencent-HY-MT1.5-1.8B和Tencent-HY-MT1.5-7B,两个模型均支持33个语种互译以及5种民汉/方言,除了中文、英语、日语等常见语种,也包含捷克语、马拉地语、爱沙尼亚语、冰岛语等小语种。模型已在腾讯混元官网上线,通过开源社区也可以直接下载使用。
据介绍,HY-MT1.5-1.8B主要面向手机等消费级设备场景,经过量化,可支持端侧直接部署和离线实时翻译,仅需1GB内存即可流畅运行,并且在参数量极小的前提下,效果超过了大部分商用翻译API。模型在效率和性价比也表现突出,与主流商用翻译模型API对比,HY-MT1.5-1.8B推理速度更快,处理50个tokens的平均耗时只有0.18秒,其他模型的时间在0.4秒左右。
HY-MT1.5-7B模型效果相比前一版本有较大提升,是此前获得WMT25比赛30个语种翻译冠军模型的升级版,重点提升了翻译准确率,大幅减少了译文中夹带注释和语种混杂的情况,实用性进一步增加。
在部分用户实用场景下,混元翻译1.8B和7B两个尺寸模型同时使用,可以实现端侧和云侧模型的协同部署,提升模型的效果的一致性和稳定性。
同时,在常用的中外互译和英外互译测试集Flores200、WMT25以及民汉语言的测试集中,Tencent-HY-MT1.5-1.8B全面超越中等尺寸开源模型和主流商用翻译API,达到Gemini-3.0-Pro这种超大尺寸闭源模型的90分位水平。在WMT25和民汉翻译测试集上,其效果仅略微差于Gemini-3.0-Pro,远超其他模型。
HY-MT1.5系列模型在翻译质量与响应效率之间达到了出色的平衡。具体而言,HY-MT1.5-1.8B模型在FLORES-200质量评估中取得了约78%的分数,同时平均响应时间仅为0.18秒,超越主流商用翻译API,显示出明显的速度优势,凭借优化的模型设计和推理逻辑,其领先的效率使其高度适用于即时通讯、智能客服、移动翻译应用等高吞吐、实时翻译场景。
实用性是混元翻译模型长期追求的目标,针对各类场景,两个模型均实现了对术语库、长对话、带格式文本(例如网页)的翻译支持,更加全面。
首先是术语,腾讯混元翻译模型1.5具备强大的术语库自定义能力,用户可针对不同行业与专业场景(如医学、法律、金融、科技等)提前构建专属术语对照表,确保关键术语在翻译中保持高度一致与准确性。
这一功能有效弥补了小尺寸模型在处理专业领域文本时的词汇短板,使其在保障轻量化部署的同时,也能胜任高要求的行业翻译任务。用户可通过简单配置导入术语库,模型将在翻译过程中优先采纳用户定义的标准术语,从而提升专业文档、技术手册、合同文本等内容翻译的可靠性与权威性。
其次是上下文翻译。混元翻译模型具备先进的长文本与对话上下文理解能力,可基于前文语境持续优化后续翻译结果,显著提升长对话、多轮问答、连续段落等场景下的翻译连贯性与一致性。无论是会议记录、访谈内容、小说章节还是技术文档的长篇翻译,模型均能有效捕捉并保持上下文逻辑关系,避免出现指代不清、语义断裂或风格不统一的问题。该能力尤其适用于实时对话翻译、长篇文献翻译及多轮交互场景,助力用户在跨语言沟通与内容处理中获得更自然、准确的翻译体验。
第三是,带格式翻译能力,通过精准的指令遵循能力,混元翻译模型得以保持翻译前后的格式信息不变,让翻译结果更加准确实用。
技术上,HY-MT1.5-1.8B能够用小尺寸实现大尺寸模型的效果,得益于On-Policy Distillation(大尺寸模型蒸馏)策略的引入,让HY-MT1.5-7B作为Teacher,实时引导1.8B的Student模型,让其避免死记硬背标准答案,通过纠正在预测序列分布时的偏移,让小模型从错误中学习,切实提升能力。
值得注意的是,腾讯混元翻译模型此前不仅在国际机器翻译比赛拿下30个第1名,也在首次开源一周内便登上了Hugging Face模型趋势榜第一位。目前,混元翻译模型已经在腾讯内部多个业务场景落地应用,包括腾讯会议、企业微信、QQ浏览器、客服翻译等。此外,为了便于开发者使用,本次开源的模型已经在Github和Huggingface 等开源社区上线,Arm、高通、Intel、沐曦等多个平台均支持部署。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.