我们几乎每天都在用翻译,但背后模型常常体型庞大,通常要依赖云端服务器。腾讯这次发布的 HY-MT1.5 系列打破了这一限制,提供两种规格,适配不同使用场景:
-
1.8B 轻量版:别看个头小,性能一点不弱。经过深度优化后,约 1GB 内存即可在手机等端侧设备顺畅运行。翻译一条大约 50 个汉字的句子,平均响应时间约 0.18 秒。
-
7B 加强版:由此前斩获 WMT25 冠军系统演进而来,更擅长处理混合语种、专业术语以及要求严格的格式化翻译,主要面向服务器部署。
-

为什么它更聪明?
为让模型更贴近人类表达习惯,腾讯研究团队采用了“五步走”的训练方案:
-
夯实语言底座:先在大规模多语文本上预训练,掌握通用语言规律。
-
翻译专项强化:引入海量双语对齐数据,从“能说话”进阶为“会翻译”。
-
高质微调:基于高质量文档进行精调,让译文更地道更自然。
-
大带小(蒸馏):由 7B 大模型“传艺”给 1.8B 小模型,让小体量也具备强脑力。
-
人工反馈打磨:融入人类偏好,对准确性、流畅度与文化合规进行打分优化。
实测表现:领先部分主流大模型
在多项权威评测中,HY-MT1.5 的成绩相当抢眼:
-
在 WMT25 等国际测试中,7B 版本的得分超过了 Gemini3.0Pro,并优于多款垂直翻译模型。
-
即使是“普通话到少数民族语言”这样的小众方向,也有出色发挥。
-
1.8B 版本在人类真实场景打分中,也高于百度、谷歌、微软等主流商用翻译系统。
除了译得准,HY-MT1.5 还针对实际使用痛点给出了解法:
-
术语可控:支持自定义词汇翻译。比如你指定“混元珠”译为 “Chaos Pearl”,它就不会随意更换说法。
-
理解语境:遇到“pilot”这类多义词,如果上下文是美剧领域,它能识别为“试播集”,而非“飞行员”。
-
格式保持:翻译含 HTML 标签或特殊标记的内容时,能在不破坏原有结构的前提下完成翻译。
目前,腾讯已在
github:https://github.com/Tencent-Hunyuan/HY-MT
huggingface:https://huggingface.co/collections/tencent/hy-mt15



















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?