腾讯推出 HY-MT1.5:翻译又快又准,手机上也跑得动

我们几乎每天都在用翻译,但背后模型常常体型庞大,通常要依赖云端服务器。腾讯这次发布的 HY-MT1.5 系列打破了这一限制,提供两种规格,适配不同使用场景:

  • 1.8B 轻量版:别看个头小,性能一点不弱。经过深度优化后,约 1GB 内存即可在手机等端侧设备顺畅运行。翻译一条大约 50 个汉字的句子,平均响应时间约 0.18 秒

  • 7B 加强版:由此前斩获 WMT25 冠军系统演进而来,更擅长处理混合语种、专业术语以及要求严格的格式化翻译,主要面向服务器部署。

  • image.png

为什么它更聪明?

为让模型更贴近人类表达习惯,腾讯研究团队采用了“五步走”的训练方案:

  1. 夯实语言底座:先在大规模多语文本上预训练,掌握通用语言规律。

  2. 翻译专项强化:引入海量双语对齐数据,从“能说话”进阶为“会翻译”。

  3. 高质微调:基于高质量文档进行精调,让译文更地道更自然。

  4. 大带小(蒸馏):由 7B 大模型“传艺”给 1.8B 小模型,让小体量也具备强脑力。

  5. 人工反馈打磨:融入人类偏好,对准确性、流畅度与文化合规进行打分优化。

实测表现:领先部分主流大模型

在多项权威评测中,HY-MT1.5 的成绩相当抢眼:

  • 在 WMT25 等国际测试中,7B 版本的得分超过了 Gemini3.0Pro,并优于多款垂直翻译模型。

  • 即使是“普通话到少数民族语言”这样的小众方向,也有出色发挥。

  • 1.8B 版本在人类真实场景打分中,也高于百度、谷歌、微软等主流商用翻译系统。

除了译得准,HY-MT1.5 还针对实际使用痛点给出了解法:

  • 术语可控:支持自定义词汇翻译。比如你指定“混元珠”译为 “Chaos Pearl”,它就不会随意更换说法。

  • 理解语境:遇到“pilot”这类多义词,如果上下文是美剧领域,它能识别为“试播集”,而非“飞行员”。

  • 格式保持:翻译含 HTML 标签或特殊标记的内容时,能在不破坏原有结构的前提下完成翻译。

目前,腾讯已在GitHubHugging Face开源了该系列模型的权重,全球开发者都可将其集成到各类应用中,提升翻译体验。

github:https://github.com/Tencent-Hunyuan/HY-MT

huggingface:https://huggingface.co/collections/tencent/hy-mt15

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享