科技区角快讯,2025年12月30日,腾讯混元正式发布并开源其最新一代翻译模型——混元翻译模型1.5版本。该版本包含两个核心模型:Tencent-HY-MT1.5-1.8B与Tencent-HY-MT1.5-7B,目前已同步上线腾讯混元官网,并开放于GitHub及Hugging Face等主流开源平台,供全球开发者免费下载与集成使用。
新模型支持33种国际语言之间的互译能力,同时覆盖5种中国少数民族语言及方言,不仅涵盖中、英、日等主流语种,还特别纳入捷克语、马拉地语、爱沙尼亚语、冰岛语等低资源小语种,显著拓展了多语言应用场景的边界。
其中,1.8B参数量的轻量化模型专为手机等终端设备优化设计。通过先进的量化技术,该模型可在仅1GB内存条件下实现离线实时翻译,无需依赖云端服务。在性能表现方面,其推理效率远超当前多数商用翻译API:处理50个tokens的平均响应时间仅为0.18秒,相较同类商用方案普遍0.4秒的延迟,提速超过一倍。更值得注意的是,在多项基准测试中,该轻量模型的翻译质量已达到闭源大模型如Gemini-3.0-Pro约90%的水平,部分场景下差距微乎其微。
而7B版本则是在此前WMT25机器翻译大赛中斩获30项语种冠军的模型基础上全面升级而来。新版重点优化了翻译准确率,有效解决了旧版中偶发的注释残留、语种混杂等问题,大幅提升了输出文本的专业性与可读性。
腾讯官方指出,在实际应用中,1.8B与7B模型可协同部署,形成“端侧+云侧”联动架构:轻量模型负责本地快速响应,大模型提供高精度云端增强,二者结合可显著提升整体翻译系统的一致性、稳定性与用户体验。
此外,新模型还支持术语库自定义、长上下文理解及带格式文本翻译等高级功能。用户可导入医学、法律、金融等垂直领域的专业词汇表,确保关键术语准确无误;模型亦能基于前文语境动态优化后续译文,适用于会议记录、小说连载等长文本场景;同时保留原始文档排版结构,提升网页、PDF等结构化内容的翻译可用性。
技术层面,1.8B模型采用On-Policy Distillation策略,由7B大模型作为“教师”实时引导训练过程,避免传统蒸馏中的信息损失,显著增强小模型的泛化能力。目前,该系列翻译模型已深度集成至腾讯会议、企业微信、QQ浏览器等核心产品中,并全面兼容Arm、高通、Intel及国产GPU厂商沐曦等主流硬件平台,为开发者和终端用户提供高效、灵活、低成本的多语言解决方案。
