腾讯出了一个狠招:把一个能翻译33种语言的AI模型,压缩到440MB,直接跑在手机上,而且完全不用联网。
这个模型叫Hy-MT1.5-1.8B-1.25bit,现在已经开源,挂在Hugging Face上谁都能下载。33种语言包括中文、英语、日语、法语、德语,还有藏文、蒙古文这类少数民族语言,外加5种方言,总共覆盖1056个翻译方向。出国旅行、阅读外文资料、跟外国朋友聊天,一台手机全搞定。
它是怎么做到的?秘诀是极限压缩。腾讯用了1.25bit的超低位宽量化,把原本3.3GB的模型压缩到440MB,体积缩小到原来的13%左右,速度还比之前的1.67bit方案快10%,翻译质量一点没打折。这类似于把高清电影压成短视频,画质差别不大,但文件小了很多。
腾讯在公开文档里说,Hy-MT1.5-1.8B-1.25bit在国际机器翻译比赛里拿了30个第一。在FLORES-200这类标准测试集上,它的翻译质量跟Qwen3-32B这种几百GB的大家伙基本持平。简单说:别人要一块高端GPU才能跑的大模型,你用手机就搞定了。
离线跑这件事很关键。现在Google Translate、DeepL这些主流翻译工具都要联网,信号不好的时候体验很差,有时候还得等服务器响应。这个模型完全不依赖云端,手机性能跑起来绑绑有余。最重要的是,你的聊天记录、翻译内容永远不会上传到任何服务器。
腾讯还放出了一个安卓演示APP,直接打包成APK下载。装上之后,任意APP里选中文字就能翻译,不用切换窗口。真正的"无感"体验。目前只有安卓版,iPhone用户还得等等。
不只是腾讯在推手机端AI翻译。Google最近也在推Gemma 4,同样走本地运行路线。两家大厂同时盯上这个方向,说明手机AI翻译可能真的要爆发了。以前受限于网络和隐私顾虑的场景,现在都有解了。
对普通用户来说,这意味着:以后出国旅行、阅读外语资料、甚至跟说其他语言的人聊天,手机就是随身翻译。440MB的包体积,现在随便一台智能手机都塞得下。这可能比什么耳机翻译器都实用——毕竟你不需要额外带设备,手机掏出来就能用。