DoNews12月30日消息,騰訊混元今日宣布開(kāi)源翻譯模型 1.5 版本,共包含兩個(gè)模型:Tencent-HY-MT1.5-1.8B 和 Tencent-HY-MT1.5-7B,支持 33 個(gè)語(yǔ)種互譯以及 5 種民漢 / 方言,除了中文、英語(yǔ)、日語(yǔ)等常見(jiàn)語(yǔ)種,也包含捷克語(yǔ)、馬拉地語(yǔ)、愛(ài)沙尼亞語(yǔ)、冰島語(yǔ)等小語(yǔ)種。
目前兩個(gè)模型均已在騰訊混元官網(wǎng)上線,在 Github 和 Huggingface 等開(kāi)源社區(qū)也可直接下載使用。

HY-MT1.5-1.8B 主要面向手機(jī)等消費(fèi)級(jí)設(shè)備場(chǎng)景,經(jīng)過(guò)量化,支持端側(cè)直接部署和離線實(shí)時(shí)翻譯,僅需 1GB 內(nèi)存即可流暢運(yùn)行,并且宣稱在參數(shù)量極小的前提下,效果超過(guò)了大部分商用翻譯 API。
同時(shí),與主流商用翻譯模型 API 對(duì)比,HY-MT1.5-1.8B 推理速度更快,處理 50 個(gè) tokens 的平均耗時(shí)只有 0.18 秒,其他模型的時(shí)間在 0.4 秒左右。
HY-MT1.5-7B 模型效果相比前一版本效果有較大提升,是此前獲得 WMT25 比賽 30 個(gè)語(yǔ)種翻譯冠軍模型的升級(jí)版,重點(diǎn)提升了翻譯準(zhǔn)確率,大幅減少了譯文中夾帶注釋和語(yǔ)種混雜的情況,實(shí)用性進(jìn)一步增加。
在部分用戶實(shí)際使用場(chǎng)景下,混元翻譯 1.8B 和 7B 兩個(gè)尺寸模型同時(shí)使用,可以實(shí)現(xiàn)端側(cè)和云側(cè)模型的協(xié)同部署,提升模型的效果的一致性和穩(wěn)定性。
在常用的中外互譯和英外互譯測(cè)試集 Flores200、WMT25 以及民漢語(yǔ)言的測(cè)試集中,Tencent-HY-MT1.5-1.8B 全面超越中等尺寸開(kāi)源模型和主流商用翻譯 API,達(dá)到 Gemini-3.0-Pro 這種超大尺寸閉源模型的 90 分位水平。在 WMT25 和民漢翻譯測(cè)試集上,其效果僅略微差于 Gemini-3.0-Pro,遠(yuǎn)超其他模型。


HY-MT1.5-1.8B 模型在 FLORES-200 質(zhì)量評(píng)估中取得了約 78% 的分?jǐn)?shù),同時(shí)平均響應(yīng)時(shí)間 0.18 秒,超越主流商用翻譯 API,適用于即時(shí)通訊、智能客服、移動(dòng)翻譯應(yīng)用等高吞吐、實(shí)時(shí)翻譯場(chǎng)景。
此外,針對(duì)各類場(chǎng)景,兩個(gè)模型均實(shí)現(xiàn)了對(duì)術(shù)語(yǔ)庫(kù)、長(zhǎng)對(duì)話、帶格式文本(例如網(wǎng)頁(yè))的翻譯支持,更加全面:
首先是術(shù)語(yǔ),騰訊混元翻譯模型 1.5 具備術(shù)語(yǔ)庫(kù)自定義能力,用戶可針對(duì)不同行業(yè)與專業(yè)場(chǎng)景(如醫(yī)學(xué)、法律、金融、科技等)提前構(gòu)建專屬術(shù)語(yǔ)對(duì)照表,確保關(guān)鍵術(shù)語(yǔ)在翻譯中保持高度一致與準(zhǔn)確性。
用戶可通過(guò)簡(jiǎn)單配置導(dǎo)入術(shù)語(yǔ)庫(kù),模型將在翻譯過(guò)程中優(yōu)先采納用戶定義的標(biāo)準(zhǔn)術(shù)語(yǔ),從而提升專業(yè)文檔、技術(shù)手冊(cè)、合同文本等內(nèi)容翻譯的可靠性與權(quán)威性。
其次是上下文翻譯。混元翻譯模型具備長(zhǎng)文本與對(duì)話上下文理解能力,可基于前文語(yǔ)境持續(xù)優(yōu)化后續(xù)翻譯結(jié)果,提升長(zhǎng)對(duì)話、多輪問(wèn)答、連續(xù)段落等場(chǎng)景下的翻譯連貫性與一致性。
無(wú)論是會(huì)議記錄、訪談內(nèi)容、小說(shuō)章節(jié)還是技術(shù)文檔的長(zhǎng)篇翻譯,模型均能捕捉并保持上下文邏輯關(guān)系,避免出現(xiàn)指代不清、語(yǔ)義斷裂或風(fēng)格不統(tǒng)一的問(wèn)題。
第三是帶格式翻譯能力,通過(guò)指令遵循能力,混元翻譯模型得以保持翻譯前后的格式信息不變,讓翻譯結(jié)果更加準(zhǔn)確實(shí)用。
為了直觀展示混元 Tencent-HY-MT1.5-1.8B 的翻譯效果,官方展示了與蘋果手機(jī)自帶離線翻譯的結(jié)果對(duì)比:

技術(shù)方面,HY-MT1.5-1.8B 能夠用小尺寸實(shí)現(xiàn)大尺寸模型的效果,得益于 On-Policy Distillation(大尺寸模型蒸餾)策略的引入,讓 HY-MT1.5-7B 作為 Teacher,實(shí)時(shí)引導(dǎo) 1.8B 的 Student 模型,讓其避免死記硬背標(biāo)準(zhǔn)答案,通過(guò)糾正在預(yù)測(cè)序列分布時(shí)的偏移,讓小模型從錯(cuò)誤中學(xué)習(xí),提升能力。

騰訊混元翻譯模型此前不僅在國(guó)際機(jī)器翻譯比賽拿下 30 個(gè)第 1 名,也在首次開(kāi)源一周內(nèi)便登上了 HuggingFace 模型趨勢(shì)榜第一位?;煸g模型已經(jīng)在騰訊內(nèi)部多個(gè)業(yè)務(wù)場(chǎng)景落地應(yīng)用,包括騰訊會(huì)議、企業(yè)微信、QQ 瀏覽器、客服翻譯等。
為了便于開(kāi)發(fā)者使用,本次開(kāi)源的模型已經(jīng)在 Github 和 Huggingface 等開(kāi)源社區(qū)上線,Arm、高通、Intel、沐曦等多個(gè)平臺(tái)均支持部署。