
12月30日,騰訊環源發布了其翻譯模型1.5版開源版。此版本包含兩個模型:Tencent-HY-MT1.5-1.8B和Tencent-HY-MT1.5-7B,支援33種語言和5種民族語言及方言,包括中文、英文、日文以及捷克語、馬拉地語、愛沙尼亞語、冰島語等少數民族語言。
這兩個型號均可在騰訊混合世代官網、GitHub 和 Hugging Face 上找到。 HY-MT1.5-1.8B 運行在 1GB 記憶體下,處理 50 個字元耗時 0.18 秒。 HY-MT1.5-7B 是在 WMT25 大賽 30 種語言翻譯冠軍模型的升級版。 1.8B 模型在 FLORES-200 品質評估中取得了 78% 的得分,達到了 Gemini-3.0-Pro 的 90% 水平。從技術角度來看,它採用了基於策略的蒸餾方法。
此模型已在騰訊會議、企業版微信、QQ瀏覽器等應用程式中實現,並得到Arm、高通、英特爾、Muxi等平台的支援。
從:
翻譯模型 1.5:內部提供 1GB 手冊,有效的商業 API
【社論】
騰訊的混合語言翻譯模型1.5可能是人工智慧翻譯普及化過程中的轉捩點。尤其值得注意的是,這個擁有18億參數的模型可以在智慧型手機上運行。
以往的高效能翻譯模型需要數十億甚至數千億個參數,並且只能在雲端運作。然而,這款擁有18億字的車型僅需1GB內存,卻能達到Gemini 3.0 Pro等大型車型90%的效能水準。這項成就大大拓展了設備端AI的潛力。
這項技術創新的核心是一種名為「基於策略的蒸餾」的技術,它使用一個70億模型作為教師來訓練一個18億模型。然而,該模型並非簡單地模仿教師模型,而是透過修正預測分佈中的偏差來學習,即使模型規模較小也能達到很高的準確率。
從實際應用角度來看,其離線運作功能是一項突破性特性。由於無需網路連線即可進行即時翻譯,因此能夠保護隱私、降低通訊成本,並實現獨立於網路環境的使用。預計該功能將在醫療、法律等高度保密領域廣泛應用。
此外,自訂詞彙表、長文本上下文理解和格式保留功能將提高專業領域的翻譯準確性。這有望使迄今為止機器翻譯難以實現的科技文件和合約翻譯更接近實用水平。
然而,開源翻譯也存在一些問題。這種翻譯模式可能會因錯誤訊息的傳播或對文化細微差別的誤譯而導致意想不到的誤解。此外,儘管該服務支援33種語言,但翻譯品質可能因語言而異。
此次發布也是騰訊針對Google和Meta等競爭對手的策略性舉措。透過開源,其目的被認為是吸引開發者社群並加速模型的完善。
[術語]
參數(B)
該指標用於衡量人工智慧模型的規模,其中 B 代表「十億」。 1.8B 代表 18 億個參數,7B 代表 70 億個參數。一般來說,參數越多,模型的效能越高,但所需的運算資源和記憶體也越多。
弗洛雷斯-200
這是由Meta公司開發的標準基準資料集,用於評估多語言機器翻譯。它涵蓋200多種語言,並提供平行句以評估翻譯質量,包括低資源語言。它已成為機器翻譯研究領域的主要評估標準之一。
WMT25(2025 年機器翻譯研討會)
這是全球規模最大的機器翻譯國際競賽之一。第十屆大賽於2025年11月在中國蘇州舉行,為研究人員和開發者提供了一個交流平台,讓他們可以就各自翻譯模型的表現展開競爭。翻譯品質的評估採用自動化和人工評估相結合的方式。
Gemini 3.0 Pro
這是谷歌開發的大規模語言模型。它是一個閉源模型,擁有數千億個參數,並在包括翻譯在內的各種任務中展現了卓越的性能。據說騰訊的混合源翻譯模型已經達到了模型90%的水準。
政策提煉
這是一種機器學習方法,其中小規模的學生模型從自身生成的輸出中學習,而大規模的教師模型則向其提供回饋。與傳統的離策略蒸餾不同,該方法從學生模型自身的錯誤中學習,從而避免了實際推理過程中分佈不匹配的問題,並實現了更高效的知識遷移。
設備端人工智慧
這項技術直接在智慧型手機和平板電腦等裝置上執行人工智慧處理,而不是在雲端。它不需要網路連接,高度注重隱私保護,反應速度快,但受限於設備的記憶體和運算能力。
量子化
這項技術透過降低人工智慧模型的參數精度來減少記憶體佔用和計算量。例如,將32位元浮點數轉換為8位元整數可以顯著減少模型大小,同時最大限度地減少效能下降。
[參考連結]
騰訊混源官方GitHub倉庫(外部)
混合翻譯模型 1.5 的官方儲存庫。提供模型下載、技術規格、使用說明、範例程式碼等。
擁抱臉 – HY-MT1.5-1.8B (外部)
18億參數模型下載頁。其中包含使用Transformers庫的實作範例以及建議的推理參數設定。
擁抱臉 – HY-MT1.5-7B (外部)
7B參數模型下載頁面。提供WMT25 Champion模型升級版的詳細資訊和使用範例。
FLORES-200 基準測試(外部)
Meta(前身為 Facebook)開發的用於評估多語言機器翻譯的標準基準。它涵蓋 200 多種語言,用於評估低資源語言的翻譯品質。
WMT25(第十屆機器翻譯大會) (外部)
2025年11月,將在中國蘇州舉辦機器翻譯國際會議。比賽結果和參賽系統的詳細資訊將對外公佈。
[參考文章]
騰訊混源開源翻譯模型1.5:僅需1GB手機記憶體即可運行,效能優於商業API – Pandaily (外部)
一篇英文文章報導了 1.5 混合源翻譯模型於 2025 年 12 月 30 日發布。文章詳細介紹了 1.8B 模型的性能和功能。
GitHub – 騰訊混源/HY-MT(官方倉庫) (外部)
混合翻譯模型 1.5 的官方技術文檔,支援 33 種語言,具有詞彙表自訂、上下文翻譯和格式保留等功能。
騰訊開源翻譯模式在全球頂尖人工智慧競賽中擊敗Google和OpenAI—《南華早報》 (外部連結)
2025年9月,一篇報導WMT25初步結果的文章指出,混元-MT-7B在31個語言對中的30個語言對中排名第一。
語言模型的策略內蒸餾:從自身產生的錯誤中學習 – arXiv (外部連結)
一篇學術論文提出了策略內蒸餾(GKD)方法,該方法解釋了學生模型如何從自身生成的輸出中學習。
騰訊開源了兩個高效能翻譯模型-解碼器(外部)
一篇分析騰訊混合源翻譯模型效能的文章。文章指出,該模型的效能比Google翻譯提升了15%至65%。
WMT25初步結果顯示Gemini-2.5-Pro和GPT-4.1在AI翻譯方面領先 – Slator (外部)
產業分析文章介紹了 WMT25 的初步結果,包括 Gemini-2.5-Pro 和 GPT-4.1 的領先地位以及評估方法的詳細資訊。
將神經機器翻譯擴展到 200 種語言-《自然》 (外部連結)
一篇關於 Meta 的「不讓任何語言落後」計畫的學術論文,該計畫是 FLORES-200 基準測試開發的背景。
[編者註]
一種只需1GB記憶體即可運作的翻譯模型,在保護使用者隱私的同時,效能卻能超越商業API。這項科技創新將如何改變我們的日常生活?
我們正步入一個新時代,過去人們不願上傳到雲端的機密訊息,例如醫療記錄和法律文件,現在可以在自己的設備上安全翻譯。此外,如果即使在沒有網路連線的地方也能進行高品質的翻譯,語言障礙可能會進一步減少。
您會在哪些情況下使用可離線使用的高效能翻譯?例如,旅行途中的對話、工作文件的創建,或作為一種全新的學習方式?讓我們共同見證這項開源技術將引領怎樣的未來。