karminski-牙医 26-01-16 09:16
微博认证:AI博主

Google 把翻译做成开源大模型了: TranslateGemma

Google 翻译大家都用过, 现在他们把翻译能力灌进了开源大模型里, 叫 TranslateGemma, 基于 Gemma 3 专门针对翻译任务调优的版本.

模型有 4B、12B、27B 三个规格, 128K 上下文, 支持 55+ 语言对. 给大家整理下训练方法: 先用 Gemini 2.5 Flash 生成的合成数据 + 人工翻译数据做 SFT, 然后上强化学习, 用了一堆奖励模型 (MetricX-QE、AutoMQM 这些) 来打分优化翻译质量.

来看效果: 在 WMT24++ 的 55 个语言对测试里, 27B 版本 MetricX 从 4.04 降到 3.09 (越低越好), COMET 从 83.1 涨到 84.4. 更有意思的是小模型优化后能接近大模型基线, 比如 12B 优化后的 MetricX 3.60, 比原版 27B 的 4.04 还好, 省显存的同时质量仍然能维持住.

另外还有个意外收获: 模型保留了 Gemma 3 的多模态能力, 虽然训练数据里压根没有图像翻译样本, 但在 Vistra 图像翻译测试里性能也跟着涨了 (这波属于白送的).

在我看来这个模型的定位很清晰: 专业翻译场景的开源替代方案. 128K 上下文能吃下整本书, 量化版本能在消费级显卡上跑, 适合需要本地部署翻译服务但又不想用 API 的场景. 缺点是目前中文相关的语言对测试数据不多, 实际效果还得自己试.

论文: arxiv.org/pdf/2601.09012
模型: huggingface.co/google/translategemma-27b-it

#ai生活指南##ai创造营#

发布于 日本