Is LLM the Silver Bullet to Low-Resource Languages Machine Translation?

作者: Yewei Song, Lujun Li, Cedric Lothritz, Saad Ezzini, Lama Sleem, Niccolo Gentile, Radu State, Tegawendé F. Bissyandé, Jacques Klein

发布时间: 2025-04-03

来源: arxiv

研究方向: 低资源语言机器翻译和大型语言模型

主要内容

该研究旨在评估大型语言模型(LLMs)在低资源语言机器翻译中的应用效果,并探索改进低资源语言翻译的方法。

主要贡献

1. 系统评估了当前LLMs在200种语言中的限制。

2. 探索了替代数据源,如新闻文章和双语词典,以解决平行数据稀缺问题。

3. 展示了从大型预训练模型中提取知识蒸馏如何显著提高较小LLMs的翻译质量。

4. 研究了各种微调策略,揭示了增量改进如何显著减少较小LLMs的性能差距。

研究方法

1. 使用FLORES-200基准评估LLMs的翻译性能。

2. 探索使用新闻文章和双语词典等单侧数据源进行LLM微调。

3. 利用知识蒸馏技术从大型预训练模型中提取知识。

4. 研究各种微调策略,包括低秩自适应(LoRA)。

实验结果

实验结果表明,LLMs在处理低资源语言时仍存在局限性,但通过知识蒸馏和数据增强技术,可以显著提高翻译质量。增量微调策略可以减少性能差距,而LoRA方法的效果则不如全模型微调。数据集规模对翻译质量有显著影响,较大的数据集可以带来更好的翻译效果。

未来工作

未来研究可以进一步探索更有效的数据增强和微调技术,以提高LLMs在低资源语言翻译中的性能。此外,可以研究如何将LLMs与特定领域的知识相结合,以解决特定领域的翻译挑战。