MAGE: Multi-Head Attention Guided Embeddings for Low Resource Sentiment Classification
作者: Varun Vashisht, Samar Singh, Mihir Konduskar, Jaskaran Singh Walia, Vukosi Marivate
发布时间: 2025-02-27
来源: arxiv
研究方向: 低资源语言的自然语言处理和文本分类
主要内容
本文针对低资源Bantu语言在文本分类任务中的数据稀缺问题,提出了一种名为MAGE(Multi-Head Attention Guided Embeddings)的模型。该模型结合了语言无关数据增强(LiDA)和多头注意力机制,通过改进嵌入和增强过程,有效地提高了低资源语言的文本分类性能。
主要贡献
1. 提出了一种名为MAGE的模型,结合LiDA和多头注意力机制,提高了低资源语言的文本分类性能。
2. 使用VAE替代传统的去噪自动编码器,增强了合成嵌入的表达能力。
3. 通过多头注意力机制,模型能够更有效地捕获关键特征,提高分类性能。
4. 在AfriSenti SemEval数据集上,MAGE模型在低资源设置下优于基线方法。
研究方法
1. 语言无关数据增强(LiDA)
2. 变分自动编码器(VAE)
3. 多头注意力机制
4. LSTM和逻辑回归分类器
5. AfriBERTa嵌入模型
实验结果
在AfriSenti SemEval数据集上,MAGE模型在低资源设置下优于基线方法。实验结果表明,与原始嵌入相比,MAGE模型在准确率、精确率、召回率和F1分数等指标上均有显著提升。
未来工作
进一步探索MAGE模型在更多低资源语言上的应用,并研究如何提高模型的泛化能力。此外,研究如何降低模型的计算复杂度,使其在资源受限的环境下也能应用。