Fine-tuning BERT with Bidirectional LSTM for Fine-grained Movie Reviews Sentiment Analysis
作者: Gibson Nkhata, Susan Gauch, Usman Anjum, Justin Zhan
发布时间: 2025-03-03
来源: arxiv
研究方向: 自然语言处理(NLP)和情感分析(SA)
主要内容
本文研究了利用预训练的BERT模型结合双向长短期记忆网络(BiLSTM)进行电影评论的情感分析。该研究旨在提高二元和细粒度情感分类的准确性,并通过数据增强和整体情感极性计算来增强模型性能。
主要贡献
1. 将BERT与BiLSTM结合,在电影评论的情感分析中实现二元和细粒度情感分类,并取得了超越现有最佳模型(SOTA)的准确率。
2. 改进了数据增强技术,以增强模型在细粒度情感分类中的性能。
3. 基于BERT+BiLSTM的输出向量计算预测评论的整体情感极性。
4. 比较和评估了实验结果,包括与SOTA模型的比较,使用基准数据集。
5. 提出了一个启发式算法来计算从BERT+BiLSTM输出向量预测的评论的整体极性。
6. 针对不同分类任务(二元、三分类、四分类和五分类)进行了模型调整和评估。
研究方法
1. 预训练语言模型(BERT)
2. 双向长短期记忆网络(BiLSTM)
3. 模型微调
4. 数据增强(SMOTE和NLPAUG)
5. 整体情感极性计算
6. 启发式算法
实验结果
在IMDb、SST-2、SST-5和Amazon等基准数据集上进行的实验表明,该模型在二元分类中达到了97.67%的准确率,超过了SOTA模型。在五分类任务中,模型在SST-5和Amazon-5数据集上分别达到了59.48%和69.68%的准确率。此外,通过数据增强和整体情感极性计算,模型性能得到了进一步提升。
未来工作
探索将数据增强技术应用于转换后的BERT特征的有效策略,以克服转换过程中语义信息的损失。研究不同句子成分对情感预测的贡献,以揭示句子结构对情感分析的影响。探索使用其他预训练语言模型(如RoBERTa和GPT)来进一步提升情感分析的准确性和性能。