Unmasking Gender Bias in Recommendation Systems and Enhancing Category-Aware Fairness
作者: Tahsin Alamgir Kheya, Mohamed Reda Bouadjenek, Sunil Aryal
发布时间: 2025-02-27
来源: arxiv
研究方向: 推荐系统中的性别偏见检测与公平性增强
主要内容
本文研究了推荐系统中存在的性别偏见问题,并提出了一套新的评估指标来量化这种偏见。通过引入类别感知的公平性指标,并结合推荐损失函数进行训练,作者展示了如何有效减少模型输出中的偏见。实验在三个真实世界的数据集上进行,使用了五个基线模型和两个流行的公平性感知模型,验证了所提出指标的有效性。
主要贡献
1. 提出了一套新的评估指标,能够更细致地量化推荐系统中的性别偏见。
2. 通过引入类别感知的公平性指标作为正则化项,显著减少了模型输出中的偏见。
3. 在三个真实世界的数据集上验证了所提出指标的有效性,并展示了其在多个推荐模型中的应用。
4. 展示了如何在保持推荐性能的同时,显著提高推荐系统的公平性。
研究方法
1. 提出了类别覆盖率(Category Coverage, CC)和相对类别表示(Relative Category Representation, RCR)等非排序指标。
2. 引入了类别平均精度(Category Mean Average Precision, CMAP)、类别折扣累积增益(Category Discounted Cumulative Gain, CDCG)等排序指标。
3. 使用类别感知的公平性指标作为正则化项,结合推荐损失函数进行模型训练。
4. 在MovieLens 100K、MovieLens 1M和Yelp数据集上进行了广泛的实验验证。
实验结果
实验结果表明,所提出的指标能够有效捕捉推荐系统中的性别偏见,并且通过引入公平性正则化项,显著减少了模型输出中的偏见。特别是在NeuMF模型中,偏见减少了77%。此外,公平性正则化项在减少偏见的同时,对推荐性能的影响较小,保持了较高的推荐准确性。
未来工作
未来的工作可以扩展到多值敏感属性的公平性评估,进一步研究如何在推荐系统中平衡个性化与公平性。此外,还可以探索如何将这些指标应用于提供者公平性(Provider Fairness)和消费者-提供者公平性(CP-Fairness)的评估中。