Defining bias in AI-systems: Biased models are fair models
作者: Chiara Lindloff, Ingo Siegert
发布时间: 2025-02-27
来源: arxiv
研究方向: 人工智能与算法公平性
主要内容
本文探讨了人工智能系统中“偏差”的概念,区分了技术偏差和社会偏差,并强调了在处理AI系统中的公平性问题时不应该将“无偏差”等同于“公平”。文章分析了偏差的历史和其在神经网络中的技术角色,同时探讨了“偏差”在日常语言中的社会概念。作者进一步讨论了“公平”的定义,指出真正的公平需要区分有害的歧视和公平的差异化。
主要贡献
1. 区分了技术偏差和社会偏差的概念。
2. 分析了“公平”的定义,并指出其与社会偏差的关系。
3. 强调了在处理AI系统中的公平性问题时,不应将“无偏差”等同于“公平”。
4. 提出了“公平”或“公平性”更准确的社会学定义,即追求公平差异化的“公平”或“公平性”。
研究方法
1. 文献综述
2. 概念分析
3. 案例研究
4. 比较分析
实验结果
本文并未进行实验,而是基于理论分析和案例研究来探讨问题。
未来工作
未来研究应进一步探讨如何有效地区分和缓解技术偏差和社会偏差,并开发出能够实现真正公平的AI系统。此外,还需要研究如何在社会层面推动AI系统的公平性,以及如何通过政策、法规和教育来提高公众对AI公平性的认识。