Defining bias in AI-systems: Biased models are fair models

作者: Chiara Lindloff, Ingo Siegert

发布时间: 2025-02-27

来源: arxiv

研究方向: 人工智能与算法公平性

主要内容

本文探讨了人工智能系统中“偏差”的概念,区分了技术偏差和社会偏差,并强调了在处理AI系统中的公平性问题时不应该将“无偏差”等同于“公平”。文章分析了偏差的历史和其在神经网络中的技术角色,同时探讨了“偏差”在日常语言中的社会概念。作者进一步讨论了“公平”的定义,指出真正的公平需要区分有害的歧视和公平的差异化。

主要贡献

1. 区分了技术偏差和社会偏差的概念。

2. 分析了“公平”的定义,并指出其与社会偏差的关系。

3. 强调了在处理AI系统中的公平性问题时,不应将“无偏差”等同于“公平”。

4. 提出了“公平”或“公平性”更准确的社会学定义,即追求公平差异化的“公平”或“公平性”。

研究方法

1. 文献综述

2. 概念分析

3. 案例研究

4. 比较分析

实验结果

本文并未进行实验,而是基于理论分析和案例研究来探讨问题。

未来工作

未来研究应进一步探讨如何有效地区分和缓解技术偏差和社会偏差,并开发出能够实现真正公平的AI系统。此外,还需要研究如何在社会层面推动AI系统的公平性,以及如何通过政策、法规和教育来提高公众对AI公平性的认识。