Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing
作者: Shoumik Saha, Soheil Feizi
发布时间: 2025-02-25
来源: arxiv
研究方向: 人工智能文本检测与评估
主要内容
本文研究了使用大型语言模型(LLMs)进行文本生成,并评估了现有AI文本检测器在检测AI润色文本方面的性能。研究者创建了一个名为APT-Eval的数据集,包含经过不同程度AI润色的文本样本,并使用11种最先进的AI文本检测器进行评估。
主要贡献
1. 提出了APT-Eval数据集,用于评估AI文本检测器在检测不同程度AI润色文本时的性能。
2. 发现现有AI文本检测器在检测轻微润色文本时存在高误报率,且难以区分不同程度的AI润色。
3. 揭示了检测器对较旧或较小的LLMs存在偏见,以及在不同文本领域之间检测准确性的不一致性。
4. 强调了需要更细致的检测方法来应对AI辅助写作的挑战。
研究方法
1. 数据集构建:从现有的人类写作样本中创建AI润色版本,并调整AI/LLM的参与程度。
2. 检测器评估:使用11种最先进的AI文本检测器对APT-Eval数据集进行评估,包括基于模型、基于指标和商业系统。
3. 性能指标:分析检测器的分类准确性、误报率和领域特定敏感性。
实验结果
实验结果表明,现有AI文本检测器在检测轻微润色文本时存在高误报率,且难以区分不同程度的AI润色。检测器对较旧或较小的LLMs存在偏见,并在不同文本领域之间表现出检测准确性的不一致性。
未来工作
未来的研究应探索更细致的检测方法,包括自适应AI文本检测器,以区分不同程度的AI参与,并确保AI辅助写作评估的准确性和公平性。此外,需要评估更广泛的LLMs和更多领域的文本,以提高检测方法的泛化能力。