How Far are LLMs from Real Search? A Comprehensive Study on Efficiency, Completeness, and Inherent Capabilities

作者: Minhua Lin, Hui Liu, Xianfeng Tang, Jingying Zeng, Zhenwei Dai, Chen Luo, Zheng Li, Xiang Zhang, Qi He, Suhang Wang

发布时间: 2025-02-27

来源: arxiv

研究方向: 自然语言处理与搜索算法

主要内容

本文研究了如何将学习与搜索算法相结合,以提高大型语言模型(LLMs)在解决复杂问题时的效率和准确性。通过提出SEAL和SEAL-C框架,本文探索了如何利用LLMs的推理能力来指导搜索过程,并确保搜索的完整性和效率。

主要贡献

1. 分析了学习如何提高搜索效率,并提出了SEAL框架,该框架利用LLMs来提高搜索效率。

2. 扩展了SEAL框架以SEAL-C,确保了搜索的严格完整性。

3. 在三个真实世界的规划任务上评估了SEAL和SEAL-C,结果表明它们实现了近乎完美的准确性,同时将搜索空间减少了高达99.1%。

4. 探讨了LLMs离真实搜索有多远,发现通过结合系统搜索策略可以显著提高LLMs的解决问题能力。

5. 验证了SEAL方法的有效性,并强调了提高LLMs搜索能力以应用于真实世界应用的重要性。

研究方法

1. 比较了传统搜索方法和基于LLMs的搜索方法在代表性任务上的性能。

2. 提出了SEAL框架,该框架将学习集成到搜索算法中,以提高搜索效率。

3. 提出了SEAL-C,一个确保严格完整性的变体。

4. 在三个真实世界的规划任务上评估了SEAL和SEAL-C。

5. 研究了LLMs如何通过自身发展搜索能力。

实验结果

SEAL在三个规划任务上实现了近乎完美的通过率,同时将搜索空间减少了高达99.1%。SEAL-C确保了严格的完整性,同时在效率上与SEAL相当。实验结果表明,现有的LLMs在解决复杂任务时效率低下,需要改进它们的搜索能力。

未来工作

未来的工作将集中在如何使LLMs更好地进行自我搜索,进一步释放它们在解决复杂问题方面的潜力。