InftyThink: Breaking the Length Limits of Long-Context Reasoning in Large Language Models
作者: Yuchen Yan, Yongliang Shen, Yang Liu, Jin Jiang, Mengdi Zhang, Jian Shao, Yueting Zhuang
研究方向: 大型语言模型(LLM)的推理能力与效率提升
本文提出了一种名为INFTYTHINK的新型推理范式,旨在解决大型语言模型在长文本推理中的计算效率问题。通过将长文本推理分解为多个短推理段,并在每段之间进行总结,INFTYTHINK实现了无限制的推理深度,同时保持了有限的计算成本。