Triple Phase Transitions: Understanding the Learning Dynamics of Large Language Models from a Neuroscience Perspective

作者: Yuko Nakagi, Keigo Tada, Sota Yoshino, Shinji Nishimoto, Yu Takagi

发布时间: 2025-03-03

来源: arxiv

研究方向: 人工智能与神经科学交叉领域

主要内容

本研究通过分析大型语言模型(LLMs)的学习动态,揭示了LLMs在训练过程中出现的三个阶段性的相变现象,并从神经科学的角度对这种现象进行了深入解释。

主要贡献

1. 揭示了LLMs学习过程中存在的三个阶段性的相变现象,即脑对齐与指令跟随、脑脱离与停滞、脑重对齐与巩固。

2. 提出了从大脑编码分析、探查分析和基准分析三个角度综合分析LLMs学习动态的方法。

3. 通过将LLMs与人类大脑活动进行对比,揭示了LLMs学习动态与人类大脑活动之间的相似性。

4. 证明了训练数据对LLMs学习动态的影响,并强调了人类大脑活动在LLMs评估中的重要性。

研究方法

1. 大脑编码分析:通过将LLMs的激活与人类大脑活动进行比较,评估LLMs的激活与大脑活动之间的相似性。

2. 探查分析:通过评估线性模型从下游任务答案标签预测LLMs神经元激活的能力,研究LLMs内部表示在训练过程中的变化。

3. 基准分析:使用下游任务数据集评估LLMs在解决下游任务方面的能力。

4. 直接分析MLP激活:通过比较LLMs在训练过程中的激活性质,研究LLMs内部表示的变化。

实验结果

实验结果表明,LLMs在训练过程中存在三个阶段性的相变现象,即脑对齐与指令跟随、脑脱离与停滞、脑重对齐与巩固。在脑对齐与指令跟随阶段,LLMs开始遵循任务指令,其能力得到提升;在脑脱离与停滞阶段,LLMs的能力暂时停滞,但与大脑的相似性降低;在脑重对齐与巩固阶段,LLMs重新与大脑对齐,并最终获得解决下游任务的能力。

未来工作

未来可以进一步研究LLMs学习动态的内在机制,以及如何通过调整训练过程来优化LLMs的学习效果。此外,还可以将LLMs与人类大脑活动进行更深入的对比研究,以更好地理解LLMs的学习机制。