ExKG-LLM: Leveraging Large Language Models for Automated Expansion of Cognitive Neuroscience Knowledge Graphs

作者: Ali Sarabadani, Kheirolah Rahsepar Fard, Hamid Dalvand

发布时间: 2025-03-11

来源: arxiv

研究方向: 认知神经科学知识图谱自动扩展

主要内容

本文提出了一种名为ExKG-LLM的框架,旨在利用大型语言模型(LLM)自动扩展认知神经科学知识图谱(CNKG)。该框架通过从科学论文和临床报告中提取知识,提高CNKG的准确性、完整性和实用性。

主要贡献

1. 提出了ExKG-LLM框架,利用LLM自动扩展CNKG。

2. 显著提高了CNKG的精度、召回率和F1分数。

3. 增加了节点和边的数量,提高了图谱的密度。

4. 分析了复杂网络特征,如平均聚类系数和直径。

5. 提高了时间复杂度,但空间复杂度有所增加。

6. 提高了知识图谱的适用性,使其可用于其他科学领域。

研究方法

1. 收集和预处理认知神经科学数据。

2. 使用LLM提取和合并新的实体和关系。

3. 利用概率链接预测来推断实体之间的关系。

4. 评估了知识图谱的精度、完整性和性能。

5. 分析了复杂网络特征,如平均聚类系数和直径。

实验结果

ExKG-LLM在精度、召回率和F1分数方面均取得了显著提高。节点和边的数量也有所增加,但图谱的密度略有下降。时间复杂度从O(n^2)优化为O(nlogn),但空间复杂度从O(n)增加到O(n^2)。

未来工作

未来工作将集中于提高知识图谱的一致性、减少冲突率、优化空间复杂度、改进链接预测算法、提高可扩展性,并探索知识图谱在更多科学领域的应用。