中国科大新成果入选 ICLR 2025:特定领域仅用 5% 训练数据,知识准确率提升 14%
有新的方法让大语言模型更好地掌握特定领域的知识!
中国科学技术大学 MIRA 实验室的王杰教授团队提出了一种创新框架 —— 知识图谱驱动的监督微调(KG-SFT),此框架通过引入知识图谱(KG)来增强大语言模型(LLMs)在特定领域内的知识理解与处理能力。
实验结果显示,在多个领域及语言的数据集上均取得了显著效果,成功入围 ICLR 2025。
当前,LLMs 在常识问答方面的表现日益突出,但在领域知识的理解和推理能力上仍然存在局限。
由于不易深入理解专业领域问答背后的复杂知识及逻辑关系,面对这类问题时常无法提供准确解答和详细推理过程,这极大限制了其在专业领域的应用潜力。
尤其在数据稀缺与知识密集型场景中,如何使 LLMs 更加理解和运用知识,已成为研究的关键。
中科大 MIRA 实验室的这一研究正是围绕这一问题展开的。
KG-SFT 的工作原理
KG-SFT 针对 LLMs 对领域问答背后知识和逻辑的理解不足,产生了基于知识图谱强化的大语言模型监督微调技术。
KG-SFT 首先解析领域知识图谱中的多条推理路径,设计推理路径与文本推理过程的联合生成机制,使 LLMs 在监督微调中能够同时给出推理答案及包含丰富领域知识和逻辑关系的推理过程,从而提升对领域知识的理解与推理能力。
KG-SFT 的核心在于结合知识图谱与监督微调,通过生成背后逻辑严密的推理过程解释,来增强 LLMs 对知识和逻辑的理解。
该框架由三个关键组件构成:
-
提取器(Extractor)
-
生成器(Generator)
-
检测器(Detector)
1、Extractor:精准提取知识关联
提取器首先识别问答对(Q&A)中的实体,并从外部知识图谱中提取相关推理子图。
这一步骤揭示了 Q&A 背后的知识关联和逻辑,为后续的解释生成奠定了基础。
通过命名实体识别(NER)和多条推理路径的检索,提取器能够有效从大规模知识图谱中发掘与问题相关的知识。
2、Generator:生成流畅的解释
生成器利用图结构重要性评分算法(如 HITS 算法)对推理子图中的实体和关系进行评分,选择高分部分作为重要内容。
且利用大型语言模型(如 ChatGPT)生成通顺的解释草稿。
这些解释不仅逻辑清晰,还能帮助 LLMs 更好理解问题与答案之间的关系。
3、Detector:确保解释的正确性
检测器对生成的解释草稿进行句子级的知识冲突检测,确保解释的真实性。
采用自然语言推理(NLI)模型(如 DeBERTa)和重新引导机制,检测器能够标记并纠正可能的知识冲突,提高解释的可靠性。
实验结果及创新点
实验结果表明,KG-SFT 在多个领域和语言设置中均实现了显著性能提升。
特别是在数据稀少的医学问答任务上,KG-SFT 在英语场景中只用5% 的训练数据便比传统方法提升了近 14% 的准确率。
从创新角度看,KG-SFT 不仅关注数据量,还强调数据质量。
通过生成高质量解释,KG-SFT 帮助 LLMs 更有效理解和运用知识,从而在特定领域实现更佳性能。
此外,KG-SFT 还可作为插件式模块结合现有的数据增强方法,进一步提升效果。
在多个领域数据集上的实验结果进一步证明了 KG-SFT 的广泛适用性。
尽管在某些需要复杂推理的领域(如形式逻辑和专业会计)中略显不足,但整体性能仍展现出强劲竞争力。
总体来看,KG-SFT 框架通过结合知识图谱与 LLMs,有效提高了监督微调数据的质量,从而显著增强了 LLMs 在特定领域的表现。
此方法在低数据场景中的优异表现,同时还展示了其作为插件式模块与现有数据增强技术结合的潜力。
论文的第一作者陈瀚铸是中国科学技术大学 2021 级硕博连读生,师从王杰教授,从事大语言模型、知识图谱和推理数据合成等领域的研究。
欲了解更多细节,请查阅原论文。
论文地址:
https://openreview.net/pdf?id=oMFOKjwaRS
本文摘自微信公众号:量子位(ID:QbitAI),作者:KG-SFT 团队,原标题《中科大 ICLR2025:特定领域仅用 5% 训练数据,知识准确率提升 14%》