融合语义和结构信息的知识图谱实体对齐

被引:14
作者
苏佳林 [1 ,2 ]
王元卓 [1 ]
靳小龙 [1 ]
李曼玲 [1 ]
程学旗 [1 ]
机构
[1] 中国科学院计算技术研究所中国科学院网络数据科学与技术重点实验室
[2] 中国科学院大学计算机与控制学院
基金
国家重点研发计划;
关键词
知识图谱; 联合表示学习; 协同训练; 实体对齐;
D O I
暂无
中图分类号
TP391.1 [文字信息处理]; TP18 [人工智能理论];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ;
摘要
实体对齐能够发现不同知识图谱实体间的对齐关系,是多源知识融合的基础。现有的基于知识表示学习的方法依赖大量标注数据,且并未利用知识图谱中属性等结构化信息,限制了实体对齐的效果。针对这个问题,文章提出融合语义和结构信息的实体对齐方法,使用协同训练(Cotraining)框架,将特征分为语义视角和结构视角,在两个视角下分别训练基于两个图谱联合表示学习(Joint Embedding)的实体对齐模型,并不断选出最可信的实体对齐结果用于辅助另一视角下模型的训练,实现语义和结构信息的融合,从而提升实体对齐的效果。同时,提出使用属性强约束,限制协同训练过程中产生的漂移。实验证明,与传统方法相比,该方法在准确率和F1值上都有提升。
引用
收藏
页码:23 / 30
页数:8
相关论文
empty
未找到相关数据