基于Transformer编码器的中文命名实体识别模型

被引:12
作者
司逸晨
管有庆
机构
[1] 南京邮电大学物联网学院
关键词
自然语言处理; 中文命名实体识别; Transformer编码器; 条件随机场; 相对位置编码;
D O I
10.19678/j.issn.1000-3428.0061432
中图分类号
TP391.1 [文字信息处理];
学科分类号
081203 ; 0835 ;
摘要
命名实体识别是自然语言处理中的重要任务,且中文命名实体识别相比于英文命名实体识别任务更具难度。传统中文实体识别模型通常基于深度神经网络对文本中的所有字符打上标签,再根据标签序列识别命名实体,但此类基于字符的序列标注方式难以获取词语信息。提出一种基于Transformer编码器的中文命名实体识别模型,在字嵌入过程中使用结合词典的字向量编码方法使字向量包含词语信息,同时针对Transformer编码器在注意力运算时丢失字符相对位置信息的问题,改进Transformer编码器的注意力运算并引入相对位置编码方法,最终通过条件随机场模型获取最优标签序列。实验结果表明,该模型在Resume和Weibo中文命名实体识别数据集上的F1值分别达到94.7%和58.2%,相比于基于双向长短期记忆网络和ID-CNN的命名实体识别模型均有所提升,具有更优的识别效果和更快的收敛速度。
引用
收藏
页码:66 / 72
页数:7
相关论文
共 9 条
[1]   基于BERT与Bi-LSTM融合注意力机制的中医病历文本的提取与自动分类 [J].
杜琳 ;
曹东 ;
林树元 ;
瞿溢谦 ;
叶辉 .
计算机科学, 2020, 47(S2) (S2) :416-420
[2]   融合字词模型的中文命名实体识别研究 [J].
殷章志 ;
李欣子 ;
黄德根 ;
李玖一 .
中文信息学报, 2019, 33 (11) :95-100+106
[3]   基于Word2Vec的神经网络协同推荐模型 [J].
张华伟 .
网络空间安全, 2019, 10 (06) :25-28
[4]   基于BiLSTM-CRF的商情实体识别模型 [J].
张应成 ;
杨洋 ;
蒋瑞 ;
全兵 ;
张利君 ;
任晓雷 .
计算机工程, 2019, 45 (05) :308-314
[5]   基于注意力机制的LSTM的语义关系抽取 [J].
王红 ;
史金钏 ;
张志伟 .
计算机应用研究, 2018, 35 (05) :1417-1420+1440
[6]  
基于Word2Vec的在线商品特征提取与文本分类研究[D]. 章跃琳.温州大学. 2019
[7]   Transformer Winding Deformation Detection Based on BOTDR and ROTDR [J].
Gao, Shuguo ;
Liu, Yunpeng ;
Li, Huan ;
Sun, Lu ;
Liu, Hongliang ;
Rao, Qun ;
Fan, Xiaozhou .
SENSORS, 2020, 20 (07)
[8]   LSTM-CRF for Drug-Named Entity Recognition [J].
Zeng, Donghuo ;
Sun, Chengjie ;
Lin, Lei ;
Liu, Bingquan .
ENTROPY, 2017, 19 (06)
[9]  
Efficient estimation of word representations in vector space .2 MIKOLOV T,CHEN K,CORRADO G,et al. https://arxiv. org/abs/1301.3781 . 2021