Bert在中文阅读理解问答中的应用方法

被引:6
作者
蔡鑫怡
姜威宇
韩浪焜
宗鸿伟
机构
[1] 江苏警官学院
关键词
深度学习; 自然语言处理; 神经网络;
D O I
暂无
中图分类号
TP391.1 [文字信息处理]; TP183 [人工神经网络与计算];
学科分类号
摘要
针对各种自然语言处理问题,语义分析是所有任务的基础。如果按照细粒度对语义分析进行分类,可分为词块级、句子级、篇章级,前一级决定了后一级的性能优劣。由于少有大规模的中文语义语料库,故笔者将模型处理语义能力的优劣直接投射到对中文问答语料的处理能力上,选用了Bert模型。
引用
收藏
页码:39 / 40
页数:2
相关论文
共 4 条
  • [1] 统计自然语言处理[M]. 清华大学出版社 , 宗成庆, 2013
  • [2] Long short-term memory
    Hochreiter, S
    Schmidhuber, J
    [J]. NEURAL COMPUTATION, 1997, 9 (08) : 1735 - 1780
  • [3] Universal Language Model Fine-Tuning for Text Classification .2 Howard J,Ruder S. . 2018
  • [4] Attention Is All You Need .2 VASWANI A,SHAZEER N,PARMAR N,et al. . 2017