基于语言模型的预训练技术研究综述

被引:52
作者
岳增营
叶霞
刘睿珩
机构
[1] 火箭军工程大学作战保障学院
关键词
自然语言处理; 预训练; 语言模型;
D O I
暂无
中图分类号
TP391.1 [文字信息处理];
学科分类号
摘要
预训练技术当前在自然语言处理领域占有举足轻重的位置。尤其近两年提出的ELMo、GTP、BERT、XLNet、T5、GTP-3等预训练模型的成功,进一步将预训练技术推向了研究高潮。该文从语言模型、特征抽取器、上下文表征、词表征四个方面对现存的主要预训练技术进行了分析和分类,并分析了当前自然语言处理中的预训练技术面临的主要问题和发展趋势。
引用
收藏
页码:15 / 29
页数:15
相关论文
共 18 条
  • [1] 注意力机制在深度学习中的研究进展
    朱张莉
    饶元
    吴渊
    祁江楠
    张钰
    [J]. 中文信息学报, 2019, 33 (06) : 1 - 11
  • [2] 基于CNN与双向LSTM的中文文本蕴含识别方法
    谭咏梅
    刘姝雯
    吕学强
    [J]. 中文信息学报, 2018, (07) : 11 - 19
  • [3] Unicoder-VL: A Universal Encoder for Vision and Language by Cross-Modal Pre-Training[J] . Gen Li,Nan Duan,Yuejian Fang,Ming Gong,Daxin Jiang.Proceedings of the AAAI Conference on Artificial Intelligence . 2020 (07)
  • [4] Symbolic, Distributed, and Distributional Representations for Natural Language Processing in the Era of Deep Learning: A Survey[J] . Ferrone Lorenzo,Zanzotto Fabio Massimo.Frontiers in Robotics and AI . 2020
  • [5] UNITER: Learning UNiversal Image-TExt Representations[J] . Yen-Chun Chen,Linjie Li,Licheng Yu,Ahmed El Kholy,Faisal Ahmed,Zhe Gan,Yu Cheng,Jingjing Liu.CoRR . 2019
  • [6] RoBERTa: A Robustly Optimized BERT Pretraining Approach[J] . Yinhan Liu,Myle Ott,Naman Goyal,Jingfei Du,Mandar Joshi,Danqi Chen,Omer Levy,Mike Lewis,Luke Zettlemoyer,Veselin Stoyanov.CoRR . 2019
  • [7] DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter[J] . Victor Sanh,Lysandre Debut,Julien Chaumond,Thomas Wolf.CoRR . 2019
  • [8] Multi-Task Deep Neural Networks for Natural Language Understanding[J] . Xiaodong Liu,Pengcheng He,Weizhu Chen,Jianfeng Gao.CoRR . 2019
  • [9] Distilling Task-Specific Knowledge from BERT into Simple Neural Networks[J] . Raphael Tang,Yao Lu,Linqing Liu,Lili Mou,Olga Vechtomova,Jimmy Lin.CoRR . 2019
  • [10] Unicoder: A Universal Language Encoder by Pre-training with Multiple Cross-lingual Tasks[J] . Haoyang Huang,Yaobo Liang,Nan Duan,Ming Gong,Linjun Shou,Daxin Jiang,Ming Zhou 0001.CoRR . 2019