Transformer研究概述

被引:1
作者
谢亦才
机构
[1] 赣南师范学大学数学与计算机科学学院
关键词
Transformer; 架构修改; 预训练;
D O I
10.14004/j.cnki.ckt.2022.0194
中图分类号
TP18 [人工智能理论];
学科分类号
081104 ; 0812 ; 0835 ; 1405 ;
摘要
Transformer在自然语言处理、计算机视觉和音频处理等人工智能领域取得了巨大的成功。学术界和产业界研究者设计出了各种各样的Transformer(又称X-formers)。然而,关于这些Transformer的系统全面的文献综述仍然缺乏。在本综述中,首先简要介绍了vanilla Transformer,然后提出了一种新的X-formers分类法。接下来,从架构修改、预训练和应用三个角度介绍了各种X-former。最后,概述了未来研究的一些潜在方向。
引用
收藏
页码:84 / 86
页数:3
相关论文
共 2 条
  • [1] Pre-trained models for natural language processing: A survey[J]. QIU XiPeng,SUN TianXiang,XU YiGe,SHAO YunFan,DAI Ning,HUANG XuanJing.Science China(Technological Sciences). 2020(10)
  • [2] Low-Rank and Locality Constrained Self-Attention for Sequence Modeling
    Guo, Qipeng
    Qiu, Xipeng
    Xue, Xiangyang
    Zhang, Zheng
    [J]. IEEE-ACM TRANSACTIONS ON AUDIO SPEECH AND LANGUAGE PROCESSING, 2019, 27 (12) : 2213 - 2222