自然语言处理中的预训练范式

被引:17
作者
冯志伟 [1 ,2 ]
李颖 [1 ]
机构
[1] 杭州师范大学外国语学院
[2] 黑龙江大学俄罗斯语言文学与文化研究中心
关键词
自然语言处理; 范式; 预训练模型; 迁移学习; 注意力机制; 微调;
D O I
10.13978/j.cnki.wyyj.2021.01.001
中图分类号
TP391.1 [文字信息处理];
学科分类号
摘要
从2017年以来,自然语言处理中提出了"预训练+微调+师生学习"的新范式。这种新范式是自然语言处理的第四代范式,它代表着自然语言处理未来发展的方向。本文讨论自然语言处理中的这种新范式,分别介绍迁移学习、预训练、微调的原理和方法,并说明它们在Transformer、BERT、UniLM和Unicoder等模型中的应用。
引用
收藏
页码:1 / 14+112 +112
页数:15
相关论文
共 9 条