Google开源BERT模型源代码

被引:12
作者
本刊讯
机构
关键词
D O I
暂无
中图分类号
TP391.1 [文字信息处理];
学科分类号
120506 [数字人文];
摘要
<正>近日, Google发布了包括"BERT模型资料库"。BERT是一种对语言表征进行预训练的方法,即是经过大型文本语料库(如维基百科)训练后获得的通用"语言理解"模型,该模型可用于自然语言处理下游任务(如自动问答)。BERT之所以表现得比过往的方法要好,是因为它是首个用于自然语言处理预训练的无监督、深度双向系统。
引用
收藏
页数:1
相关论文
empty
未找到相关数据