报告人 | 李娟 |
报告时间 | 2019-05-22 |
讨论组 | 语法理论与语言工程 |
关键词 | BERT, Transformer, GPT, Language Understanding |
摘要或简介 | BERT是谷歌发布的基于双向Transformer的大规模预训练语言模型,该预训练模型能高效抽取文本信息 并应用于各种NLP任务,在11项NLP任务取得了 SOTA的效果。 |
发布人 | 李娟 |
发布范围 | 讨论组内部 |
讨论记录 | |
下载次数 | 3 |
浏览次数 | 4050 |
© CCL of Peking University 2019