| 报告人 | 李娟 |
| 报告时间 | 2019-05-22 |
| 讨论组 | 语法理论与语言工程 |
| 关键词 | BERT, Transformer, GPT, Language Understanding |
| 摘要或简介 | BERT是谷歌发布的基于双向Transformer的大规模预训练语言模型,该预训练模型能高效抽取文本信息 并应用于各种NLP任务,在11项NLP任务取得了 SOTA的效果。 |
| 发布人 | 李娟 |
| 发布范围 | 讨论组内部 |
| 讨论记录 | |
| 下载次数 | 3 |
| 浏览次数 | 4096 |
© CCL of Peking University 2019