| 报告人 | 唐乾桐 |
| 报告时间 | 2019-05-29 |
| 讨论组 | 语法理论与语言工程 |
| 关键词 | Attention;Transformer;Analysis Methods;可解释性;深度学习 |
| 摘要或简介 | Google Brain两年前提出的Transformer,至今仍是nlp界的宠儿,时下各种state-of-the-art的模型都基于他们。 Attetion和Transformer究竟是什么?语言学在这里有没有用武之地?本报告想着重谈这两点。 |
| 发布人 | Ford |
| 发布范围 | 全网 |
| 讨论记录 | |
| 下载次数 | 7145 |
| 浏览次数 | 8188 |
© CCL of Peking University 2019