报告人 | 唐乾桐 |
报告时间 | 2019-05-29 |
讨论组 | 语法理论与语言工程 |
关键词 | Attention;Transformer;Analysis Methods;可解释性;深度学习 |
摘要或简介 | Google Brain两年前提出的Transformer,至今仍是nlp界的宠儿,时下各种state-of-the-art的模型都基于他们。 Attetion和Transformer究竟是什么?语言学在这里有没有用武之地?本报告想着重谈这两点。 |
发布人 | Ford |
发布范围 | 全网 |
讨论记录 | |
下载次数 | 7008 |
浏览次数 | 7986 |
© CCL of Peking University 2019