NLP转折之战!再不学Transformer就晚了
都2020年了,你还在用RNN、CNN?Transformer了解一下!
在Transformer之前,我们一般使用RNN 和CNN来作为编解码器,但RNN无法并行计算,模型效率十分低。虽然你也可以用CNN替换RNN,达到并行的效果,但是CNN需要堆叠多层的卷积层,导致模型过于冗杂。
这时候,Transformer模型就“横空出世”了,它不仅能够并行,并且可以考虑到输入序列不同token的权重。
就连工程能力世界顶级的 Google,也将基于Transformer的算法引入其核心搜索产品中。可以预见,Transformer很快就会成为NLP里担当大任的最主流的特征抽取器。
现在,我们邀请了前IBM数据科学家张楠老师,带你进入Transformer的世界,为你详解为你详解为Transformer模型必学必会的底层基础、算法推演以及模型优势。
这次公开课超级适合想要了解算法基础的同学,入门级难度,夯实你的能力,为进一步的学习做好准备!
限时早鸟价:9.8元
(原价:¥299元)
入门Transformer模型,了解算法基础
仅限前200人
↓ ↓ ↓
1小时带你迅速入门Transformer,前IBM数据科学家带你迅速掌握以下知识:
1、大规模预训练模型的底层基础
2、Transformer特征提取器的算法推演
3、你还在用RNN、CNN么,Transformer的优势在哪里
金牌讲师带你学习
张楠
曾先后就职于百度、IBM
人工智能算法工程师、数据科学家
对于自然语言处理技术在ToB和Toc领域的应用有着非常丰富的理解和经验
公开课详情
上课内容:
《NLP转折之战!无所不能的Transformer》
上课时间:
3月11日(周三)晚8点
限时早鸟价:9.8元
(原价:¥299元)
入门Transformer模型,了解算法基础
仅限前200人
赶紧长按二维码进入学习群吧
↓ ↓ ↓
更多AI工程师成长规划、BAT大厂面试技巧等干货,直播等你来聊!