Transformer变体为何无法应用于多种任务?谷歌:这些架构更改不能有效迁移
来自 Google Research 的研究人员探索了多个 transformer 变体,发现它们无法在多个实现和应用中实现很好地迁移,大多数架构更改无法有效提升性能。
透明注意力:沿着编码器路径创建加权残差连接,以加速梯度流;
进化 Transformer:通过基于进化的架构搜索来设计模型,其中初始群体的种子是原版 transformer;
合成器变体:用「合成注意力」替代自注意力;
漏斗 Transformer:渐进式地减少序列长度,以高效编码输入序列;
稀疏专家 Transformer:用稀疏激活专家层替代前馈网络;
通用 Transformer:对输入序列重复应用相同的 transformer「模块」。
建新·见智 —— 2021亚马逊云科技 AI 在线大会
4月22日 14:00 - 18:00
识别二维码或点击阅读原文,免费报名看直播。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:content@jiqizhixin.com
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
关注网络尖刀微信公众号
随时掌握互联网精彩
随时掌握互联网精彩
赞助链接
排名
热点
搜索指数
- 1 习近平拉美之行的三个“一” 7938602
- 2 山里藏价值6000亿元黄金?村民发声 7973799
- 3 微信或史诗级“瘦身” 内存有救了 7853964
- 4 中国主张成为G20峰会的一抹亮色 7700372
- 5 朝鲜将军队提升至战斗准备状态 7667564
- 6 广东潮汕现“关门潮”?社区回应 7560900
- 7 女教师被指出轨学生 校方通报 7432401
- 8 美元创下一年来最长连涨纪录 7378028
- 9 带96岁母亲酒店养老遭拉黑 男子发声 7224786
- 10 千年古镇“因网而变、因数而兴” 7126008