不久之前,计算机视觉三大国际顶级会议之一的 ECCV 2020 论文接收结果公布。今年 ECCV 有效投稿 5025 篇,最终被接收发表论文 1361 篇,接收率为 27%。在接收论文中,oral 的论文数为 104 篇,占有效投稿总数的 2%,spotlight 的数目为 161 篇,比例约为 3%。
今年 ECCV 原定于 2020 年 8 月 23-28 日在英国格拉斯哥举行,但和众多学术会议一样,受疫情影响,ECCV 2020 将完全以虚拟方式线上进行。为向读者们分享更多 ECCV 2020 优质内容,在此大会开幕之前,机器之心将策划多期线上分享。这是机器之心 ECCV 2020 线上分享的第二期,我们邀请到香港理工大学 (HK PolyU) 计算学系在读博士、阿里巴巴达摩院视觉计算组研究型实习生雍宏巍为我们分享 Oral 论文《Gradient Centralization: A New Optimization Technique for Deep Neural Networks》。在此论文中,研究者们提出了一种梯度中心化的神经网络优化策略。
分享主题:基于权重约束和梯度约束的深度学习优化策略讲者简介:雍宏巍,香港理工大学 (HK PolyU) 计算学系在读博士,西安交通大学 (XJTU) 应用数学系硕士。目前在阿里巴巴达摩院视觉计算组研究型实习生,从事深度学习方面的基础研究工作。主要的研究方向包括神经网络的优化算法,优化技巧和训练策略等。对于深度神经网络,好的优化策略和优化技巧往往可以加速训练并且提升泛化性能。优化过程中对权重和其梯度进行合适的约束往往可以取得更好的优化效果。本讲座首先分享现有的深度学习优化问题中权重和梯度的约束方法和其求解策略,然后重点介绍 ECCV 的 oral 论文《Gradient Centralization: A New Optimization Technique for Deep Neural Networks》。文章提出了一种梯度中心化的神经网络优化策略。通过对神经网络的权重的梯度进行中心化,来加速优化算法的收敛速度并且提升泛化性能。理论上,梯度中心化的方法可以被看成是一种梯度投影的方法,其可以提升目标函数的利普西斯性,同时约束权重的优化范围,在多个实际应用中,包括图像分类,检测分割等,梯度中心化测试都可以更快更好的优化我们的神经网络,进而得到更好的泛化性能。直播时间:北京时间 8 月 20 日 20:00—21:00添加机器之心小助手(syncedai5),备注「ECCV」,进群一起看直播。PS:如本小助手无法添加,请添加小助手的兄弟姐妹们:syncedai2、syncedai3、syncedai4、syncedai6。或者将「微信 ID」发送邮件到 shidongle@jiqizhixn.com,我们将与你联系,邀你入群。
机器之心曾组织了「强化学习」、「机器学习入门」等主题的互助式学习小组,邀请志同道合的朋友们一起分享优质资料、研习经典教材、阅读与复现论文、讨论难点问题,帮助大家加对知识的理解与对行业的认知。现在,研学社再次开启招募。我们将持续关注顶会重要论文、热点研究进展、技术实践方法,邀请相关论文作者、技术大牛在线分享,同时也将不定期为大家提供赠书、优质工作机会等福利。机器之心研学社第一期:ECCV 2020,添加机器之心小助手,备注「ECCV」即可加入。在 ECCV 2020 收录的大量优秀论文中,你最关注哪一篇?欢迎在评论区留言,我们将全力邀请论文作者为大家分享。同时,如果你的论文被 ECCV 2020 接收,欢迎向我们投稿,联系邮箱 shidongle@jiqizhixin.com。关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/