CVPR 2020线上分享 | 腾讯如何做不完美场景下的神经网络优化?
内容简介:深度学习的成功得益于大量的数据和很深的网络模型。然而数据和模型往往不会特别理想,比如数据里存在着很多标签噪音或者考虑到模型的推理速度,神经网络的层数不能够特别深。针对这些情况如何有效的训练神经网络是深度学习领域的热点话题。特别是对于业务场景,数据往往存在很多缺陷,让模型能够自适应的从缺陷数据里学习是业务成功的保障。本次讲座将细致地讲解数据和模型缺陷情况下神经网络的有效训练方法。相关技术已经在腾讯的众多业务场景上(行人重识别,内容审核等)落地。
直播时间:北京时间 5 月 13 日 19:00-20:00
Robust Loss Functions under Label Noise for Deep Neural Networks, AAAI2017
Generalized Cross Entropy Loss for Training Deep Neural Networks with Noisy Labels, NeurlPS 2018
LDMI: A Novel Information-theoretic Loss Function for Training Deep Nets Robust to Label Noise, NeurlPS 2019
Peer Loss Functions: Learning from Noisy Labels without Knowing Noise Rates (under review)
Co-teaching: Robust Training of Deep Neural Networks with Extremely Noisy Labels, NeurlPS 2018
Deep Self-Learning from Noisy Labels, ICCV 2019
Asymmetric Co-Teaching for Unsupervised Cross-Domain Person Re-Identification, AAAI 2020
Combining labeled and unlabeled data with co-training, ACM 1998
Deep Mutual Learning, CVPR2018
Filter Grafting for Deep Neural Networks, CVPR 2020
DGD: Densifying the Knowledge of Neural Networks with Filter Grafting and Knowledge Distillation (under review)
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
随时掌握互联网精彩
- 1 共绘亚太下一个“黄金三十年” 7978547
- 2 山里藏价值6000亿元黄金?村民发声 7907144
- 3 微信或史诗级“瘦身” 内存有救了 7873723
- 4 中国主张成为G20峰会的一抹亮色 7729780
- 5 朝鲜将军队提升至战斗准备状态 7685211
- 6 男生解锁“滑步下泰山”技能 7597568
- 7 带96岁母亲酒店养老遭拉黑 男子发声 7469415
- 8 女教师被指出轨学生 校方通报 7365295
- 9 《小巷人家》全员告别 7272089
- 10 千年古镇“因网而变、因数而兴” 7162813