快速上手TensorRT搭建高性能推理模型,你需要听听英伟达专家怎么说

百家 作者:机器之心 2019-10-10 04:15:25

TensorRT 是 NVIDIA 推出的用于加速深度学习推理的开发工具。现已有大量的线上模型在它上面运行,实现了相比于原生框架最高近 10 倍的加速比,极大地提高了 GPU 的利用效率,降低了 GPU 的使用成本。不过,由于许多模型无法被原生框架彻底地转换到 TensorRT 上,需要手工搭建,所涉及的学习和时间成本让一些开发者望而却步,遗憾地失去了加速程序的机会。


为此,NVIDIA GPU 计算专家团队高级工程师季光博士将带来一场线上直播分享面向对深度学习和编程语言有基本了解的深度学习开发者,通过一个典型的深度学习模型作为例子,深入讲解利用 NVIDIA TensorRT 自由搭建各种模型的实用技巧,希望可以帮助开发者可以快速上手 TensorRT,独立地利用它加速自己的模型,获得丰厚的收益。


通过本次在线上分享,您将了解以下内容:


  • 如何利用 NVIDIA TensorRT 自由搭建各种模型

  • 独立地利用 NVIDIA TensorRT 加速模型


本次线上分享详情如下:


主题:利用 TensorRT 自由搭建高性能推理模型

日期:2019 年 10 月 16 日,星期三

时间:20:00-21:30


演讲嘉宾


季光 (Gary Ji)

NVIDIA GPU 计算专家团队高级工程师


季光博士毕业于中科院计算所,擅长领域为 GPU 加速的视频编解码以及深度学习模型推理。NVIDIA GPU 计算专家团队致力于为中国客户提供基于 GPU 系统的最快解决方案,工作内容涉及视频图像处理、语音识别和合成、自然语言处理、推荐系统等各个方面,通过代码优化、模型优化和 Pipeline 优化,提供端到端的解决方案。本团队开源了若干原型项目,帮助用户评估 GPU 可以带来的业务收益,并通过进一步开发集成,利用 GPU 为用户降低成本,提高效率。


点击阅读原文,立即报名。



Accelerating your future


NVIDIA GPU计算专家团队致力于为中国客户提供基于GPU系统的最快解决方案,工作内容涉及视频图像处理、语音识别和合成、自然语言处理、推荐系统等各个方面,通过代码优化、模型优化和Pipeline优化,提供端到端的解决方案。本团队开源了若干原型项目,帮助用户评估GPU可以带来的业务收益,并通过进一步开发集成,利用GPU为用户降低成本,提高效率。

关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接