TensorFlow集成TensorRT环境配置
本文前提是cuda和cudnn以及TensorRT已经安装完毕,具体详情,可以参考上一篇文章:
https://developer.nvidia-china.com/forum.php?mod=viewthread&tid=8767&extra=page%3D1
TensorRT下载地址:
https://developer.nvidia.com/nvidia-tensorrt-download
TesnsoRT的介绍文档:
https://devblogs.nvidia.com/tensorrt-3-faster-tensorflow-inference/
TensorRT的开发者指南:
http://docs.nvidia.com/deeplearning/sdk/tensorrt-developer-guide/index.html
TensorRT的样例代码:
http://docs.nvidia.com/deeplearning/sdk/tensorrt-developer-guide/index.html#samples
当前的系统环境是:
Ubuntu 16.04
CUDA 9.0
CUDNN 7.1
TensorRT 4.0
1. 首先从TensorFlow的官方github上下载TensorFlow:
sudo apt-get install git
git clone https://github.com/tensorflow/tensorflow
2.安装TensorFlow的依赖库:
sudo apt-get install python-numpyswigpython-dev python-wheel
3.运行下载下来的TensorFlow中的./configure文件来配置环境:
这里有几个地方需要注意,在选择是否支持cuda,cudnn和TensorRT的时候要记得选择yes,并根据您的安装环境,配置好路径,否则后面会报错。
特别是cuda,cudnn和TensorRT的版本的时候,一定要仔细,否则后面会浪费很多时间。
当前我的系统配置的是CUDA 9.0 + CuDNN7.1 + TensorRT4.0
其他的配置看自己的需求。
4.通过bazel来编译pip的安装包,然后通过pip安装
这里的—config=opt 后面有一个空格
bazel build --config=cuda --config=opt //tensorflow/tools/pip_package:build_pip_package
bazel-bin/tensorflow/tools/pip_package/build_pip_package /tmp/
然后在tmp下面可以看到pip安装所需要.whl文件
sudo pip install /tmp/tensorflow_pkg/tensorflow-1.2.0rc2-cp27-cp27mu-linux_x86_64.whl
直接安装即可。
如果你想测试一下效果,可以在这里下载一段测试代码:
https://developer.download.nvidia.com/devblogs/tftrt_sample.tar.xz
测试结果是这样的:
AI科技大本营现招聘AI记者和资深编译,有意者请将简历投至:gulei@csdn.net,期待你的加入!
AI科技大本营读者群(计算机视觉、机器学习、深度学习、NLP、Python、AI硬件、AI+金融、AI+PM方向)正在招募中,和你志同道合的小伙伴也在这里!关注AI科技大本营微信公众号,后台回复:读者群,添加营长请务必备注姓名,研究方向。
☟☟☟点击 | 阅读原文 | 查看更多精彩内容
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
随时掌握互联网精彩
- 1 注重家庭 注重家教 注重家风 7993780
- 2 春晚零点倒计时 任鲁豫救场 7946383
- 3 申公豹 丑强惨 7821723
- 4 色彩里的春节 7733099
- 5 给撒贝宁画眉毛的人找到了 7674219
- 6 王菲春晚含泪 被曝父母哥哥均已离世 7543191
- 7 刘涛春晚拉萨分会场吸氧好拼 7454157
- 8 中方要求美方尽快查明撞机事故原因 7322918
- 9 900多块压岁钱发出了10万的感觉 7260435
- 10 春节 中国人的特别记忆 7190347