首页
资源下载
云计算
人工智能
信息化管理
前端
区块链
后端
大数据
存储
安全技术
开发技术
操作系统
数据库
服务器应用
游戏开发
物联网
硬件开发
移动开发
网络技术
考试认证
行业
行业研究
课程资源
跨平台
音视频
登录
注册
当前位置:
主页
>
资源下载
>
46
> 高性能DNN推理能够被TENSORRT轻松部署
高性能DNN推理能够被TENSORRT轻松部署
更新:
2024-12-11 23:52:38
大小:
1.28MB
推荐:
★★★★★
来源:
网友上传分享
类别:
深度学习 - 人工智能
格式:
PDF
反馈 / 投诉
文件下载
资源介绍
TensorRT 是 NVIDIA 推出的专门加速深度学习推理的开发工具。利用 TensorRT, 您可以快速、高效地在 GPU 上部署基于深度学习的应用。 我们首先会介绍 TensorRT 的基本功能和用法,例如它的优化技巧和低精度加速。其次, 结合我们实际使用过程中的经验,详细介绍 TensorRT 的难点:Plugin 机制。最后,我们会分享几个 TensorRT 成功应用案例
上一篇:
pytorch-YOLOv4:YOLOv4的PyTorch,ONNX和TensorRT实现
下一篇:
trtorch-0.4.0-cp37-cp37m-linux_x86_64.whl
相关推荐
12-02
高性能DNN推理能够被TENSORRT轻松部署