资源介绍
PaddleX -- 飞桨全流程开发工具,以低代码的形式支持开发者快速实现产业实际项目落地。
PaddleX 集成飞桨智能视觉领域图像分类、目标检测、语义分割、实例分割任务能力,将深度学习开发全流程从数据准备、模型训练与优化到多端部署端到端打通,并提供统一任务API接口及图形化开发界面Demo。开发者无需分别安装不同套件,以低代码的形式即可快速完成飞桨全流程开发。
PaddleX 经过质检、安防、巡检、遥感、零售、医疗等十多个行业实际应用场景验证,沉淀产业实际经验,并提供丰富的案例实践教程,全程助力开发者产业实践落地。
安装:
PaddleX提供三种开发模式,满足用户的不同需求:
1、Python开发模式:
通过简洁易懂的Python API,在兼顾功能全面性、开发灵活性、集成方便性的基础上,给开发者最流畅的深度学习开发体验。
前置依赖
paddlepaddle >= 1.8.4
python >= 3.6
cython
pycocotools
pip install paddlex -i https://mirror.baidu.com/pypi/simple
详细安装方法请参考PaddleX安装
2、Padlde GUI模式:
无代码开发的可视化客户端,应用Paddle API实现,使开发者快速进行产业项目验证,并为用户开发自有深度学习软件/应用提供参照。
前往PaddleX官网,申请下载PaddleX GUI一键绿色安装包。
前往PaddleX GUI使用教程了解PaddleX GUI使用详情。
PaddleX GUI安装环境说明
3、PaddleX Restful:
使用基于RESTful API开发的GUI与Web Demo实现远程的深度学习全流程开发;同时开发者也可以基于RESTful API开发个性化的可视化界面
前往PaddleX RESTful API使用教程
PaddleX 更新日志:
v2.0.0.rc0
全面支持飞桨2.0动态图,更易用的开发模式
目标检测任务新增PP-YOLOv2, COCO test数据集精度达到49.5%、V100预测速度达到68.9 FPS
目标检测任务新增4.2MB的超轻量级模型PP-YOLO tiny
语义分割任务新增实时分割模型BiSeNetV2
C++部署模块全面升级
PaddleInference部署适配2.0预测库
支持飞桨PaddleDetection、PaddleSeg、PaddleClas以及PaddleX的模型部署
新增基于PaddleInference的GPU多卡预测
GPU部署新增基于ONNX的的TensorRT高性能加速引擎部署方式
GPU部署新增基于ONNX的Triton服务化部署方式
Tags:PaddleX源码包
PaddleX2.0
pp飞桨
PaddleX