欢迎来到 MMDeploy 的中文文档!¶ 点击页面左下角切换中英文。 快速上手 操作概述 流程简介 准备工作 安装 MMDeploy 模型转换 模型推理 模型精度评估 编译 源码安装 使用 Docker 镜像 运行和测试 如何转换模型 如何写模型转换配置 如何 Profile 模型 如何量化模型 更多工具介绍 Benchmark 模型支持列表 精度速度测试结果 边、端设备测试结果 量化测试结果 支持的算法框架 mmcls 模型支持列表 mmdet 模型支持列表 mmdet3d 模型支持列表 mmedit 模型支持列表 mmocr 模型支持列表 mmpose 模型支持列表 mmrotate 模型支持列表 mmseg 模型支持列表 支持的推理后端 ncnn 支持情况 onnxruntime 支持情况 OpenVINO 支持情况 PPLNN 支持情况 SNPE 支持情况 TensorRT 支持情况 TorchScript 支持情况 自定义算子 ncnn 自定义算子 onnxruntime 自定义算子 TRT 自定义算子 开发者指南 如何支持新的模型 如何支持新的后端 为推理 ops 添加测试单元 测试模型重写 如何拆分 onnx 模型 如何进行回归测试 实验特性 ONNX export Optimizer 新人解说 第一章:模型部署简介 第二章:解决模型部署中的难题 第三章:PyTorch 转 ONNX 详解 第四章:在 PyTorch 中支持更多 ONNX 算子 第五章:ONNX 模型的修改与调试 附录 Ubuntu18.04 交叉编译 NDK snpe 推理服务 常见问题 FAQ 语言切换 English 简体中文 API 文档 apis apis/tensorrt apis/onnxruntime apis/ncnn apis/pplnn Indices and tables¶ 索引 搜索页面