logo
  • 新手入门
  • 用户指南
  • API 参考
  • 开发者指南
  • 论坛
  • 官网
  • 如何安装 MegEngine
  • 用户迁移指南
  • 常见问题汇总

模型开发(基础篇)

  • 深入理解 Tensor 数据结构
  • 使用 Functional 操作与计算
  • 使用 Data 构建输入 Pipeline
  • 使用 Module 定义模型结构
  • Autodiff 基本原理与使用
  • 使用 Optimizer 优化参数
  • 保存与加载模型(S&L)
  • 使用 Hub 发布和加载预训练模型

模型开发(进阶篇)

  • 通过重计算节省显存(Recomputation)
  • 分布式训练(Distributed Training)
  • 量化(Quantization)
  • 自动混合精度(AMP)
  • 模型性能数据生成与分析(Profiler)
  • 使用 TracedModule 发版
  • 即时编译(JIT)

推理部署篇

  • 模型部署总览与流程建议
  • 使用 MegEngine Lite 部署模型
  • MegEngine Lite 使用接口
    • MegEngine Lite C++ 接口介绍
    • MegEngine Lite python 接口介绍
  • 使用 MegEngine Lite 部署模型进阶
  • 使用 Load and run 测试与验证模型

工具与插件篇

  • 参数和计算量统计与可视化
  • RuntimeOpr 使用说明
  • 自定义算子(Custom Op)
On this page
  • 文档目录
Edit this page

MegEngine Lite 使用接口¶

文档目录¶

  • MegEngine Lite C++ 接口介绍
    • Tensor 相关 API
    • Network 相关 API
    • Network Runtime 配置
    • Global 配置
  • MegEngine Lite python 接口介绍
    • LiteTensor 相关 API
    • LiteNetwork 相关 API
    • 全局设置相关 API
    • Utils API

上一页

MegEngine Lite Python 部署模型快速上手

下一页

MegEngine Lite C++ 接口介绍