使用 Load and run debug 模型推理#

使用 MegEnigne 进行模型推理时,可能会因为各种原因导致推理时出现 bug。 Load and run 提供了一些选项用于推理时的 bug 排查。

获取模型输入输出 tensor 的简要信息#

有些情况下,不正确的模型输入会导致推理出现问题。 另外,还有可能出现部分模型的输入输出信息暂时未知。 这些情况下,可以使用 Load and run 提供的 --model-info 来查看模型输入输出信息。 具体使用方法如下:

load_and_run <model_path> --model-info

模型的输入输出信息会以表格的形式输出到终端:

+Runtime Model Info---------------+---------+
|  type  |  name  |     shape     |  dtype  |
+--------+--------+---------------+---------+
| INPUT  |  data  | {1,3,224,224} | float32 |
+--------+--------+---------------+---------+
| OUTPUT | fc.ADD |   {1,1000}    | float32 |
+--------+--------+---------------+---------+

主要包括输入输出的名称,shape 以及数据类型。

获取模型运行时 debug 信息#

部分模型在推理运行过程中会出现中断,报错等问题,为了更加方便的定位问题所在, Load and run 提供了设置 Megengine 内部 log 等级的选项 --verbose ,这一选项可以展示更多的运行时信息,辅助用户 debug。

load_and_run <model_path> --verbose

相关信息会输出到对应终端。大概信息如下:

[14 11:23:44 @:718][DEBUG] model feature: aligned=0 has_dtype_map=1 has_opr_priority=0 has_output_dtype=0
[14 11:23:44 @:159][DEBUG] create CompNode cpu0:0 from logical xpux:0
load model: 5.730ms
[14 11:23:44 @:816][DEBUG] opr seq of length 4: var_static=4 var_dynamic_shape=0 var_dynamic_storage=0 no_sys_alloc=0
[14 11:23:44 @:121][WARN] run testcase: 0
=== prepare: 0.109ms; going to warmup

[14 11:23:44 @:60][DEBUG] static memory allocation:
comp_node           alloc                      lower_bound         upper_bound
CompNode("cpu0:0" from "xpux:0")      0.00MiB(        64bytes)      0.00MiB(100.00%)      0.00MiB( 37.50%)
[14 11:23:44 @:73][DEBUG] static storage on CompNode("cpu0:0" from "xpux:0"): size=0.00MiB addr_range=[0x56088d820e00, 0x56088d820e40).
[14 11:23:44 @:385][DEBUG] static memory allocation: nr_opr=4 nr_var=4 realtime=0.10msec (plan0.08 alloc0.02)

使用时会输出存储分配,算法选择,推理优化等一些推理时的重要信息。

获取模型结构以及运行时显存相关信息#

直观的查看模型结构以及模型中各个算子运行时占用显存的大小,对于模型优化参考价值很大。Megengine 提供了模型以及静态显存可视化的工具,用于前述操作。

使用方法:

load_and_run <model_path>  --get-static-mem-info <staticMemInfoDir>

# view the graph with given url (usally: http://localhost:6006/)
mkdir <staticMemInfoDirLogs> &&  python3 imperative/python/megengine/tools/graph_info_analyze.py -i <staticMemInfoDir> -o <staticMemInfoDirLogs>
# pip3 install tensorboard
tensorboard --logdir <staticMemInfoDirLogs>