megengine.distributed

>>> import megengine.distributed as dist

backend

Get or set backend of collective communication.

分组(Group)

Server

Distributed Server for distributed training.

Group

包含运行集群通信的排名节点 (看 distributed).

init_process_group

初始化分布式进程组,并且指定在当前进程中使用的设备。

new_group

构造一个包含特定序号的子通信组。

group_barrier

阻止调用,直到组中的所有进程达到这个障碍点。

override_backend

Override distributed backend

is_distributed

如果分布式进程组已完成初始化则返回True。

get_backend

获取字符串形式表示的后端。

get_client

获取 python XML RPC 服务器的客户端。

get_mm_server_addr

获取 C++ mm_server 的主机IP和端口。

get_py_server_addr

获取 python XML RPC 服务器的主机IP和端口。

get_rank

返回当前进程的 Rank(进程序号)。

get_world_size

获取的参与任务的进程总数。

运行器(Launcher)

launcher

在单机多卡环境下启动多个进程进行训练的装饰器。

辅助功能(Helper)

bcast_list_

在指定通信组间广播张量列表。

synchronized

Decorator.

make_allreduce_cb

alias of megengine.distributed.helper.AllreduceCallback

helper.AllreduceCallback

具有张量融合优化的 Allreduce 回调函数。

helper.param_pack_split

Returns split tensor to list of tensors as offsets and shapes described, only used for parampack.

helper.param_pack_concat

Returns concated tensor, only used for parampack.

helper.pack_allreduce_split