megengine.optimizer.Adadelta¶
- class Adadelta(params, lr=1.0, rho=0.9, eps=1e-06, weight_decay=0.0)[源代码]¶
实现Adadelta算法。
这已经在 “ADADELTA: An Adaptive Learning Rate Method” <https://arxiv.org/abs/1212.5701> _ 中被提出。
- 参数
方法
add_param_group(param_group)向
Optimizer的param_groups中添加一组参数。backward(loss)把所有参数的梯度属性设置为 None。
load_state_dict(state)加载优化器状态。
state_dict([keep_var])导出优化器状态。
step()执行单一优化步骤。
1.0 版后已移除.