megengine.functional.nn.softmax¶
- softmax(inp, axis=None)[源代码]¶
使用 \(\text{softmax}(x)\) 函数。\(\text{softmax}(x)\) 被定义为:
\[\text{softmax}(x_{i}) = \frac{\exp(x_i)}{\sum_j \exp(x_j)}\]应用softmax于一个n维输入张量,并重新放缩张量中的元素值,使得n维输出张量中所有元素的取值范围为 [0,1] 并且加和为1。
更多细节见
Softmax
。实际案例
>>> import numpy as np >>> x = Tensor(np.arange(-5, 5, dtype=np.float32)).reshape(2,5) >>> out = F.softmax(x) >>> out.numpy().round(decimals=4) array([[0.0117, 0.0317, 0.0861, 0.2341, 0.6364], [0.0117, 0.0317, 0.0861, 0.2341, 0.6364]], dtype=float32)
- 返回类型