理解pytorch中的softmax中的dim参数

 

import torch

import torch.nn.functional as F

x1= torch.Tensor( [ [1,2,3,4],[1,3,4,5],[3,4,5,6]])

y11= F.softmax(x, dim = 0) #对每一列进行softmax

y12 = F.softmax(x,dim =1) #对每一行进行softmax

x2 = torch.Tensor([1,2,3,4])

y2 = F.softmax(x2,dim=0)

这里的dim=0其实就是张量的0轴,dim=1就是张量的1轴。

 \(J_\alpha(x)=\)

    原文作者:pytorch
    原文地址: https://www.cnblogs.com/www-caiyin-com/p/10338162.html
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞