pytorch中的 requires_grad和volatile

https://blog.csdn.net/u012436149/article/details/66971822

 

简单总结其用途

(1)requires_grad=Fasle时不需要更新梯度, 适用于冻结某些层的梯度;

 (2)volatile=True相当于requires_grad=False,适用于推断阶段,不需要反向传播。这个现在已经取消了,使用with torch.no_grad()来替代

 

    原文作者:pytorch
    原文地址: https://www.cnblogs.com/573177885qq/p/9223707.html
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞