1、问题描述:
pytorch中,在测试阶段进行前向推断运行时,随着for循环次数的增加,显存不断累加变大,最终导致显存溢出。
2、解决方法:
使用如下代码处理输入数据:
假设X为模型的输入
X = X.cuda()
input_blobs = Variable(X, volatile=True)
output = model(input_blobs)
注意: 一定要设置 volatile=True 该参数,否则在for循环过程中,显存会不断累加。
1、问题描述:
pytorch中,在测试阶段进行前向推断运行时,随着for循环次数的增加,显存不断累加变大,最终导致显存溢出。
2、解决方法:
使用如下代码处理输入数据:
假设X为模型的输入
X = X.cuda()
input_blobs = Variable(X, volatile=True)
output = model(input_blobs)
注意: 一定要设置 volatile=True 该参数,否则在for循环过程中,显存会不断累加。