我正在使用GEFORCE GTX 1080 ti(11GB)的
tf-seq2seq软件包培训NMT模型.在训练模型期间,执行nvidia-smi表明,当所有CPU核心都忙时,GPU的易失性利用率始终低于25%.为什么?
如何利用GPU的所有潜力,我怎么才能找到?
最佳答案 上述实验中的模型太小,无法充分利用GPU的所有潜力.
扩大模型(利用更多层,增加使用中的词汇量,增加序列的长度,……)导致在上述实验中更好地利用(小于80-90%).
我正在使用GEFORCE GTX 1080 ti(11GB)的
tf-seq2seq软件包培训NMT模型.在训练模型期间,执行nvidia-smi表明,当所有CPU核心都忙时,GPU的易失性利用率始终低于25%.为什么?
如何利用GPU的所有潜力,我怎么才能找到?
最佳答案 上述实验中的模型太小,无法充分利用GPU的所有潜力.
扩大模型(利用更多层,增加使用中的词汇量,增加序列的长度,……)导致在上述实验中更好地利用(小于80-90%).