nvidia-smi GPU的程序kill后未释放显存

tensorflow数据并行,中途中断了,毕竟头一次自己的程序并行跑,很有可能就出错。结果某次出错,GPU并未释放内存;

nvidia-smi GPU的程序kill后未释放显存

 

1  fuser -v /dev/nvidia*

 

nvidia-smi GPU的程序kill后未释放显存

然后需要逐个杀死,注意使用管理员身份

杀死之后,世界清净了:

nvidia-smi GPU的程序kill后未释放显存