pytorch内存泄露(Pytorch运行过程中解决出现内存不足的问题)
1. 前提
利用Transformer模型进行O3浓度的反演
2. 问题
2.1 速度慢
一开始模型是在CPU上面跑的 ,为了加快速度 ,我改成了在GPU上跑
方法如下:1 、验证pytorch是否存在GPU版本
在Pycharm命令行输入 import torch print(torch.cuda.is_available) # 若输出为True,则存在GPU版本 # 若输出为False,则不存在GPU版本我的输出为True ,说明pytorch是存在GPU版本的
2 、将模型从CPU版本转换到GPU版本声明使用GPU(指定具体的卡)
PS:torch.device()是装torch.Tensor的一个空间 。 device=torch.device(cuda if torch.cuda.is_available() else cpu) # cuda 这里如果没有指定具体的卡号,系统默认cuda:0 device = torch.device(cuda:2) # 使用2号卡 将模型(model)加载到GPU上 model = Transformer() #例子中 ,采用Transformer模型 model.to(device) 将数据和标签放到GPU上【注意!什么数据可以被放入GPU-Tensor类型的数据】 # 只有Tensor类型的数据可以放入GPU中 # 可以一个个【batch_size】进行转换 inputs = inputs.to(device) labels = labels.to(device)如果结果还是显示你是在CPU上进行训练 ,要不就是模型没有加进去 ,要不就是数据没有加进去
2.2 内存不足
在使用CPU时 ,出现了内存不足的情况RuntimeError: [enforce fail at C:\cb\pytorch_1000000000000\work\c10\core\impl\alloc_cpu.cpp:72] data. DefaultCPUAllocator: not enough memory: you tried to allocate 280410627200 bytes.
在使用GPU时 ,出现了内存不足的情况torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 261.15 GiB (GPU 0; 8.00 GiB total capacity; 487.30 MiB already allocated; 5.71 GiB free; 506.00 MiB reserved in total by PyTorch) If reserved memory is >> allocated memory try sett
我的模型在训练的时候没有问题 ,在进行预测的时候,总是出现内存不足
(1)一开始我以为是batch_size大小的问题 ,在从128更改到4后 ,发现依旧存在问题,这说明不是batch_size大小的问题 。
(2)然后 ,我猜测是反演过程的问题
我在进行模型反演的过程中 ,直接将全部数据输入到模型model中(大概有10万行),为了验证这个问题 ,我添加了一个for循环 ,一个一个数据的反演 问题解决!学习链接:
pytorch 中判断和指定模型和数据在GPU或CPU上–有用 Pytorch | GPU | 将代码加载到GPU上运行 pytorch中cuda out of memory问题创心域SEO版权声明:以上内容作者已申请原创保护,未经允许不得转载,侵权必究!授权事宜、对本内容有异议或投诉,敬请联系网站管理员,我们将尽快回复您,谢谢合作!