【4】pytorch模型的保存和加载
程序员文章站
2022-07-06 11:04:53
...
【1】保存方式有两种,一种是保存整个模型和参数,二是只保存参数。只保存参数加载的时间短。
【2】代码
# -*- coding: utf-8 -*-#
#-------------------------------------------------------------------------------
# Name: loadmodel
# Description:
# Author: Administrator
# Date: 2020/11/28
#-------------------------------------------------------------------------------
import torch
import matplotlib.pyplot as plt
import torch.nn.functional as F
from torch.autograd import Variable
torch.manual_seed(1)
x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1) # x data (tensor), shape=(100, 1)
y = x.pow(2) + 0.2*torch.rand(x.size()) # noisy y data (tensor), shape=(100, 1)
#保存模型
def save():
net1 = torch.nn.Sequential(
torch.nn.Linear(1, 10),
torch.nn.ReLU(),
torch.nn.Linear(10, 1)
)
optimizer = torch.optim.SGD(net1.parameters(), lr=0.2) # 传入 net 的所有参数, 学习率
loss_func = torch.nn.MSELoss() # 预测值和真实值的误差计算公式 (均方差)
for t in range(100):
prediction = net1(x) # 喂给 net 训练数据 x, 输出预测值
loss = loss_func(prediction, y) # 计算两者的误差
optimizer.zero_grad() # 清空上一步的残余更新参数值
loss.backward() # 误差反向传播, 计算参数更新值
optimizer.step() # 将参数更新值施加到 net 的 parameters 上
torch.save(net1, 'net.pkl') # 保存整个网络
torch.save(net1.state_dict(), 'net_params.pkl') # 只保存网络中的参数 (速度快, 占内存少)
#plt result
plt.figure(1,figsize=(10,3))
plt.subplot(131)
plt.title('net1')
plt.scatter(x.data.numpy(),y.data.numpy())
plt.plot(x.data.numpy(),prediction.data.numpy(),'r-',lw=5)
#加载保存的整个模型
def restore_net():
net2=torch.load('net.pkl')
prediction=net2(x)
plt.subplot(132)
plt.title('net2')
plt.scatter(x.data.numpy(),y.data.numpy())
plt.plot(x.data.numpy(),prediction.data.numpy(),'r-',lw=5)
#加载保存得当整个模型的参数
def restore_params():
net3 = torch.nn.Sequential(
torch.nn.Linear(1, 10),
torch.nn.ReLU(),
torch.nn.Linear(10, 1)
)
net3.load_state_dict(torch.load('net_params.pkl'))
prediction=net3(x)
plt.subplot(133)
plt.title('net3')
plt.scatter(x.data.numpy(),y.data.numpy())
plt.plot(x.data.numpy(),prediction.data.numpy(),'r-',lw=5)
plt.show()
save()
restore_net()
restore_params()
【3】效果图
上一篇: ps-关于人物修图