pytorch模型使用,pytorch定义模型
本文主要介绍python中Pytorch建模过程的总结,主要帮助你梳理神经网络训练的架构。有重要的参考价值,需要的朋友可以参考一下。希望对你的学习有帮助。
00-1010 1导入库2设置初始值3导入并制作数据集4定义神经网络架构5定义训练流程6训练模型本节将学习帮助你梳理神经网络训练的架构。
一般我们训练神经网络有以下步骤:
导入库、设置训练参数初始值、导入数据集并制作数据集、定义神经网络架构、定义训练流程、训练训练模型推荐文章:.
Python实现可视化大屏
分享4个Python自动数据分析神器
以下,我就将上述步骤使用代码进行注释讲解:
目录
进口火炬
从火炬进口nn
从torch.nn导入功能为F
从火炬进口optim
从torch.utils.data导入数据加载器,数据加载器
进口火炬视觉
将torchvision.transforms作为转换导入
1 导入库
#学习率
lr=0.15
#优化算法参数
伽马=0.8
#每次小批量培训的次数
bs=128
#数据周期总数
纪元=10
2 设置初始值
这一次,我们使用的是FashionMNIST图像数据集。每个图像是一个28*28像素的数组,包含10个服装类别,如连衣裙、运动鞋、包包等。
注意:第一次运行下载需要很长时间。
#导入数据集
mnist=torch vision . datasets . fashion mnist(
root=。/Datastes
,train=True
,下载=真
,转换=转换。ToTensor())
#制作数据集
batchdata=DataLoader(mnist
,batch_size=bs
,洗牌=真
,drop_last=False)
我们可以对数据进行检查:
对于批次数据:中的x,y
打印(x.shape)
打印(y形)
破裂
#火炬。大小([128,1,28,28])
#火炬。大小([128])
可以看到一批有128个样品,每个样品的尺寸都是1*28*28。
之后我们确定模型的输入维度与输出维度:
#输入的尺寸
input_=mnist.data[0]。努梅尔()
# 784
#输出的维度
output _=len(Mn ist . targets . unique())
# 10
3 导入并制作数据集
首先使用128个神经元的全连接层,然后用relu激活函数,再将其结果映射到标签的维度,用softmax激活。
#定义神经网络架构
班级模型(nn。模块):
def __init__(自身,输入特征,输出特征):
超级()。__init__()
self.linear1 = nn.Linear(in_features, 128, bias = True)
self.output = nn.Linear(128, out_features, bias = True)
def forward(self, x):
x = x.view(-1, 28*28)
sigma1 = torch.relu(self.linear1(x))
sigma2 = F.log_softmax(self.output(sigma1), dim = -1)
return sigma2
5 定义训练流程
在实际应用中,我们一般会将训练模型部分封装成一个函数,而这个函数可以继续细分为以下几步:
- 定义损失函数与优化器
- 完成向前传播
- 计算损失
- 反向传播
- 梯度更新
- 梯度清零
在此六步核心操作的基础上,我们通常还需要对模型的训练进度、损失值与准确度进行监视。
注释代码如下:
# 封装训练模型的函数def fit(net, batchdata, lr, gamma, epochs):
# 参数:模型架构、数据、学习率、优化算法参数、遍历数据次数
# 5.1 定义损失函数
criterion = nn.NLLLoss()
# 5.1 定义优化算法
opt = optim.SGD(net.parameters(), lr = lr, momentum = gamma)
# 监视进度:循环之前,一个样本都没有看过
samples = 0
# 监视准确度:循环之前,预测正确的个数为0
corrects = 0
# 全数据训练几次
for epoch in range(epochs):
# 对每个batch进行训练
for batch_idx, (x, y) in enumerate(batchdata):
# 保险起见,将标签转为1维,与样本对齐
y = y.view(x.shape[0])
# 5.2 正向传播
sigma = net.forward(x)
# 5.3 计算损失
loss = criterion(sigma, y)
# 5.4 反向传播
loss.backward()
# 5.5 更新梯度
opt.step()
# 5.6 梯度清零
opt.zero_grad()
# 监视进度:每训练一个batch,模型见过的数据就会增加x.shape[0]
samples += x.shape[0]
# 求解准确度:全部判断正确的样本量/已经看过的总样本量
# 得到预测标签
yhat = torch.max(sigma, -1)[1]
# 将正确的加起来
corrects += torch.sum(yhat == y)
# 每200个batch和最后结束时,打印模型的进度
if (batch_idx + 1) % 200 == 0 or batch_idx == (len(batchdata) - 1):
# 监督模型进度
print("Epoch{}:[{}/{} {: .0f}%], Loss:{:.6f}, Accuracy:{:.6f}".format(
epoch + 1
, samples
, epochs*len(batchdata.dataset)
, 100*samples/(epochs*len(batchdata.dataset))
, loss.data.item()
, float(100.0*corrects/samples)))
6 训练模型
# 设置随机种子torch.manual_seed(51)
# 实例化模型
net = Model(input_, output_)
# 训练模型
fit(net, batchdata, lr, gamma, epochs)
# Epoch1:[25600/600000 4%], Loss:0.524430, Accuracy:69.570312
# Epoch1:[51200/600000 9%], Loss:0.363422, Accuracy:74.984375
# ......
# Epoch10:[600000/600000 100%], Loss:0.284664, Accuracy:85.771835
现在我们已经用Pytorch
训练了最基础的神经网络,并且可以查看其训练成果。大家可以将代码复制进行运行!
虽然没有用到复杂的模型,但是我们在每次建模时的基本思想都是一致的
到此这篇关于python中的Pytorch建模流程汇总的文章就介绍到这了,更多相关Pytorch建模流程内容请搜索盛行IT软件开发工作室以前的文章或继续浏览下面的相关文章希望大家以后多多支持盛行IT软件开发工作室!
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。