pytorch 梯度累加,pytorch数据增强

  pytorch 梯度累加,pytorch数据增强

  这篇文章主要介绍了PyTorch加载数据集梯度下降优化,使用数据加载器方法,并继承资料组抽象类,可实现对数据集进行迷你批处理梯度下降优化,需要的小伙伴可以参考一下

  

目录
一、实现过程1、准备数据2、设计模型3、构造损失函数和优化器4、训练过程5、结果展示二、参考文献

  

一、实现过程

  

1、准备数据

  与PyTorch实现多维度特征输入的逻辑回归的方法不同的是:本文使用数据加载器方法,并继承资料组抽象类,可实现对数据集进行迷你批处理梯度下降优化。

  代码如下:

  进口火炬

  将数组作为铭牌导入

  从torch.utils.data导入数据集,数据加载器

  类别糖尿病数据集:

  def __init__(self,filepath):

  xy=np.loadtxt(filepath,delimiter=,,dtype=np.float32)

  self.len=xy.shape[0]

  自我。x _ data=火炬。from _ numpy(xy[:-1])

  自我。y _ data=火炬。from _ numpy(xy[:[-1]])

  def __getitem__(self,index):

  返回self.x_data[index],self.y_data[index]

  def __len__(self):

  返回赛尔夫莱恩

  数据集=糖尿病数据集( g :/数据集/糖尿病/糖尿病。CSV’)

  train _ loader=数据加载器(dataset=dataset,batch_size=32,shuffle=True,num_workers=0)

  

2、设计模型

  班级模型(火炬. nn .模块):

  def __init__(self):

  超级(模特,自己)。__init__()

  self.linear1=torch.nn.Linear(8,6)

  self.linear2=torch.nn.Linear(6,4)

  self.linear3=torch.nn.Linear(4,1)

  self.activate=torch.nn.Sigmoid()

  定义向前(自身,x):

  x=self.activate(self.linear1(x))

  x=self.activate(self.linear2(x))

  x=self.activate(self.linear3(x))

  返回x

  模型=模型()

  

3、构造损失函数和优化器

  标准=火炬。nn。BCE损失(减少量=“平均值”)

  优化器=火炬。optim。新币(型号。参数(),lr=0.1)

  

4、训练过程

  每次拿出mini_batch个样本进行训练,代码如下:

  epoch_list=[]

  loss_list=[]

  对于范围(100):中的纪元

  计数=0

  loss1=0

  对于我,枚举中的数据(火车_装载机,0):

  # 1.准备数据

  输入,标签=数据

  # 2.向前

  y_pred=模型(输入)

  损失=标准(y_pred,标签)

  print(epoch,I,loss.item())

  计数=1

  loss1=loss.item()

  # 3.向后的

  optimizer.zero_grad()

  loss.backward()

  # 4.更新

  optimizer.step()

  历元_列表.追加(纪元)

  loss _ list。追加(损失1/计数)

  

5、结果展示

  plt.plot(epoch_list,loss_list, b )

  plt.xlabel(纪元)

  plt.ylabel("损失")

  plt.grid()

  plt.show()

  

二、参考文献

  [1]https://www . bilibili.com/video/bv1y 7411 d7ys?p=8到此这篇关于PyTorch加载数据集梯度下降优化的文章就介绍到这了,更多相关PyTorch加载数据集内容请搜索盛行信息技术软件开发工作室以前的文章或继续浏览下面的相关文章希望大家以后多多支持盛行信息技术软件开发工作室!

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: