python 非线性回归,pytorch 回归
本文介绍PyTorch实现线性回归,线性关系是一种非常简单的变量之间的关系,因变量和自变量在线性关系的情况下,可以使用线性回归算法对一个或多个因变量和自变量间的线性关系进行建模,该模型的系数可以用最小二乘法进行求解,需要的朋友可以参考一下
目录
一、实现步骤1、准备数据2、设计模型3、构造损失函数和优化器4、训练过程5、结果展示二、参考文献
一、实现步骤
1、准备数据
x_data=torch.tensor([[1.0]、[2.0]、[3.0]])
y_data=torch.tensor([[2.0]、[4.0]、[6.0]])
2、设计模型
类线性模型(火炬. nn .模块):
def __init__(self):
超级(线性模型,自我).__init__()
self.linear=torch.nn.Linear(1,1)
定义向前(自身,x):
y_pred=self.linear(x)
返回y_pred
模型=线性模型()
3、构造损失函数和优化器
标准=火炬。nn。ms损失(减少量=总和)
优化器=火炬。optim。新币(型号。参数(),lr=0.01)
4、训练过程
epoch_list=[]
loss_list=[]
w_list=[]
b_list=[]
对于范围(1000):内的纪元
y_pred=model(x_data) #计算预测值
损失=标准(y_pred,y_data) #计算损失
打印(纪元,损失)
历元_列表.追加(纪元)
loss _ list。追加(损失。数据。item())
w _ list。追加(型号。线性。体重。item())
b _ list。追加(型号。线性。偏见。item())
optimizer.zero_grad() #梯度归零
loss.backward() #反向传播
optimizer.step() #更新
5、结果展示
展示最终的权重和偏置:
# 输出权重和偏置
print(w=,model.linear.weight.item())
print(b=,model.linear.bias.item())
结果为:
w=1.9998501539230347
b=0.0003405189490877092
模型测试:
# 测试模型
x_test=torch.tensor([[4.0]])
y_test=模型(x _测试)
print(y_pred=,y_test.data)
y_pred=张量([[7.9997]])
分别绘制损失值随迭代次数变化的二维曲线图和其随权重与偏置变化的三维散点图:
# 二维曲线图
plt.plot(epoch_list,loss_list, b )
plt.xlabel(纪元)
plt.ylabel("损失")
plt.show()
# 三维散点图
图=plt .图()
ax=fig.add_subplot(111,projection=3d )
ax.scatter(w_list,b_list,loss_list,c=r )
#设置坐标轴
ax.set_xlabel(weight )
ax.set_ylabel(bias )
ax.set_zlabel(loss )
plt.show()
结果如下图所示:
到此这篇关于PyTorch实现线性回归详细过程的文章就介绍到这了,更多相关PyTorch线性回归内容请搜索盛行信息技术软件开发工作室以前的文章或继续浏览下面的相关文章希望大家以后多多支持盛行信息技术软件开发工作室!
二、参考文献
[1]https://www . bilibili.com/video/bv1y 7411 d7ys?p=5
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。