pytorch的tensorboard可视化,pytorch tensorboardx
这篇文章主要为大家介绍了大蟒神经网络框架中张量板常用函数的使用示例,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
目录
所需库的安装常用函数功能1、SummaryWriter()2、writer.add_graph()3、writer.add_scalar()4、tensorboard - logdir=示例代码
所需库的安装
很多人问框架要怎么可视化,于是决定搞一篇。
tensorboardX==2.0
张量流==1.13.2
由于张量板原本是在张量流里面用的,所以需要装一个张量流。会自带一个冲浪板。
也可以不装tensorboardX,直接使用框架当中的自带的冲浪板。导入方式如下:
来自torch.utils.tensorboard导入摘要作者
不过由于我使用框架当中的自带的张量板的时候有一些臭虫。所以还是使用tensorboardX来写这篇博客。
常用函数功能
1、SummaryWriter()
这个函数用于创建一个张量板文件,其中常用参数有:
日志目录:张量板文件的存放路径刷新秒数:表示写入张量板文件的时间间隔
调用方式如下:
writer=摘要编写器(log _ dir= logs ,flush_secs=60)
2、writer.add_graph()
这个函数用于在张量板中创建图表,图表中存放了网络结构,其中常用参数有:
型号:pytorch模型
输入到模型:pytorch模型的输入
如下所示为图表:
调用方式如下:
如果Cuda:
图形输入=火炬。from _ numpy(NP。随机的。rand(1,3,input_shape[0],input_shape[1]).类型(火炬FloatTensor).cuda()
else:
图形输入=火炬。from _ numpy(NP。随机的。rand(1,3,input_shape[0],input_shape[1]).类型(火炬FloatTensor)
writer.add_graph(模型,(图形输入,))
3、writer.add_scalar()
这个函数用于在张量板中加入损失,其中常用参数有:
标签:标签,如下图所示的训练_损耗标量_值:标签的值全局_步骤:标签的x轴坐标
调用方式如下:
writer.add_scalar(Train_loss ,loss,(epoch*epoch_size迭代))
4、tensorboard --logdir=
在完成张量板文件的生成后,可在命令行调用该文件,张量板网址。具体代码如下:
张量板-logdir=d : \研究\收藏\张量板-py torch \日志
示例代码
进口火炬
来自火炬,亲笔签名导入变量
导入火炬. nn .功能作为功能
从tensorboardX导入摘要作者
将matplotlib.pyplot作为血小板计数导入
将数组作为铭牌导入
# x的形状为(100,1)
x=火炬。from _ numpy(NP。林空间(-1,1,100).整形([100,1])。类型(火炬FloatTensor)
# y的形状为(100,1)
y=火炬。sin(x)0.2 *火炬。rand(x . size())
class Net(torch.nn.Module):
def __init__(self,n_feature,n_hidden,n_output):
超级(净,自)。__init__()
#对传入数据应用线性变换:马斯:y=xA^T b
# 全连接层,公式为y=xA^T b
自我。隐藏=火炬。nn。线性(n _特征,n _隐藏)
自我。预测=火炬。nn。线性(n _隐藏,n _输出)
定义向前(自身,x):
# 隐含层的输出
hidden _ layer=功能性。relu(自我。隐藏(x))
输出层=自我预测(隐藏层)
返回输出层
# 类的建立
net=Net(n_feature=1,n_hidden=10,n_output=1)
writer=SummaryWriter(logs )
图形输入=火炬。from _ numpy(NP。随机的。兰德(2,1)).类型(火炬FloatTensor)
writer.add_graph(net,(graph_inputs,))
#火炬。使最优化是优化器模块
优化器=火炬。optim。亚当(网。参数(),lr=1e-3)
# 均方差失败
loss _ func=火炬。nn。ms loss()
对于范围(1000):内的t
预测=净值(十)
损耗=损耗函数(预测,y)
# 反向传递步骤
# 1、初始化梯度
optimizer.zero_grad()
# 2、计算梯度
loss.backward()
# 3、进行【计算机】优化程序优化
optimizer.step()
writer.add_scalar(loss ,loss,t)
writer.close()
效果如下:
以上是python神经网络Pytorch中使用的Tensorboard函数的详细内容。关于Pytorch Tensorboard函数的更多信息,请关注盛行IT软件开发工作室的其他相关文章!
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。