今天边肖给大家分享一个pytorch法测——激活函数(ReLU)的详细讲解,有很好的参考价值。希望对你有帮助。来和边肖一起看看吧。
测试代码:
进口火炬
将torch.nn作为nn导入
如果#inplace为True,输入数据将被更改;否则,原始输入不会改变,只会生成一个新的输出。
m=nn。ReLU(原地=真)
input=torch.randn(7)
打印('处理前输入图像:')
打印(输入)
输出=m(输入)
打印(' ReLU输出:')
打印(输出)
打印('输出比例:')
print(output.size())
打印('输入处理过的图片:')
打印(输入)
输出为:
输入预处理图片:
张量([ 1.4940,1.0278,-1.9883,-0.1871,0.4612,0.0297,2.4300])
ReLU输出:
张量([ 1.4940,1.0278,0.0000,0.0000,0.4612,0.0297,2.4300])
输出规模:
火炬。大小([7])
输入处理过的图片:
张量([ 1.4940,1.0278,0.0000,0.0000,0.4612,0.0297,2.4300])
结论:
nn。ReLU(原地=真)
如果inplace为真,输入数据将被改变;否则,原始输入不会改变,只会生成一个新的输出。
以上pytorch方法测试——激活函数(ReLU)的详细讲解,就是边肖分享的全部内容。希望能给你一个参考,多多支持我们。
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。