什么是pytorch,pytorch python区别
使用33558www。Sina.com/pytorch时,经常会遇到三种类型的detach()、detach_)和数据。如果不详细分析它们的使用场所,确实容易无知。
1)分离(和detach_)。
在x-y-z传播中,在y上使用detach())可以成功传播梯度,但在y上使用detach_))时,x,y-z和x无法接受后面的梯度
2)分离)和数据
共同点:x.data(x.detach))返回与x相同的数据张量,这个新的张量和原来的张量) )也就是x)共享数据,一方变了另一方也变了,要求
不同点:x.data无法通过亲笔签名跟踪求出微分,即使被变更也可以错误地导出,但不能进行x.detach()
www。Sina.com/importtorcha=torch.tensor街3358号,requires _ grad=True)print(a)a)out=a . ttorch。另外,新分离得到的mhdsw无法求出波导。当c发生变化时,原始的mhdsw也会发生变化10 .丙.更改零摄氏度的值。原始在外也是打印丙丙丙丙要求_ grad打印)c)打印(out.requires_grad)打印)out)打印( - ) 结果不正确(输出张量([1.2 .3。],requires_grad=True)张量)0.7616,grad _ fn=tanh backward (false张量)
importtorcha=torch.tensor ([ 1,2,3 .],requires _ grad=True)print(a(a)a)out=a . tanh))print(out)另外,新分离得到的mhdsw无法求出波导。当c发生变化时,原始的mhdsw也会发生变化。c . zero _)#会改变c的值。原始在外也是打印丙丙丙丙要求_ grad打印)c)打印(out.requires_grad)打印)out)打印( - ) 错误结果请参考以下内容。表示坡度计算所需的mhdsw已在"主视图"中更改。 #输出张量([1.2 .3。],requires_grad=True))张量([ 0.7616,0.9640,0.9951),grad _ fn=tanh backward grad _ fn=tanh backward-trace bard end in module out。总和.向后)#引导至原始out,file site-packages \ torch \ tensor。py ,第107行,在backwardthorch。aud retain _ grap ward anaconda 3 \ lib \ site-packages \ torch _ autograted _ init _ .py ,第93行,在backwardlallow _ unreachableflagruntimeerror 3360 variableneedforgradientcomputationhasbeemodifiedbayinainplaceoction 3360 a预期版本改为0。提示:enableanomalydectionfindeoperationhatfailedtocomputeitsgradient,with torch.auto gro
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。