App下載

怎么解決pytorch損失反向傳播后梯度為none的問(wèn)題

撈月亮的漁夫 2021-08-17 15:23:47 瀏覽數(shù) (11018)
反饋

pytorch在進(jìn)行有損失的反向傳播的時(shí)候,有時(shí)候會(huì)出現(xiàn)梯度為none的情況,那么這種情況要如何解決呢?來(lái)看看小編是怎么做的:

錯(cuò)誤代碼:輸出grad為none

a = torch.ones((2, 2), requires_grad=True).to(device)
b = a.sum()
b.backward()
print(a.grad)

由于.to(device)是一次操作,此時(shí)的a已經(jīng)不是葉子節(jié)點(diǎn)了

修改后的代碼為:

a = torch.ones((2, 2), requires_grad=True)
c = a.to(device)

b = c.sum()
b.backward()
print(a.grad)

類似錯(cuò)誤:

self.miu = torch.nn.Parameter(torch.ones(self.dimensional)) * 0.01

應(yīng)該為

self.miu = torch.nn.Parameter(torch.ones(self.dimensional) * 0.01)

補(bǔ)充:pytorch梯度返回none的bug

pytorch1.4.0如果使用了view方法,reshape方法

tensor即使設(shè)置了requires_grad,反向傳播之后, x返回沒(méi)有g(shù)rad梯度,為none

不知道其他版本有無(wú)此bug

補(bǔ)充:PyTorch中梯度反向傳播的注意點(diǎn)

在一個(gè)迭代循環(huán)中

optimizer.zero_grad()語(yǔ)句的位置比較隨意,只要放在loss.backward()前面即可,它的作用是將梯度歸零,否則會(huì)在每一個(gè)迭代中進(jìn)行累加,

loss.backward()的作用是反向傳播,計(jì)算梯度,optimizer.step()的功能是優(yōu)化器自動(dòng)完成參數(shù)的更新。

optimizer.zero_grad()
loss.backward()
optimizer.step()

以上就是怎么解決pytorch損失反向傳播后梯度為none的問(wèn)題的全部?jī)?nèi)容,希望能給大家一個(gè)參考,也希望大家多多支持W3Cschool


0 人點(diǎn)贊