主頁(yè) > 知識(shí)庫(kù) > pytorch損失反向傳播后梯度為none的問(wèn)題

pytorch損失反向傳播后梯度為none的問(wèn)題

熱門(mén)標(biāo)簽:唐山智能外呼系統(tǒng)一般多少錢(qián) 哈爾濱ai外呼系統(tǒng)定制 激戰(zhàn)2地圖標(biāo)注 公司電話機(jī)器人 廣告地圖標(biāo)注app 海南400電話如何申請(qǐng) 騰訊外呼線路 白銀外呼系統(tǒng) 陜西金融外呼系統(tǒng)

錯(cuò)誤代碼:輸出grad為none

a = torch.ones((2, 2), requires_grad=True).to(device)
b = a.sum()
b.backward()
print(a.grad)

由于.to(device)是一次操作,此時(shí)的a已經(jīng)不是葉子節(jié)點(diǎn)了

修改后的代碼為:

a = torch.ones((2, 2), requires_grad=True)
c = a.to(device)

b = c.sum()
b.backward()
print(a.grad)

類似錯(cuò)誤:

self.miu = torch.nn.Parameter(torch.ones(self.dimensional)) * 0.01

應(yīng)該為

self.miu = torch.nn.Parameter(torch.ones(self.dimensional) * 0.01)

補(bǔ)充:pytorch梯度返回none的bug

pytorch1.4.0如果使用了view方法,reshape方法

tensor即使設(shè)置了requires_grad,反向傳播之后, x返回沒(méi)有g(shù)rad梯度,為none

不知道其他版本有無(wú)此bug

補(bǔ)充:PyTorch中梯度反向傳播的注意點(diǎn)

在一個(gè)迭代循環(huán)中

optimizer.zero_grad()語(yǔ)句的位置比較隨意,只要放在loss.backward()前面即可,它的作用是將梯度歸零,否則會(huì)在每一個(gè)迭代中進(jìn)行累加,

loss.backward()的作用是反向傳播,計(jì)算梯度,optimizer.step()的功能是優(yōu)化器自動(dòng)完成參數(shù)的更新。

optimizer.zero_grad()
loss.backward()
optimizer.step()

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • 淺談pytorch中為什么要用 zero_grad() 將梯度清零
  • PyTorch梯度裁剪避免訓(xùn)練loss nan的操作
  • PyTorch 如何自動(dòng)計(jì)算梯度
  • Pytorch獲取無(wú)梯度TorchTensor中的值
  • pytorch 如何打印網(wǎng)絡(luò)回傳梯度
  • PyTorch 如何檢查模型梯度是否可導(dǎo)

標(biāo)簽:黑龍江 鷹潭 惠州 上海 黔西 四川 益陽(yáng) 常德

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《pytorch損失反向傳播后梯度為none的問(wèn)題》,本文關(guān)鍵詞  pytorch,損失,反向,傳播,后,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《pytorch損失反向傳播后梯度為none的問(wèn)題》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于pytorch損失反向傳播后梯度為none的問(wèn)題的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章