主頁 > 知識(shí)庫 > pytorch Variable與Tensor合并后 requires_grad()默認(rèn)與修改方式

pytorch Variable與Tensor合并后 requires_grad()默認(rèn)與修改方式

熱門標(biāo)簽:陜西金融外呼系統(tǒng) 激戰(zhàn)2地圖標(biāo)注 白銀外呼系統(tǒng) 騰訊外呼線路 哈爾濱ai外呼系統(tǒng)定制 公司電話機(jī)器人 唐山智能外呼系統(tǒng)一般多少錢 海南400電話如何申請(qǐng) 廣告地圖標(biāo)注app

pytorch更新完后合并了Variable與Tensor

torch.Tensor()能像Variable一樣進(jìn)行反向傳播的更新,返回值為Tensor

Variable自動(dòng)創(chuàng)建tensor,且返回值為Tensor,(所以以后不需要再用Variable)

Tensor創(chuàng)建后,默認(rèn)requires_grad=Flase

可以通過xxx.requires_grad_()將默認(rèn)的Flase修改為True

下面附代碼及官方文檔代碼:

import torch
from torch.autograd import Variable #使用Variabl必須調(diào)用庫
lis=torch.range(1,6).reshape((-1,3))#創(chuàng)建1~6 形狀 
#行不指定(-1意為由計(jì)算機(jī)自己計(jì)算)列為3的floattensor矩陣

print(lis)
print(lis.requires_grad) #查看默認(rèn)的requires_grad是否是Flase

lis.requires_grad_() #使用.requires_grad_()修改默認(rèn)requires_grad為true
print(lis.requires_grad)

結(jié)果如下:

tensor([[1., 2., 3.],
[4., 5., 6.]])
False
True

創(chuàng)建一個(gè)Variable,Variable必須接收Tensor數(shù)據(jù) 不能直接寫為 a=Variable(range(6)).reshape((-1,3))

否則報(bào)錯(cuò) Variable data has to be a tensor, but got range

正確如下:

import torch
from torch.autograd import Variable
tensor=torch.FloatTensor(range(8)).reshape((-1,4))
my_ten=Variable(tensor)
print(my_ten)
print(my_ten.requires_grad)

my_ten.requires_grad_()
print(my_ten.requires_grad)

結(jié)果:

tensor([[0., 1., 2., 3.],
[4., 5., 6., 7.]])
False
True

由上面可以看出,Tensor完全可以取代Variable。

下面給出官方文檔:

# 默認(rèn)創(chuàng)建requires_grad = False的Tensor  
x = torch . ones ( 1 ) # create a tensor with requires_grad=False (default)
x . requires_grad
# out: False

# 創(chuàng)建另一個(gè)Tensor,同樣requires_grad = False
y = torch . ones ( 1 ) # another tensor with requires_grad=False
# both inputs have requires_grad=False. so does the output
z = x + y
# 因?yàn)閮蓚€(gè)Tensor x,y,requires_grad=False.都無法實(shí)現(xiàn)自動(dòng)微分,
# 所以操作(operation)z=x+y后的z也是無法自動(dòng)微分,requires_grad=False
z . requires_grad
# out: False

# then autograd won't track this computation. let's verify!
# 因而無法autograd,程序報(bào)錯(cuò)
z . backward ( ) 
# out:程序報(bào)錯(cuò):RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn

# now create a tensor with requires_grad=True
w = torch . ones ( 1 , requires_grad = True ) 
w . requires_grad
# out: True

# add to the previous result that has require_grad=False
# 因?yàn)閠otal的操作中輸入Tensor w的requires_grad=True,因而操作可以進(jìn)行反向傳播和自動(dòng)求導(dǎo)。
total = w + z
# the total sum now requires grad!
total . requires_grad
# out: True
# autograd can compute the gradients as well
total . backward ( ) 
w . grad
#out: tensor([ 1.])

# and no computation is wasted to compute gradients for x, y and z, which don't require grad
# 由于z,x,y的requires_grad=False,所以并沒有計(jì)算三者的梯度
z . grad == x . grad == y . grad == None 
# True
existing_tensor . requires_grad_ ( ) 
existing_tensor . requires_grad
# out:True

或者直接用Tensor創(chuàng)建時(shí)給定requires_grad=True

my_tensor = torch.zeros(3,4,requires_grad = True) 
my_tensor.requires_grad
# out: True
lis=torch.range(1,6,requires_grad=True).reshape((-1,3))
print(lis)
print(lis.requires_grad)
lis.requires_grad_()
print(lis.requires_grad)

結(jié)果

tensor([[1., 2., 3.],
[4., 5., 6.]], requires_grad=True)
True
True

補(bǔ)充:volatile 和 requires_grad在pytorch中的意思

Backward過程中排除子圖

pytorch的BP過程是由一個(gè)函數(shù)決定的,loss.backward(), 可以看到backward()函數(shù)里并沒有傳要求誰的梯度。那么我們可以大膽猜測(cè),在BP的過程中,pytorch是將所有影響loss的Variable都求了一次梯度。

但是有時(shí)候,我們并不想求所有Variable的梯度。那就要考慮如何在Backward過程中排除子圖(ie.排除沒必要的梯度計(jì)算)。

如何BP過程中排除子圖? Variable的兩個(gè)參數(shù)(requires_grad和volatile)

requires_grad=True 要求梯度

requires_grad=False 不要求梯度

volatile=True相當(dāng)于requires_grad=False。反之則反之。。。。。。。ok

注意:如果a是requires_grad=True,b是requires_grad=False。則c=a+b是requires_grad=True。同樣的道理應(yīng)用于volatile

為什么要排除子圖

也許有人會(huì)問,梯度全部計(jì)算,不更新的話不就得了。

這樣就涉及了效率的問題了,計(jì)算很多沒用的梯度是浪費(fèi)了很多資源的(時(shí)間,計(jì)算機(jī)內(nèi)存)

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • pytorch dataloader 取batch_size時(shí)候出現(xiàn)bug的解決方式
  • pytorch的batch normalize使用詳解
  • pytorch方法測(cè)試詳解——?dú)w一化(BatchNorm2d)
  • 解決pytorch下只打印tensor的數(shù)值不打印出device等信息的問題
  • 淺談pytorch中stack和cat的及to_tensor的坑
  • Pytorch中TensorBoard及torchsummary的使用詳解
  • pytorch 帶batch的tensor類型圖像顯示操作

標(biāo)簽:黔西 上海 四川 惠州 鷹潭 常德 益陽 黑龍江

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《pytorch Variable與Tensor合并后 requires_grad()默認(rèn)與修改方式》,本文關(guān)鍵詞  pytorch,Variable,與,Tensor,合并,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《pytorch Variable與Tensor合并后 requires_grad()默認(rèn)與修改方式》相關(guān)的同類信息!
  • 本頁收集關(guān)于pytorch Variable與Tensor合并后 requires_grad()默認(rèn)與修改方式的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章