例如
torch.nn.ReLU(inplace=True)
表示進(jìn)行原地操作,對上一層傳遞下來的tensor直接進(jìn)行修改,如x=x+3;
表示新建一個變量存儲操作結(jié)果,如y=x+3,x=y;
可以節(jié)省運(yùn)算內(nèi)存,不用多存儲變量。
補(bǔ)充:PyTorch中網(wǎng)絡(luò)里面的inplace=True字段的意思
在例如nn.LeakyReLU(inplace=True)中的inplace字段是什么意思呢?有什么用?
inplace=True的意思是進(jìn)行原地操作,例如x=x+5,對x就是一個原地操作,y=x+5,x=y,完成了與x=x+5同樣的功能但是不是原地操作。
上面LeakyReLU中的inplace=True的含義是一樣的,是對于Conv2d這樣的上層網(wǎng)絡(luò)傳遞下來的tensor直接進(jìn)行修改,好處就是可以節(jié)省運(yùn)算內(nèi)存,不用多儲存變量y。
inplace=True means that it will modify the input directly, without allocating any additional output. It can sometimes slightly decrease the memory usage, but may not always be a valid operation (because the original input is destroyed). However, if you don't see an error, it means that your use case is valid.
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
您可能感興趣的文章:- 淺談PyTorch中in-place operation的含義
- pytorch中的自定義數(shù)據(jù)處理詳解
- PyTorch中的拷貝與就地操作詳解