pytorch顯存越來(lái)越多的一個(gè)原因
optimizer.zero_grad()
loss.backward()
optimizer.step()
train_loss += loss
參考了別人的代碼發(fā)現(xiàn)那句loss一般是這樣寫
這是因?yàn)檩敵龅膌oss的數(shù)據(jù)類型是Variable。而PyTorch的動(dòng)態(tài)圖機(jī)制就是通過(guò)Variable來(lái)構(gòu)建圖。主要是使用Variable計(jì)算的時(shí)候,會(huì)記錄下新產(chǎn)生的Variable的運(yùn)算符號(hào),在反向傳播求導(dǎo)的時(shí)候進(jìn)行使用。如果這里直接將loss加起來(lái),系統(tǒng)會(huì)認(rèn)為這里也是計(jì)算圖的一部分,也就是說(shuō)網(wǎng)絡(luò)會(huì)一直延伸變大那么消耗的顯存也就越來(lái)越大。
用Tensor計(jì)算要寫成:
train_loss += loss.item()
correct_total += torch.eq(predict, label_batch).sum().item()
train_loss += loss.item()
當(dāng)需要將模型中變量提取出來(lái)參與計(jì)算時(shí),需要使用** .item()**
補(bǔ)充:linux下運(yùn)行pytorch程序顯示“killed”或者“已殺死”
這是由pytorch對(duì)于內(nèi)存不足的反應(yīng),確切說(shuō),是Linux內(nèi)核對(duì)pytorch程序占用太多內(nèi)存的反應(yīng)。Linux內(nèi)核一旦因?yàn)閮?nèi)存資源不足而生氣的時(shí)候,會(huì)使用OOM killer將占用內(nèi)存最多的進(jìn)程殺掉。
這種情況下,pytorch的python程序根本就來(lái)不及顯示相關(guān)的內(nèi)存日志,直接在呼喊出killed這一個(gè)簡(jiǎn)短有力的詞語(yǔ)后,就game over了。如果不提前掌握這個(gè)背景的話,你可真是會(huì)手足無(wú)措啊。
既然我們確定了是內(nèi)存不足導(dǎo)致的問(wèn)題(dmesg也能明確的顯示出kernel把占了近10個(gè)GB的python進(jìn)程給kill了),
那我們的解決方案就有2個(gè):
第一個(gè)是加大內(nèi)存,將我的x99平臺(tái)的內(nèi)存從16GB增加到64GB;這個(gè)方案先放棄了,因?yàn)閮?nèi)存條漲價(jià)太猛,我買不起了;
第二個(gè)是增加swap分區(qū),當(dāng)然性能會(huì)降低,但不需要額外增加成本。所以Gemfield今天的選擇就是第二個(gè)方案。
1、先禁止掉swap功能
這個(gè)命令執(zhí)行之后,如果你用free命令查看的話會(huì)發(fā)現(xiàn)swap分區(qū)的大小變?yōu)榱?。
2、增加 /swapfile的大小
sudo dd if=/dev/zero of=/swapfile bs=1M count=30720 oflag=append conv=notrunc
這個(gè)命令會(huì)在現(xiàn)有的/swapfile后面追加30GB,加上之前的2GB的swap分區(qū),現(xiàn)在共有32個(gè)GB的swap分區(qū)了。如果按照固態(tài)硬盤128GB有300多塊錢來(lái)算的話,這個(gè)命令花了七八十塊錢呢。
3、設(shè)置這個(gè)文件為swap分區(qū)的掛載點(diǎn):
4、再次啟用swap
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
您可能感興趣的文章:- linux或windows環(huán)境下pytorch的安裝與檢查驗(yàn)證(解決runtimeerror問(wèn)題)
- 解決pytorch GPU 計(jì)算過(guò)程中出現(xiàn)內(nèi)存耗盡的問(wèn)題
- 解決pytorch 保存模型遇到的問(wèn)題