主頁 > 知識庫 > 淺談pytorch中的dropout的概率p

淺談pytorch中的dropout的概率p

熱門標簽:天津電話機器人公司 開封語音外呼系統(tǒng)代理商 應(yīng)電話機器人打電話違法嗎 400電話辦理哪種 河北防封卡電銷卡 電銷機器人的風險 開封自動外呼系統(tǒng)怎么收費 手機網(wǎng)頁嵌入地圖標注位置 地圖標注線上如何操作

最近需要訓練一個模型,在優(yōu)化模型時用了dropout函數(shù),為了減少過擬合。

訓練的時候用dropout,測試的時候不用dropout。剛開始以為p是保留神經(jīng)元的比率,訓練設(shè)置0.5,測試設(shè)置1,loss根本沒減小過,全設(shè)置成1也是一樣的效果,后來就考慮到是不是p設(shè)置錯了。

上網(wǎng)一搜,果然是的!??!p的含義理解錯了!不是保留的,而是不保留的!

具體的代碼為:

x2 = F.dropout(x1, p)

x1是上一層網(wǎng)絡(luò)的輸出,p是需要刪除的神經(jīng)元的比例。

當p=0時,保留全部神經(jīng)元更新。當p=1時,神經(jīng)元輸出的值都為0。

補充:Pytorch--Dropout筆記

dropout常常用于抑制過擬合,pytorch也提供了很方便的函數(shù)。但是經(jīng)常不知道dropout的參數(shù)p是什么意思。

在TensorFlow中p叫做keep_prob,就一直以為pytorch中的p應(yīng)該就是保留節(jié)點數(shù)的比例,但是實驗結(jié)果發(fā)現(xiàn)反了,實際上表示的是不保留節(jié)點數(shù)的比例。

看下面的例子:

a = torch.randn(10,1)
>>> tensor([[ 0.0684],
        [-0.2395],
        [ 0.0785],
        [-0.3815],
        [-0.6080],
        [-0.1690],
        [ 1.0285],
        [ 1.1213],
        [ 0.5261],
        [ 1.1664]])

p=0.5

torch.nn.Dropout(0.5)(a)
>>> tensor([[ 0.0000],  
        [-0.0000],  
        [ 0.0000],  
        [-0.7631],  
        [-0.0000],  
        [-0.0000],  
        [ 0.0000],  
        [ 0.0000],  
        [ 1.0521],  
        [ 2.3328]]) 

p=0

torch.nn.Dropout(0)(a)
>>> tensor([[ 0.0684],
        [-0.2395],
        [ 0.0785],
        [-0.3815],
        [-0.6080],
        [-0.1690],
        [ 1.0285],
        [ 1.1213],
        [ 0.5261],
        [ 1.1664]]) 

p=1

torch.nn.Dropout(0)(a)
>>> tensor([[0.],  
        [-0.], 
        [0.],  
        [-0.], 
        [-0.], 
        [-0.], 
        [0.],  
        [0.],  
        [0.],  
        [0.]]) 

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • pytorch 實現(xiàn)在測試的時候啟用dropout
  • PyTorch 實現(xiàn)L2正則化以及Dropout的操作
  • Python深度學習pytorch神經(jīng)網(wǎng)絡(luò)Dropout應(yīng)用詳解解

標簽:江蘇 六盤水 宿遷 成都 常州 駐馬店 山東 蘭州

巨人網(wǎng)絡(luò)通訊聲明:本文標題《淺談pytorch中的dropout的概率p》,本文關(guān)鍵詞  淺談,pytorch,中的,dropout,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《淺談pytorch中的dropout的概率p》相關(guān)的同類信息!
  • 本頁收集關(guān)于淺談pytorch中的dropout的概率p的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章