主頁(yè) > 知識(shí)庫(kù) > pytorch 如何自定義卷積核權(quán)值參數(shù)

pytorch 如何自定義卷積核權(quán)值參數(shù)

熱門(mén)標(biāo)簽:電銷機(jī)器人的風(fēng)險(xiǎn) 應(yīng)電話機(jī)器人打電話違法嗎 地圖標(biāo)注線上如何操作 開(kāi)封自動(dòng)外呼系統(tǒng)怎么收費(fèi) 開(kāi)封語(yǔ)音外呼系統(tǒng)代理商 天津電話機(jī)器人公司 400電話辦理哪種 河北防封卡電銷卡 手機(jī)網(wǎng)頁(yè)嵌入地圖標(biāo)注位置

pytorch中構(gòu)建卷積層一般使用nn.Conv2d方法,有些情況下我們需要自定義卷積核的權(quán)值weight,而nn.Conv2d中的卷積參數(shù)是不允許自定義的,此時(shí)可以使用torch.nn.functional.conv2d簡(jiǎn)稱F.conv2d

torch.nn.functional.conv2d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1)

F.conv2d可以自己輸入且也必須要求自己輸入卷積權(quán)值weight和偏置bias。因此,構(gòu)建自己想要的卷積核參數(shù),再輸入F.conv2d即可。

下面是一個(gè)用F.conv2d構(gòu)建卷積層的例子

這里為了網(wǎng)絡(luò)模型需要寫(xiě)成了一個(gè)類:

class CNN(nn.Module):
    def __init__(self):
        super(CNN, self).__init__()
        self.weight = nn.Parameter(torch.randn(16, 1, 5, 5))  # 自定義的權(quán)值
        self.bias = nn.Parameter(torch.randn(16))    # 自定義的偏置
 
    def forward(self, x):
        x = x.view(x.size(0), -1)
        out = F.conv2d(x, self.weight, self.bias, stride=1, padding=0)
        return out

值得注意的是,pytorch中各層需要訓(xùn)練的權(quán)重的數(shù)據(jù)類型設(shè)為nn.Parameter,而不是Tensor或者Variable。parameter的require_grad默認(rèn)設(shè)置為true,而Varaible默認(rèn)設(shè)置為False。

補(bǔ)充:pytorch中卷積參數(shù)的理解

kernel_size代表著卷積核,例如kernel_size=3或kernel_size=(3,7);

stride:表明卷積核在像素級(jí)圖像上行走的步長(zhǎng),如圖2,步長(zhǎng)為1;

padding:為上下左右填充的大小,例如padding=0/1/(1,1)/(1,3),

padding=0 不填充;

padding=1/(1,1) 上下左右分別填充1個(gè)格;

padding=(1,3) 高(上下)填充2個(gè)格,寬(左右)填充6個(gè)格;

卷積代碼

torch.nn.Conv2d(512,512,kernel_size=(3,7),stride=2,padding=1)

指定輸出形狀的上采樣

def upsample_add(self,x,y):
        _,_,H,W = y.size()
        return F.interpolate(x, size=(H,W), mode='bilinear', align_corners=False) + y

反卷積上采樣

output_shape_w=kernel_size_w+(output_w-1)(kernel_size_w-1)+2padding
self.upscore2 = nn.ConvTranspose2d(
            512, 1, kernel_size=3, stride=2,padding=0, bias=False)

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • pytorch固定BN層參數(shù)的操作
  • pytorch交叉熵?fù)p失函數(shù)的weight參數(shù)的使用
  • Pytorch 統(tǒng)計(jì)模型參數(shù)量的操作 param.numel()
  • pytorch 一行代碼查看網(wǎng)絡(luò)參數(shù)總量的實(shí)現(xiàn)
  • pytorch查看網(wǎng)絡(luò)參數(shù)顯存占用量等操作
  • pytorch 優(yōu)化器(optim)不同參數(shù)組,不同學(xué)習(xí)率設(shè)置的操作
  • pytorch LayerNorm參數(shù)的用法及計(jì)算過(guò)程

標(biāo)簽:宿遷 常州 成都 山東 江蘇 蘭州 六盤(pán)水 駐馬店

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《pytorch 如何自定義卷積核權(quán)值參數(shù)》,本文關(guān)鍵詞  pytorch,如何,自定義,卷積,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《pytorch 如何自定義卷積核權(quán)值參數(shù)》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于pytorch 如何自定義卷積核權(quán)值參數(shù)的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章