參數(shù) | 介紹 |
---|---|
units | 正整數(shù), 輸出空間維度 |
activation | 激活函數(shù), 若不指定, 則不適用激活函數(shù) |
use_bias | 布爾值, 該層是否使用偏置向量 |
kernel_initializer | kernel 權(quán)值矩陣的初始化器 |
bias_initializer | 偏執(zhí)向量的初始化器 |
kernel_regulaizer | 運(yùn)用到偏執(zhí)項(xiàng)的正則化函數(shù) |
bias_regularizer | 運(yùn)用到偏執(zhí)項(xiàng)的的正則化函數(shù) |
activity_regulatizer | 運(yùn)用到層的輸出正則化函數(shù) |
kernel_constrint | 運(yùn)用到kernel 權(quán)值矩陣的約束函數(shù) |
bias_constraint | 運(yùn)用到偏執(zhí)向量的約束函數(shù) |
例子:
# 創(chuàng)建正態(tài)分布 x = tf.random.normal([256, 784]) # 創(chuàng)建全連接層, 輸出為512 net = tf.keras.layers.Dense(512) out = net(x) # 調(diào)試輸出 print("w:", net.kernel.shape) print("b:", net.bias.shape)
輸出結(jié)果:
w: (784, 512)
b: (512,)
Squential (序列模型) 是各層次之間依次順序的線(xiàn)性關(guān)系. 模型結(jié)構(gòu)通過(guò)一個(gè)列表來(lái)制定.
格式:
tf.keras.Sequential( layers=None, name=None )
參數(shù):
例子:
# 創(chuàng)建正態(tài)分布 x = tf.random.normal([256, 784]) # 建立網(wǎng)絡(luò)模型 model = tf.keras.Sequential([ tf.keras.layers.Dense(256, activation="relu"), tf.keras.layers.Dense(128, activation="relu"), tf.keras.layers.Dense(10, activation="relu"), ]) # 傳入x model(x) # 調(diào)試輸出權(quán)重和偏置頂名字和形狀 for p in model.trainable_variables: print(p.name, p.shape)
輸出結(jié)果:
w: (784, 512)
b: (512,)
dense_1/kernel:0 (784, 256)
dense_1/bias:0 (256,)
dense_2/kernel:0 (256, 128)
dense_2/bias:0 (128,)
dense_3/kernel:0 (128, 10)
dense_3/bias:0 (10,)
到此這篇關(guān)于一小時(shí)學(xué)會(huì)TensorFlow2之全連接層的文章就介紹到這了,更多相關(guān)TensorFlow2全連接層內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
標(biāo)簽:吉安 紹興 廣西 懷化 呂梁 蘭州 蕪湖 安康
巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《一小時(shí)學(xué)會(huì)TensorFlow2之全連接層》,本文關(guān)鍵詞 一小時(shí),學(xué)會(huì),TensorFlow2,之全,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。