主頁(yè) > 知識(shí)庫(kù) > 一小時(shí)學(xué)會(huì)TensorFlow2之全連接層

一小時(shí)學(xué)會(huì)TensorFlow2之全連接層

熱門(mén)標(biāo)簽:徐州天音防封電銷(xiāo)卡 南昌辦理400電話(huà)怎么安裝 佛山防封外呼系統(tǒng)收費(fèi) 電話(huà)機(jī)器人適用業(yè)務(wù) 獲客智能電銷(xiāo)機(jī)器人 鄭州智能外呼系統(tǒng)運(yùn)營(yíng)商 不錯(cuò)的400電話(huà)辦理 哈爾濱外呼系統(tǒng)代理商 湛江電銷(xiāo)防封卡

概述

全鏈接層 (Fully Connected Layer) 會(huì)把一個(gè)特質(zhì)空間線(xiàn)性變換到另一個(gè)特質(zhì)空間, 在整個(gè)網(wǎng)絡(luò)中起到分類(lèi)器的作用.

keras.layers.Dense

keras.layers.Dense可以幫助我們實(shí)現(xiàn)全連接.

格式:

tf.keras.layers.Dense(
    units, activation=None, use_bias=True,
    kernel_initializer='glorot_uniform',
    bias_initializer='zeros', kernel_regularizer=None,
    bias_regularizer=None, activity_regularizer=None, kernel_constraint=None,
    bias_constraint=None, **kwargs
)

參數(shù) 介紹
units 正整數(shù), 輸出空間維度
activation 激活函數(shù), 若不指定, 則不適用激活函數(shù)
use_bias 布爾值, 該層是否使用偏置向量
kernel_initializer kernel權(quán)值矩陣的初始化器
bias_initializer 偏執(zhí)向量的初始化器
kernel_regulaizer 運(yùn)用到偏執(zhí)項(xiàng)的正則化函數(shù)
bias_regularizer 運(yùn)用到偏執(zhí)項(xiàng)的的正則化函數(shù)
activity_regulatizer 運(yùn)用到層的輸出正則化函數(shù)
kernel_constrint 運(yùn)用到kernel權(quán)值矩陣的約束函數(shù)
bias_constraint 運(yùn)用到偏執(zhí)向量的約束函數(shù)

例子:

# 創(chuàng)建正態(tài)分布
x = tf.random.normal([256, 784])

# 創(chuàng)建全連接層, 輸出為512
net = tf.keras.layers.Dense(512)
out = net(x)

# 調(diào)試輸出
print("w:", net.kernel.shape)
print("b:", net.bias.shape)

輸出結(jié)果:

w: (784, 512)
b: (512,)

keras.Squential

Squential (序列模型) 是各層次之間依次順序的線(xiàn)性關(guān)系. 模型結(jié)構(gòu)通過(guò)一個(gè)列表來(lái)制定.

格式:

tf.keras.Sequential(
    layers=None, name=None
)

參數(shù):

  • layers: 添加的層
  • name: 數(shù)據(jù)名稱(chēng)

例子:

# 創(chuàng)建正態(tài)分布
x = tf.random.normal([256, 784])

# 建立網(wǎng)絡(luò)模型
model = tf.keras.Sequential([
    tf.keras.layers.Dense(256, activation="relu"),
    tf.keras.layers.Dense(128, activation="relu"),
    tf.keras.layers.Dense(10, activation="relu"),
])

# 傳入x
model(x)

# 調(diào)試輸出權(quán)重和偏置頂名字和形狀
for p in model.trainable_variables:
    print(p.name, p.shape)

輸出結(jié)果:

w: (784, 512)
b: (512,)
dense_1/kernel:0 (784, 256)
dense_1/bias:0 (256,)
dense_2/kernel:0 (256, 128)
dense_2/bias:0 (128,)
dense_3/kernel:0 (128, 10)
dense_3/bias:0 (10,)

到此這篇關(guān)于一小時(shí)學(xué)會(huì)TensorFlow2之全連接層的文章就介紹到這了,更多相關(guān)TensorFlow2全連接層內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • 一小時(shí)學(xué)會(huì)TensorFlow2之基本操作1實(shí)例代碼
  • 一小時(shí)學(xué)會(huì)TensorFlow2之基本操作2實(shí)例代碼

標(biāo)簽:吉安 紹興 廣西 懷化 呂梁 蘭州 蕪湖 安康

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《一小時(shí)學(xué)會(huì)TensorFlow2之全連接層》,本文關(guān)鍵詞  一小時(shí),學(xué)會(huì),TensorFlow2,之全,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《一小時(shí)學(xué)會(huì)TensorFlow2之全連接層》相關(guān)的同類(lèi)信息!
  • 本頁(yè)收集關(guān)于一小時(shí)學(xué)會(huì)TensorFlow2之全連接層的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章