主頁 > 知識庫 > tensorflow中的梯度求解及梯度裁剪操作

tensorflow中的梯度求解及梯度裁剪操作

熱門標(biāo)簽:手機(jī)網(wǎng)頁嵌入地圖標(biāo)注位置 地圖標(biāo)注線上如何操作 開封語音外呼系統(tǒng)代理商 天津電話機(jī)器人公司 電銷機(jī)器人的風(fēng)險(xiǎn) 河北防封卡電銷卡 400電話辦理哪種 開封自動外呼系統(tǒng)怎么收費(fèi) 應(yīng)電話機(jī)器人打電話違法嗎

1. tensorflow中梯度求解的幾種方式

1.1 tf.gradients

tf.gradients(
    ys,
    xs,
    grad_ys=None,
    name='gradients',
    colocate_gradients_with_ops=False,
    gate_gradients=False,
    aggregation_method=None,
    stop_gradients=None,
    unconnected_gradients=tf.UnconnectedGradients.NONE
)

計(jì)算ys關(guān)于xs的梯度,tf.gradients返回的結(jié)果是一個長度為len(xs)的tensor列表list,例如

tf.gradients(y, [x1, x2, x3]返回[dy/dx1, dy/dx2, dy/dx3]

當(dāng)y與x無關(guān)時,即graph無x到y(tǒng)的路徑, 則求y關(guān)于x的梯度時返回[None];參數(shù)stop_gradients指定的變量對當(dāng)前梯度求解而言, 梯度求解將止于這些變量。

a = tf.constant(0.)
b = 2 * a
g = tf.gradients(a + b, [a, b], stop_gradients=[a, b]) #梯度計(jì)算不再追溯a,b之前的變量

輸出:

In: sess.run(g)

out:[1.0, 1.0]

如果不設(shè)置stop_gradients參數(shù)則反向傳播梯度計(jì)算將追溯到最開始的值a,輸出結(jié)果為:

In : sess.run(g)

Out: [3.0, 1.0]

1.2 optimizer.compute_gradients

compute_gradients(
    loss,
    var_list=None,
    gate_gradients=GATE_OP,
    aggregation_method=None,
    colocate_gradients_with_ops=False,
    grad_loss=None
)

optimizer.compute_gradients是tf.gradients的封裝,作用相同,但是tfgradients只返回梯度,compute_gradients返回梯度和可導(dǎo)的變量;tf.compute_gradients是optimizer.minimize()的第一步,optimizer.compute_gradients返回一個[(gradient, variable),…]的元組列表,其中g(shù)radient是tensor。

直觀上,optimizer.compute_gradients只比tf.gradients多了一個variable輸出。

optimizer = tf.train.GradientDescentOptimizer(learning_rate = 1.0)
self.train_op = optimizer.minimize(self.cost)
sess.run([train_op], feed_dict={x:data, y:labels})

在這個過程中,調(diào)用minimize方法的時候,底層進(jìn)行的工作包括:

(1) 使用tf.optimizer.compute_gradients計(jì)算trainable_variables 集合中所有參數(shù)的梯度

(2) 用optimizer.apply_gradients來更新計(jì)算得到的梯度對應(yīng)的變量

上面代碼等價于下面代碼

optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.1)
grads_and_vars = optimizer.compute_gradients(loss)
train_op = optimizer.apply_gradients(grads_and_vars)

1.3 tf.stop_gradient

tf.stop_gradient(
    input,
    name=None
)

tf.stop_gradient阻止input的變量參與梯度計(jì)算,即在梯度計(jì)算的過程中屏蔽input之前的graph。

返回:關(guān)于input的梯度

2. 梯度裁剪

如果我們希望對梯度進(jìn)行截?cái)?,那么就要自己?jì)算出梯度,然后進(jìn)行clip,最后應(yīng)用到變量上,代碼如下所示,接下來我們一一介紹其中的主要步驟

#return a list of trainable variable in you model
params = tf.trainable_variables()

#create an optimizer
opt = tf.train.GradientDescentOptimizer(self.learning_rate)

#compute gradients for params
gradients = tf.gradients(loss, params)

#process gradients
clipped_gradients, norm = tf.clip_by_global_norm(gradients,max_gradient_norm)

train_op = opt.apply_gradients(zip(clipped_gradients, params)))

2.1 tf.clip_by_global_norm介紹

tf.clip_by_global_norm(t_list, clip_norm, use_norm=None, name=None)

t_list 表示梯度張量

clip_norm是截取的比率

在應(yīng)用這個函數(shù)之后,t_list[i]的更新公示變?yōu)椋?/p>

global_norm = sqrt(sum(l2norm(t)**2 for t in t_list))
t_list[i] = t_list[i] * clip_norm / max(global_norm, clip_norm)

也就是分為兩步:

(1) 計(jì)算所有梯度的平方和global_norm

(2) 如果梯度平方和 global_norm 超過我們指定的clip_norm,那么就對梯度進(jìn)行縮放;否則就按照原本的計(jì)算結(jié)果

梯度裁剪實(shí)例2

loss = w*x*x
optimizer = tf.train.GradientDescentOptimizer(0.1)
grads_and_vars = optimizer.compute_gradients(loss,[w,x])
grads = tf.gradients(loss,[w,x])
# 修正梯度
for i,(gradient,var) in enumerate(grads_and_vars):
    if gradient is not None:
        grads_and_vars[i] = (tf.clip_by_norm(gradient,5),var)
train_op = optimizer.apply_gradients(grads_and_vars)
with tf.Session() as sess:
    sess.run(tf.global_variables_initializer())
    print(sess.run(grads_and_vars))
     # 梯度修正前[(9.0, 2.0), (12.0, 3.0)];梯度修正后 ,[(5.0, 2.0), (5.0, 3.0)]
    print(sess.run(grads))  #[9.0, 12.0],
    print(train_op)

補(bǔ)充:tensorflow框架中幾種計(jì)算梯度的方式

1. tf.gradients

tf.gradients(
    ys,
    xs,
    grad_ys=None,
    name='gradients',
    colocate_gradients_with_ops=False,
    gate_gradients=False,
    aggregation_method=None,
    stop_gradients=None,
    unconnected_gradients=tf.UnconnectedGradients.NONE
)

計(jì)算ys關(guān)于xs的梯度,tf.gradients返回的結(jié)果是一個長度為len(xs)的Tensor列表list,每個張量為sum(dy/dx),即ys關(guān)于xs的導(dǎo)數(shù)。

例子:

tf.gradients(y, [x1, x2, x3]返回[dy/dx1, dy/dx2, dy/dx3]

當(dāng)y與x無關(guān)時,即graph無x到y(tǒng)的路徑, 則求y關(guān)于x的梯度時返回[None]

參數(shù)stop_gradients指定的變量對當(dāng)前梯度求解而言, 梯度求解將止于這些變量。

實(shí)例:

a = tf.constant(0.)
b = 2 * a
g = tf.gradients(a + b, [a, b], stop_gradients=[a, b]) #梯度計(jì)算不再追溯a,b之前的變量

輸出:

In: sess.run(g)

out:[1.0, 1.0]

如果不設(shè)置stop_gradients參數(shù)則反向傳播梯度計(jì)算將追溯到最開始的值a,輸出結(jié)果為:

In : sess.run(g)

Out: [3.0, 1.0]

2. optimizer.compute_gradients

compute_gradients(
    loss,
    var_list=None,
    gate_gradients=GATE_OP,
    aggregation_method=None,
    colocate_gradients_with_ops=False,
    grad_loss=None
)

optimizer.compute_gradients是tf.gradients的封裝1.

是optimizer.minimize()的第一步,返回(gradient, variable)的列表,其中g(shù)radient是tensor。

直觀上,optimizer.compute_gradients只比tf.gradients多了一個variable輸出。

3. tf.stop_gradient

tf.stop_gradient(
    input,
    name=None
)

tf.stop_gradient阻止input的變量參與梯度計(jì)算,即在梯度計(jì)算的過程中屏蔽input之前的graph。

返回:關(guān)于input的梯度

應(yīng)用:

1、EM算法,其中M步驟不應(yīng)涉及通過E步驟的輸出的反向傳播。

2、Boltzmann機(jī)器的對比散度訓(xùn)練,在區(qū)分能量函數(shù)時,訓(xùn)練不得反向傳播通過模型生成樣本的圖形。

3、對抗性訓(xùn)練,通過對抗性示例生成過程不會發(fā)生反向訓(xùn)練。

以上為個人經(jīng)驗(yàn),希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • 使用tensorflow 實(shí)現(xiàn)反向傳播求導(dǎo)
  • TensorFlow的自動求導(dǎo)原理分析
  • Tensorflow 如何從checkpoint文件中加載變量名和變量值
  • Python3安裝tensorflow及配置過程
  • 解決tensorflow 與keras 混用之坑
  • tensorflow中的數(shù)據(jù)類型dtype用法說明

標(biāo)簽:宿遷 駐馬店 山東 常州 江蘇 成都 六盤水 蘭州

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《tensorflow中的梯度求解及梯度裁剪操作》,本文關(guān)鍵詞  tensorflow,中的,梯度,求解,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《tensorflow中的梯度求解及梯度裁剪操作》相關(guān)的同類信息!
  • 本頁收集關(guān)于tensorflow中的梯度求解及梯度裁剪操作的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章