每次卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的結(jié)果都只保存了最后一部分,查閱了一下相關(guān)資料,發(fā)現(xiàn)是定義saver時(shí)采用的默認(rèn)值,這里進(jìn)行如下設(shè)置:
saver
=
tf.train.Saver(
max_to_keep
=
100
,
keep_checkpoint_every_n_hours
=
1
)
補(bǔ)充:解決TensorFlow只能保存5個(gè)模型的問(wèn)題
直奔主題
在訓(xùn)練模型的代碼中找到這句代碼:tf.train.Saver(),
改成:
tf.train.Saver(max_to_keep = m) # m為你想保存的模型數(shù)量
擴(kuò)展
Saver類(lèi)中的可選參數(shù)
tf.train.Saver(max_to_keep = m, keep_checkpoint_every_n_hours = n)
max_to_keep
保存離當(dāng)前訓(xùn)練最近的模型數(shù)量,默認(rèn)值為5。如果想全部保存,并且電腦內(nèi)存夠用,設(shè)成多大都可以。
keep_checkpoint_every_n_hours
每隔n個(gè)小時(shí)保存一次模型,默認(rèn)值為10,000(一般情況下應(yīng)該不會(huì)訓(xùn)練這么長(zhǎng)時(shí)間,所以相當(dāng)于是不會(huì)按照時(shí)間來(lái)保存,按照設(shè)置的epoch保存節(jié)點(diǎn)數(shù)來(lái)保存)。
以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教。
您可能感興趣的文章:- 解決tensorflow模型壓縮的問(wèn)題_踩坑無(wú)數(shù),總算搞定
- 解決TensorFlow程序無(wú)限制占用GPU的方法
- tensorflow實(shí)現(xiàn)訓(xùn)練變量checkpoint的保存與讀取
- tensorflow-gpu安裝的常見(jiàn)問(wèn)題及解決方案