每次卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的結(jié)果都只保存了最后一部分,查閱了一下相關(guān)資料,發(fā)現(xiàn)是定義saver時采用的默認值,這里進行如下設(shè)置:
saver = tf.train.Saver( max_to_keep = 100 , keep_checkpoint_every_n_hours = 1 )
補充:解決TensorFlow只能保存5個模型的問題
在訓(xùn)練模型的代碼中找到這句代碼:tf.train.Saver(),
改成:
tf.train.Saver(max_to_keep = m) # m為你想保存的模型數(shù)量
Saver類中的可選參數(shù)
tf.train.Saver(max_to_keep = m, keep_checkpoint_every_n_hours = n)
max_to_keep
保存離當(dāng)前訓(xùn)練最近的模型數(shù)量,默認值為5。如果想全部保存,并且電腦內(nèi)存夠用,設(shè)成多大都可以。
keep_checkpoint_every_n_hours
每隔n個小時保存一次模型,默認值為10,000(一般情況下應(yīng)該不會訓(xùn)練這么長時間,所以相當(dāng)于是不會按照時間來保存,按照設(shè)置的epoch保存節(jié)點數(shù)來保存)。
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。
標簽:濟源 信陽 興安盟 昭通 淘寶好評回訪 合肥 阜新 隨州
巨人網(wǎng)絡(luò)通訊聲明:本文標題《解決TensorFlow訓(xùn)練模型及保存數(shù)量限制的問題》,本文關(guān)鍵詞 解決,TensorFlow,訓(xùn)練,模型,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。