TensorFlow如何使用tf.train.Saver()保存模型-創(chuàng)新互聯(lián)

這篇文章將為大家詳細(xì)講解有關(guān)TensorFlow如何使用 tf.train.Saver()保存模型,小編覺(jué)得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。

目前累計(jì)服務(wù)客戶上1000+,積累了豐富的產(chǎn)品開(kāi)發(fā)及服務(wù)經(jīng)驗(yàn)。以網(wǎng)站設(shè)計(jì)水平和技術(shù)實(shí)力,樹(shù)立企業(yè)形象,為客戶提供成都網(wǎng)站設(shè)計(jì)、網(wǎng)站制作、網(wǎng)站策劃、網(wǎng)頁(yè)設(shè)計(jì)、網(wǎng)絡(luò)營(yíng)銷、VI設(shè)計(jì)、網(wǎng)站改版、漏洞修補(bǔ)等服務(wù)。成都創(chuàng)新互聯(lián)公司始終以務(wù)實(shí)、誠(chéng)信為根本,不斷創(chuàng)新和提高建站品質(zhì),通過(guò)對(duì)領(lǐng)先技術(shù)的掌握、對(duì)創(chuàng)意設(shè)計(jì)的研究、對(duì)客戶形象的視覺(jué)傳遞、對(duì)應(yīng)用系統(tǒng)的結(jié)合,為客戶提供更好的一站式互聯(lián)網(wǎng)解決方案,攜手廣大客戶,共同發(fā)展進(jìn)步。

關(guān)于模型保存的一點(diǎn)心得

saver = tf.train.Saver(max_to_keep=3)

在定義 saver 的時(shí)候一般會(huì)定義最多保存模型的數(shù)量,一般來(lái)說(shuō),如果模型本身很大,我們需要考慮到硬盤(pán)大小。如果你需要在當(dāng)前訓(xùn)練好的模型的基礎(chǔ)上進(jìn)行 fine-tune,那么盡可能多的保存模型,后繼 fine-tune 不一定從最好的 ckpt 進(jìn)行,因?yàn)橛锌赡芤幌伦泳瓦^(guò)擬合了。但是如果保存太多,硬盤(pán)也有壓力呀。如果只想保留最好的模型,方法就是每次迭代到一定步數(shù)就在驗(yàn)證集上計(jì)算一次 accuracy 或者 f1 值,如果本次結(jié)果比上次好才保存新的模型,否則沒(méi)必要保存。

如果你想用不同 epoch 保存下來(lái)的模型進(jìn)行融合的話,3到5 個(gè)模型已經(jīng)足夠了,假設(shè)這各融合的模型成為 M,而最好的一個(gè)單模型稱為 m_best, 這樣融合的話對(duì)于M 確實(shí)可以比 m_best 更好。但是如果拿這個(gè)模型和其他結(jié)構(gòu)的模型再做融合的話,M 的效果并沒(méi)有 m_best 好,因?yàn)镸 相當(dāng)于做了平均操作,減少了該模型的“特性”。

但是又有一種新的融合方式,就是利用調(diào)整學(xué)習(xí)率來(lái)獲取多個(gè)局部最優(yōu)點(diǎn),就是當(dāng) loss 降不下了,保存一個(gè) ckpt, 然后開(kāi)大學(xué)習(xí)率繼續(xù)尋找下一個(gè)局部最優(yōu)點(diǎn),然后用這些 ckpt 來(lái)做融合,還沒(méi)試過(guò),單模型肯定是有提高的,就是不知道還會(huì)不會(huì)出現(xiàn)上面再與其他模型融合就沒(méi)提高的情況。

如何使用 tf.train.Saver() 來(lái)保存模型

之前一直出錯(cuò),主要是因?yàn)榭拥木幋a問(wèn)題。所以要注意文件的路徑絕對(duì)不不要出現(xiàn)什么中文呀。

import tensorflow as tf
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
sess = tf.Session(config=config)

# Create some variables.
v1 = tf.Variable([1.0, 2.3], name="v1")
v2 = tf.Variable(55.5, name="v2")

# Add an op to initialize the variables.
init_op = tf.global_variables_initializer()

# Add ops to save and restore all the variables.
saver = tf.train.Saver()

ckpt_path = './ckpt/test-model.ckpt'
# Later, launch the model, initialize the variables, do some work, save the
# variables to disk.
sess.run(init_op)
save_path = saver.save(sess, ckpt_path, global_step=1)
print("Model saved in file: %s" % save_path)

Model saved in file: ./ckpt/test-model.ckpt-1

注意,在上面保存完了模型之后。應(yīng)該把 kernel restart 之后才能使用下面的模型導(dǎo)入。否則會(huì)因?yàn)閮纱蚊?“v1” 而導(dǎo)致名字錯(cuò)誤。

import tensorflow as tf
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
sess = tf.Session(config=config)

# Create some variables.
v1 = tf.Variable([11.0, 16.3], name="v1")
v2 = tf.Variable(33.5, name="v2")

# Add ops to save and restore all the variables.
saver = tf.train.Saver()

# Later, launch the model, use the saver to restore variables from disk, and
# do some work with the model.
# Restore variables from disk.
ckpt_path = './ckpt/test-model.ckpt'
saver.restore(sess, ckpt_path + '-'+ str(1))
print("Model restored.")

print sess.run(v1)
print sess.run(v2)

INFO:tensorflow:Restoring parameters from ./ckpt/test-model.ckpt-1
Model restored.
[ 1.          2.29999995]
55.5

導(dǎo)入模型之前,必須重新再定義一遍變量。

但是并不需要全部變量都重新進(jìn)行定義,只定義我們需要的變量就行了。

也就是說(shuō),你所定義的變量一定要在 checkpoint 中存在;但不是所有在checkpoint中的變量,你都要重新定義。

import tensorflow as tf
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
sess = tf.Session(config=config)

# Create some variables.
v1 = tf.Variable([11.0, 16.3], name="v1")

# Add ops to save and restore all the variables.
saver = tf.train.Saver()

# Later, launch the model, use the saver to restore variables from disk, and
# do some work with the model.
# Restore variables from disk.
ckpt_path = './ckpt/test-model.ckpt'
saver.restore(sess, ckpt_path + '-'+ str(1))
print("Model restored.")

print sess.run(v1)

INFO:tensorflow:Restoring parameters from ./ckpt/test-model.ckpt-1
Model restored.
[ 1.          2.29999995]

tf.Saver([tensors_to_be_saved]) 中可以傳入一個(gè) list,把要保存的 tensors 傳入,如果沒(méi)有給定這個(gè)list的話,他會(huì)默認(rèn)保存當(dāng)前所有的 tensors。

關(guān)于“TensorFlow如何使用 tf.train.Saver()保存模型”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,使各位可以學(xué)到更多知識(shí),如果覺(jué)得文章不錯(cuò),請(qǐng)把它分享出去讓更多的人看到。

另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無(wú)理由+7*72小時(shí)售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國(guó)服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡(jiǎn)單易用、服務(wù)可用性高、性價(jià)比高”等特點(diǎn)與優(yōu)勢(shì),專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場(chǎng)景需求。

文章標(biāo)題:TensorFlow如何使用tf.train.Saver()保存模型-創(chuàng)新互聯(lián)
文章分享:http://bm7419.com/article14/iiide.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供面包屑導(dǎo)航、全網(wǎng)營(yíng)銷推廣、做網(wǎng)站、軟件開(kāi)發(fā)、網(wǎng)站設(shè)計(jì)、Google

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

成都定制網(wǎng)站網(wǎng)頁(yè)設(shè)計(jì)