tensorflow中的Supervisor
                                                            生活随笔
收集整理的這篇文章主要介紹了
                                tensorflow中的Supervisor
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.                        
                                tf.train.Supervisor()可以幫我們簡(jiǎn)化一些事情,可以保存模型參數(shù)和Summary,它有以下的作用:
1)自動(dòng)去checkpoint加載數(shù)據(jù)或初始化數(shù)據(jù) ,因此我們就不需要手動(dòng)初始化或者從checkpoint中加載數(shù)據(jù)
2)自身有一個(gè)Saver,可以用來(lái)保存checkpoint,因此不需要?jiǎng)?chuàng)建Saver,直接使用Supervisor里的Saver即可
3)有一個(gè)summary_computed用來(lái)保存Summary,因此不需要?jiǎng)?chuàng)建summary_writer
因此從這里看,Supervisor相當(dāng)于將一些功能集成到一起了,具體代碼實(shí)現(xiàn)
import tensorflow as tfa = tf.Variable(1) b = tf.Variable(2) c = tf.add(a, b) update = tf.assign(a, c) tf.summary.scalar("a", a) init_op = tf.initialize_all_variables() merged_summary_op = tf.summary.merge_all() sv = tf.train.Supervisor(logdir="./tmp/", init_op=init_op) # 直接初始化 saver = sv.saver with sv.managed_session() as sess:for i in range(10000):update_ = sess.run(update)if i % 10 == 0:merged_summary = sess.run(merged_summary_op)sv.summary_computed(sess, merged_summary, global_step=i) # 直接將summary保存if i % 100 == 0:saver.save(sess, save_path="./tmp/", global_step=i) # 直接將模型參數(shù)保存?
轉(zhuǎn)載于:https://www.cnblogs.com/jiangxinyang/p/9396211.html
總結(jié)
以上是生活随笔為你收集整理的tensorflow中的Supervisor的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。