今天小编就为大家分享一篇Tensorflow 自定义loss的情况下初始化部分变量方式,具有很好的参考价值,希望对大家有所帮助。
初始化为常量
tf.constant_initializer 也可以简单tf.Constant() 初始化为常数,这个非常有用,通常偏执项就是用它初始化的。 由它衍生出的两个初始化方法: tf.zeros_initializer(),也可以简写为tf.Zeros() tf.ones_initializer(),也可以简写为tf.Ones() 例如:在卷积层中,将偏执项b初始化为0,则有多种写法:
conv1 = tf.layers.conv2d(batch_images, filters=64, kernel_size=7, strides=2, activation=tf.nn.relu, kernel_initializer=tf.TruncatedNormal(stddev=0.01) bias_initializer=tf.Constant(0), )
一般情况下,tensorflow里面变量初始化过程为:
#variables ...........
#.....................
init = tf.initialize_all_variables()
sess.run(init)
这里 tf.initialize_all_variables() 会初始化所有的变量。实际过程中,假设有a, b, c三个变量,其中a已经被初始化了,只想单独初始化b,c,那么:
#variables ...
...
init = tf.variables_initializer([b,c])
sess.run(init)
此外,如果自行修改了optimizer,如下代码就会报错:
#definition of variables a, b, c ...
my_optimizer = tf.train.RMSProp(learning_rate = 0.1).minimize(my_cost)
init = tf.variables_initializer([b,c])
sess.run(init)
这是因为自己定义的optimizer会生成新的variables,但是在init里面并没有初始化,所以无法访问,会报错。解决方法如下:
a = tf.Variables(...) #line N
temp = set(tf.all_variables())
b = tf.Variables(...)
c = tf.Variables(...)
#definition of my optimizer
optimizer = tf.train.......
init = tf.variables_initializer(set(tf.all_varialbles())-temp) # line M
sess.run(init)
首先,temp = set(tf.all_variables()) 将该行(line N)代码之前的所有变量保存在temp中,接下来定义变量b, c,以及自定义的optimizer,然后 set(tf.all_varialbles()存储了改行(line M)之前的所有变量(包括optimizer生成的变量以及temp中所含的变量),set(tf.all_varialbles())-temp相减得到line N~M这几行定义的变量。
参考: