का उपयोग करते समय L2 नियमितकरण जोड़ें tf.layers में परिभाषित परतों का उपयोग करते समय L2 नियमितकरण जोड़ना संभव है?उच्च स्तरीय tf.layers
ऐसा लगता है कि चूंकि tf.layers एक उच्च स्तरीय रैपर है, फ़िल्टर वजन तक पहुंचने का कोई आसान तरीका नहीं है।
tf.nn.conv2d
regularizer = tf.contrib.layers.l2_regularizer(scale=0.1)
weights = tf.get_variable(
name="weights",
regularizer=regularizer
)
#Previous layers
...
#Second layer
layer 2 = tf.nn.conv2d(
input,
weights,
[1,1,1,1],
[1,1,1,1])
#More layers
...
#Loss
loss = #some loss
reg_variables = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
reg_term = tf.contrib.layers.apply_regularization(regularizer, reg_variables)
loss += reg_term
अब जब कि tf.layers.conv2d साथ कैसे दिखाई देते हैं के साथ ?
धन्यवाद!
क्या मुझे अंतिम हानि परत में नियमितकर्ता जोड़ने की आवश्यकता है? 'Loss_new = loss_old + regularizer' – Tom
@TYL की तरह आप इसे अंतिम हानि परत में जोड़ते हैं या नहीं? – thigi
क्या आप अपना उत्तर थोड़ा सा विस्तारित कर सकते हैं? – thigi