#python #tensorflow #machine-learning #keras #deep-learning
#python #tensorflow #машинное обучение #keras #глубокое обучение
Вопрос:
Я создаю небольшую сеть, используя некоторые пользовательские сетевые поля для каждого варианта использования, это выглядит следующим образом :
def top_block(dropout = None, training = None):
# scaled input
input_1 = tf.keras.Input(shape=(1,15), dtype='float32')
input_2 = tf.keras.Input(shape=(1,15), dtype='float32')
if dropout:
layer_one = tf.keras.layers.Dropout(rate = dropout)(input_1, training = training)
layer_two = tf.keras.layers.Dropout(rate = dropout)(input_2, training = training)
return [layer_one,layer_two]
return [input_1,input_2]
def bottom_layer(input_layers):
data = tf.reduce_mean(input_layers,0)
cls_layer = tf.keras.layers.Dense(1,
kernel_initializer = keras.initializers.glorot_uniform(seed=200),
activation = 'sigmoid')(data)
model = tf.keras.Model([input_layers[0], input_layers[1]], cls_layer , name = 'model_1')
model.compile(loss = 'binary_crossentropy', optimizer = 'adam', metrics=['accuracy'])
model.summary()
return model
Если я пытаюсь получить доступ к этой сети без выпадения, она работает нормально :
top_ = top_block()
model = bottom_layer(top_ )
Но если я получаю доступ с выпадением, это выдает ошибку:
top_ = top_block(dropout = 0.2, training = True)
model = bottom_layer(top_ )
Ошибка значения: граф отключен: не удается получить значение для тензора тензора («input_72:0», shape= (None, 1, 15), dtype = float32) на уровне «input_72». Доступ к следующим предыдущим слоям был выполнен без проблем: []
- Как получить доступ к модели с выпадающим слоем?
- Как отключить
training = False
во время оценки? Нужно ли загружать полную модель и веса старой модели?
Спасибо!
Ответ №1:
Я только что понял, что мой ввод поступает с промежуточного уровня (выпадающий уровень), он должен поступать непосредственно с входного уровня :
def top_block():
# scaled input
input_1 = tf.keras.Input(shape=(1,15), dtype='float32')
input_2 = tf.keras.Input(shape=(1,15), dtype='float32')
return [input_1, input_2]
def apply_dropout(layers_data, dropout_val, training):
layer_one = tf.keras.layers.Dropout(rate = dropout_val)(layers_data[0], training = training)
layer_two = tf.keras.layers.Dropout(rate = dropout_val)(layers_data[1], training = training)
return [layer_one, layer_two]
def bottom_layer(input_layers, data):
data = tf.reduce_mean(data, 0)
cls_layer = tf.keras.layers.Dense(1,
kernel_initializer = keras.initializers.glorot_uniform(seed=200),
activation = 'sigmoid')(data)
model = tf.keras.Model(input_layers, cls_layer , name = 'model_1')
model.compile(loss = 'binary_crossentropy', optimizer = 'adam', metrics=['accuracy'])
model.summary()
return model
Теперь это работает
top_ = top_block()
dropout_ = apply_dropout(top_, 0.2, True)
model = bottom_layer(top_ , dropout_)