Замораживание слоев TensorFlow2

#neural-network #tensorflow2.0

#нейронная сеть #tensorflow2.0

Вопрос:

У меня есть нейронная сеть с плотностью LeNet-300-100 для набора данных MNIST, где я хочу заморозить первые два слоя, содержащие 300 и 100 скрытых нейронов в первых двух скрытых слоях. Я просто хочу обучить выходной слой. Код, который я должен сделать, следующий:

 from tensorflow import keras

inner_model = keras.Sequential(
    [
        keras.Input(shape=(1024,)),
        keras.layers.Dense(300, activation="relu", kernel_initializer = tf.initializers.GlorotNormal()),
        keras.layers.Dense(100, activation="relu", kernel_initializer = tf.initializers.GlorotNormal()),
    ]
)

model_mnist = keras.Sequential(
    [keras.Input(shape=(1024,)), inner_model, keras.layers.Dense(10, activation="softmax"),]
)

# model_mnist.trainable = True  # Freeze the outer model
# Freeze the inner model-
inner_model.trainable = False


# Sanity check-
inner_model.trainable, model_mnist.trainable
# (False, True)

# Compile NN-
model_mnist.compile(
    loss=tf.keras.losses.categorical_crossentropy,
    # optimizer='adam',
    optimizer=tf.keras.optimizers.Adam(lr = 0.0012),
    metrics=['accuracy'])
    
  

Однако, похоже, что этот код не замораживает первые два скрытых слоя, и они также обучаются. Что я делаю не так?

Спасибо!

Ответ №1:

Решение: Используйте параметр ‘trainable’ при определении модели нейронной сети, чтобы заморозить нужные слои модели следующим образом-

 model = Sequential()

model.add(Dense(units = 300, activation="relu", kernel_initializer = tf.initializers.GlorotNormal(), trainable = False))

model.add(Dense(units = 100, activation = "relu", kernel_initializer = tf.initializer.GlorotNormal(), trainable = False))

model.add(Dense(units = 10, activation = "softmax"))

# Compile model as usual