#python #tensorflow #keras #tf.keras #autoencoder
#python #tensorflow #keras #tf.keras #автоэнкодер
Вопрос:
Я начал немного работать с Keras, но я столкнулся с этой проблемой, где мне сообщается, что градиенты не предоставляются. Я знаю, что этот вопрос был опубликован примерно 100 раз раньше, но в решениях всегда говорится об использовании GradientTape, но я не понимаю, почему я должен это делать (также я даже не понимаю, что он делает)
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers
import matplotlib.pyplot as plt
physical_devices = tf.config.list_physical_devices('GPU')
tf.config.experimental.set_memory_growth(physical_devices[0], True)
class AutoEncoder:
def create_encoder(self):
encoder_input = keras.Input(shape=self.input_shape, name="original_img")
encoder_output = layers.Conv2D(3, 3, activation="relu")(encoder_input)
encoder = keras.Model(encoder_input, encoder_output)
return encoder_input, encoder_output, encoder
def create_decoder(self, eager_execution=False):
decoder_input = keras.Input(shape=self.encoder_output.type_spec.shape[1:], batch_size=self.batch_size, name="encoded_img")
decoder_output = layers.Conv2DTranspose(3, 3, activation="relu")(decoder_input)
decoder = keras.Model(decoder_input, decoder_output)
return decoder_input, decoder_output, decoder
def create_autoencoder(self):
auto_input = keras.Input(shape=self.input_shape, batch_size=self.batch_size, name="AutoEncoder Input")
encoded = self.encoder(auto_input)
auto_output = self.decoder(encoded)
autoencoder = keras.Model(auto_input, auto_output, name="AutoEncoder")
return auto_input, auto_output, autoencoder
def __init__(self, input_shape=(256, 256, 3), batch_size=32, eager_execution=False):
self.input_shape = input_shape
self.batch_size = batch_size
self.encoder_input, self.encoder_output, self.encoder = self.create_encoder()
self.decoder_input, self.decoder_output, self.decoder = self.create_decoder()
self.autoencoder_input, self.autoencoder_output, self.autoencoder = self.create_autoencoder()
self.__call__ = self.autoencoder.predict
self.fit = self.autoencoder.fit
self.fit_generator = self.autoencoder.fit_generator
# Compiling models
self.autoencoder.compile(
optimizer=keras.optimizers.Adagrad(),
loss=keras.losses.SparseCategoricalCrossentropy(),
metrics=keras.metrics.Accuracy(),
run_eagerly=True,
)
autoenc = AutoEncoder()
autoenc.autoencoder.fit(train_x)
Для обучения я использую некоторый набор данных от Microsoft с PetImages. Но это не должно иметь большого значения.
Я уже пытался все переставить, но ошибка появляется каждый раз, когда я вызываю модель, а затем создаю другую модель с выводом этой модели.
Traceback (most recent call last):
File "/home/user/PycharmProjects/pythonProject1/main.py", line 148, in <module>
autoenc.autoencoder.fit(train_x)
File "/home/user/miniconda3/envs/tf/lib/python3.8/site-packages/tensorflow/python/keras/engine/training.py", line 1100, in fit
tmp_logs = self.train_function(iterator)
File "/home/user/miniconda3/envs/tf/lib/python3.8/site-packages/tensorflow/python/keras/engine/training.py", line 805, in train_function
return step_function(self, iterator)
File "/home/user/miniconda3/envs/tf/lib/python3.8/site-packages/tensorflow/python/keras/engine/training.py", line 795, in step_function
outputs = model.distribute_strategy.run(run_step, args=(data,))
File "/home/user/miniconda3/envs/tf/lib/python3.8/site-packages/tensorflow/python/distribute/distribute_lib.py", line 1259, in run
return self._extended.call_for_each_replica(fn, args=args, kwargs=kwargs)
File "/home/user/miniconda3/envs/tf/lib/python3.8/site-packages/tensorflow/python/distribute/distribute_lib.py", line 2730, in call_for_each_replica
return self._call_for_each_replica(fn, args, kwargs)
File "/home/user/miniconda3/envs/tf/lib/python3.8/site-packages/tensorflow/python/distribute/distribute_lib.py", line 3417, in _call_for_each_replica
return fn(*args, **kwargs)
File "/home/user/miniconda3/envs/tf/lib/python3.8/site-packages/tensorflow/python/autograph/impl/api.py", line 572, in wrapper
return func(*args, **kwargs)
File "/home/user/miniconda3/envs/tf/lib/python3.8/site-packages/tensorflow/python/keras/engine/training.py", line 788, in run_step
outputs = model.train_step(data)
File "/home/user/miniconda3/envs/tf/lib/python3.8/site-packages/tensorflow/python/keras/engine/training.py", line 757, in train_step
self.optimizer.minimize(loss, self.trainable_variables, tape=tape)
File "/home/user/miniconda3/envs/tf/lib/python3.8/site-packages/tensorflow/python/keras/optimizer_v2/optimizer_v2.py", line 498, in minimize
return self.apply_gradients(grads_and_vars, name=name)
File "/home/user/miniconda3/envs/tf/lib/python3.8/site-packages/tensorflow/python/keras/optimizer_v2/optimizer_v2.py", line 598, in apply_gradients
grads_and_vars = optimizer_utils.filter_empty_gradients(grads_and_vars)
File "/home/user/miniconda3/envs/tf/lib/python3.8/site-packages/tensorflow/python/keras/optimizer_v2/utils.py", line 78, in filter_empty_gradients
raise ValueError("No gradients provided for any variable: %s." %
ValueError: No gradients provided for any variable: ['conv2d/kernel:0', 'conv2d/bias:0', 'conv2d_transpose/kernel:0', 'conv2d_transpose/bias:0'].
Process finished with exit code 1
Версии всего
# Name Version Build Channel
tensorflow 2.2.0 gpu_py38hb782248_0
tensorflow-base 2.2.0 gpu_py38h83e3d50_0
tensorflow-datasets 4.1.0 pypi_0 pypi
tensorflow-estimator 2.4.0 pypi_0 pypi
tensorflow-gpu 2.4.0 pypi_0 pypi
tensorflow-metadata 0.26.0 pypi_0 pypi
tensorflow-probability 0.12.0 pypi_0 pypi
tensorflow-serving-api 2.3.0 pypi_0 pypi
System
Archlinux
linux-5.10.3.arch1-1
cuda-11.2.0-2
cudnn-8.0.5.39-1
Я надеюсь, что у кого-то есть идея о том, что я должен изменить, чтобы заставить это работать.
С наилучшими пожеланиями, MrDiver
Ответ №1:
Я исправил ваш код. Когда вы получаете эту ошибку, на графике нет пути между вашей функцией потерь и вашими обучаемыми переменными, что было верно в вашем случае.
- У вас нет меток для обучения вашего автоэнкодера. Я добавил train_x в качестве ваших меток.
- Я не думаю, что SparseCategoricalCrossentropy будет работать для определенной вами архитектуры. Итак, я изменил его на BinaryCrossEntropy
- Когда вы присваиваете имя вектору, пробелы не допускаются, поэтому я изменил «Ввод автоэнкодера» на «AutoEncoder_Input»
Вот код
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers
import matplotlib.pyplot as plt
from tensorflow.keras.preprocessing.image import ImageDataGenerator
#physical_devices = tf.config.list_physical_devices('GPU')
#tf.config.experimental.set_memory_growth(physical_devices[0], True)
class AutoEncoder:
def create_encoder(self):
encoder_input = keras.Input(shape=self.input_shape, name="original_img")
encoder_output = layers.Conv2D(3, 3, activation="relu")(encoder_input)
encoder = keras.Model(encoder_input, encoder_output)
return encoder_input, encoder_output, encoder
def create_decoder(self, eager_execution=False):
decoder_input = keras.Input(shape=self.encoder_output.shape[1:], batch_size=self.batch_size, name="encoded_img")
decoder_output = layers.Conv2DTranspose(3, 3, activation="relu")(decoder_input)
decoder = keras.Model(decoder_input, decoder_output)
return decoder_input, decoder_output, decoder
def create_autoencoder(self):
auto_input = keras.Input(shape=self.input_shape, batch_size=self.batch_size, name="AutoEncoder_Input")
encoded = self.encoder(auto_input)
auto_output = self.decoder(encoded)
autoencoder = keras.Model(auto_input, auto_output, name="AutoEncoder")
return auto_input, auto_output, autoencoder
def __init__(self, input_shape=(256, 256, 3), batch_size=32, eager_execution=False):
self.input_shape = input_shape
self.batch_size = batch_size
self.encoder_input, self.encoder_output, self.encoder = self.create_encoder()
self.decoder_input, self.decoder_output, self.decoder = self.create_decoder()
self.autoencoder_input, self.autoencoder_output, self.autoencoder = self.create_autoencoder()
self.__call__ = self.autoencoder.predict
self.fit = self.autoencoder.fit
self.fit_generator = self.autoencoder.fit_generator
# Compiling models
self.autoencoder.compile(
optimizer=keras.optimizers.Adagrad(),
loss=keras.losses.BinaryCrossentropy(),
metrics=keras.metrics.Accuracy(),
run_eagerly=True,
)
train_x = tf.random.normal(shape=(100,256,256,3),dtype=tf.float32)
autoenc = AutoEncoder()
print(autoenc.autoencoder.summary())
autoenc.autoencoder.fit(train_x,train_x)
Комментарии:
1. Итак, похоже, что основная проблема здесь заключалась в том, что я использую
fit(train_x)
вместоfit(train_x,train_x)
, но на самом деле я не могу сделать, чтобы данные загружались какDataset
, и я не знаю, как отказаться от ярлыков там. Но спасибо за быстрый ответ2. на самом деле я мог бы исправить это, используя карту
train.map((lambda x, y: (x, x)))
в наборе данных.3. Правильно. При попытке вашей модели вам нужна основная информация, чтобы можно было вычислить функцию потерь. Да, map с lamba работает хорошо. Спасибо за принятие ответа