#python #tensorflow #machine-learning #keras #tensor
#питон #тензорный поток #машинное обучение #keras #тензор
Вопрос:
В настоящее время я работаю над полностью сверточной нейронной сетью (ввод изображения, вывод изображения), и я пытаюсь реализовать функцию потерь, которая выполняет быстрое преобразование Фурье из 2 изображений, прежде чем выполнять с ними какую-либо операцию, код выглядит следующим образом
def fourierLoss2(y_actual,y_pred):
actual_fft = tf.signal.rfft3d(y_actual)
pred_fft = tf.signal.rfft3d(y_pred)
lossV=tf.math.real(tf.math.reduce_mean(tf.math.square(actual_fft-pred_fft)))
return lossV
with strategy.scope():
model = hd_unet_model(INPUT_SIZE)
model.compile(optimizer=Adam(lr=0.1),
loss= fourierLoss2,
metrics=tf.keras.metrics.MeanSquaredError())
2 тензора (y_actual,y_pred) имеют тип float.
но если я попытаюсь обучить модель, я получу следующую ошибку
/usr/local/lib/python3.6/dist-packages/tensorflow/python/keras/engine/training.py:806 train_function *
return step_function(self, iterator)
/usr/local/lib/python3.6/dist-packages/tensorflow/python/keras/engine/training.py:796 step_function **
outputs = model.distribute_strategy.run(run_step, args=(data,))
/usr/local/lib/python3.6/dist-packages/tensorflow/python/distribute/distribute_lib.py:1211 run
return self._extended.call_for_each_replica(fn, args=args, kwargs=kwargs)
/usr/local/lib/python3.6/dist-packages/tensorflow/python/distribute/distribute_lib.py:2585 call_for_each_replica
return self._call_for_each_replica(fn, args, kwargs)
/usr/local/lib/python3.6/dist-packages/tensorflow/python/distribute/mirrored_strategy.py:585 _call_for_each_replica
self._container_strategy(), fn, args, kwargs)
/usr/local/lib/python3.6/dist-packages/tensorflow/python/distribute/mirrored_run.py:96 call_for_each_replica
return _call_for_each_replica(strategy, fn, args, kwargs)
/usr/local/lib/python3.6/dist-packages/tensorflow/python/distribute/mirrored_run.py:237 _call_for_each_replica
coord.join(threads)
/usr/local/lib/python3.6/dist-packages/tensorflow/python/training/coordinator.py:389 join
six.reraise(*self._exc_info_to_raise)
/usr/local/lib/python3.6/dist-packages/six.py:703 reraise
raise value
/usr/local/lib/python3.6/dist-packages/tensorflow/python/training/coordinator.py:297 stop_on_exception
yield
/usr/local/lib/python3.6/dist-packages/tensorflow/python/distribute/mirrored_run.py:323 run
self.main_result = self.main_fn(*self.main_args, **self.main_kwargs)
/usr/local/lib/python3.6/dist-packages/tensorflow/python/keras/engine/training.py:789 run_step **
outputs = model.train_step(data)
/usr/local/lib/python3.6/dist-packages/tensorflow/python/keras/engine/training.py:757 train_step
self.trainable_variables)
/usr/local/lib/python3.6/dist-packages/tensorflow/python/keras/engine/training.py:2722 _minimize
gradients = tape.gradient(loss, trainable_variables)
/usr/local/lib/python3.6/dist-packages/tensorflow/python/eager/backprop.py:1073 gradient
unconnected_gradients=unconnected_gradients)
/usr/local/lib/python3.6/dist-packages/tensorflow/python/eager/imperative_grad.py:77 imperative_grad
compat.as_str(unconnected_gradients.value))
/usr/local/lib/python3.6/dist-packages/tensorflow/python/eager/backprop.py:151 _gradient_function
grad_fn = ops._gradient_registry.lookup(op_name) # pylint: disable=protected-access
/usr/local/lib/python3.6/dist-packages/tensorflow/python/framework/registry.py:97 lookup
"%s registry has no entry for: %s" % (self._name, name))
LookupError: gradient registry has no entry for: RFFT3D
После некоторых исследований я понял, что проблема заключается в том, что операция tf.signal.rfft3d не имеет зарегистрированной функции градиента.
Кто-нибудь знает способ обойти эту проблему?
Комментарии:
1. Я пытаюсь выяснить
tf.signal.rfft2d
, почему не работает моя функция потерь. Где вы смотрели, чтобы выяснить, чтоtf.signal.rfft3d
не имеет зарегистрированной функции градиента?2. извините, чувак, но это было слишком давно, и прошло более 2 лет с тех пор, как я закончил этот проект, я не эксперт в этом, поэтому, вероятно, я просто продолжал искать, пока не нашел решение, возможно, в документации tensorflow или здесь, в stack overflow, но не могу сказать наверняка.
3. Нет проблем! Ваше решение, приведенное ниже, не сработало для меня, я обновил свой TF, и это исправило ситуацию. Спасибо.
Ответ №1:
Я нашел решение проблемы, вместо использования tf.signal.rfft3d
, которое я должен был использовать tf.signal.fft3d
, эта функция имеет запись для градиента и работает в функции потерь, недостатком является то, что теперь мне пришлось преобразовать тензоры с плавающей запятой в сложный тип перед преобразованием Фурье