Не удается подключить обратный вызов tensorboard в tensorflow keras

#python #tensorflow #keras

#python #tensorflow #keras

Вопрос:

Я обучаю модель, основанную на логистической регрессии, а также пытаюсь просмотреть вычислительный график в tensorboard. Однако, когда я запускаю код, я получаю ошибку, упомянутую ниже.

Без подключения обратного вызова моя model.fit () работает отлично. Также, как было предложено, я добавил update_freq = 1000

 logdir = os.path.join("logs", datetime.datetime.now().strftime("%Y%m%d-%H%M%S"))
tensorboard_callback = tf.keras.callbacks.TensorBoard(logdir, histogram_freq=1, update_freq=1000)

model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(10, activation=tf.nn.softmax)])

model.compile(optimizer='sgd',
loss='sparse_categorical_crossentropy',
metrics=['accuracy'])

model.fit(np.matrix(train_X), np.matrix(train_y).T, epochs=10, callbacks=[tensorboard_callback])
  

Однако я получаю эту ошибку:

     AttributeError                            Traceback (most recent call last)
<ipython-input-73-90c175274a55> in <module>()
      8 metrics=['accuracy'])
      9 
---> 10 model.fit(np.matrix(train_X), np.matrix(train_y).T, epochs=20, callbacks=[tensorboard_callback])

/usr/local/lib/python3.6/dist-packages/tensorflow/python/keras/engine/training.py in fit(self, x, y, batch_size, epochs, verbose, callbacks, validation_split, validation_data, shuffle, class_weight, sample_weight, initial_epoch, steps_per_epoch, validation_steps, max_queue_size, workers, use_multiprocessing, **kwargs)
    878     """Returns the loss value amp; metrics values for the model in test mode.
    879 
--> 880     Computation is done in batches.
    881 
    882     Arguments:

/usr/local/lib/python3.6/dist-packages/tensorflow/python/keras/engine/training_arrays.py in model_iteration(model, inputs, targets, sample_weights, batch_size, epochs, verbose, callbacks, val_inputs, val_targets, val_sample_weights, shuffle, initial_epoch, steps_per_epoch, validation_steps, mode, validation_in_fit, **kwargs)
    250         # Loop over dataset for the specified number of steps.
    251         target_steps = steps_per_epoch
--> 252 
    253       step = 0
    254       while step < target_steps:

/usr/local/lib/python3.6/dist-packages/tensorflow/python/keras/callbacks.py in on_epoch_begin(self, epoch, logs, mode)
    235           'to the batch update (%f). Check your callbacks.', hook_name,
    236           delta_t_median)
--> 237 
    238   def _call_begin_hook(self, mode):
    239     """Helper function for on_{train|test|predict}_begin methods."""

/usr/local/lib/python3.6/dist-packages/tensorflow/python/keras/callbacks.py in on_epoch_begin(self, epoch, logs)
   1139         samples. Note that writing too frequently to TensorBoard can slow down
   1140         your training.
-> 1141       profile_batch: Profile the batch to sample compute characteristics. By
   1142         default, it will profile the second batch. Set profile_batch=0 to
   1143         disable profiling. Must run in TensorFlow eager mode.

AttributeError: 'NoneType' object has no attribute 'fetches'
  

Нужна помощь!

Комментарии:

1. Я думаю, что проблема заключается в обучении.. попробуйте удалить callback и запустите код и скажите мне, что произойдет

2. Как я уже упоминал, он отлично работает без обратного вызова

3. это сработало, когда я удалил histogram_freq arg

4. Не могли бы вы написать это в качестве ответа??

Ответ №1:

В документации говорится:

histogram_freq: частота (в эпохах), с которой вычисляются гистограммы активации и веса для слоев модели. Если установлено значение 0, гистограммы вычисляться не будут. Для визуализации гистограммы должны быть указаны данные проверки (или разделения).

установка histogram_freq = 1 заставляла его вычислять гистограммы в каждую эпоху. Отсюда ошибка. Установка значения 0 не приведет к вычислению гистограмм, а установка значения, допустим, 5, будет вычислять гистограммы в каждую 5-ю эпоху.

Ответ №2:

Вы должны установить validation_data в fit , чтобы использовать histogram_freq .

Просто передайте некоторые данные в формате (x, y) или dataset / dataset-iterator.

Это приятно, потому что позволяет вам использовать набор данных, отличный от вашего обучения в tensor-board.

 model = create_model()
model.compile(optimizer='adam',
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])

log_dir="logs/fit/"  
datetime.datetime.now().strftime("%Y%m%d-%H%M%S") tensorboard_callback
= tf.keras.callbacks.TensorBoard(log_dir=log_dir, histogram_freq=1)

model.fit(x=x_train, # works with generator/iterator datasets, too.
          y=y_train, 
          epochs=5, 
--------> validation_data=(x_test, y_test), # or pass in your dataset iterator/generator
          callbacks=[tensorboard_callback])
  

пример из TF Keras с использованием документации по обратному вызову:
https://www.tensorflow.org/tensorboard/r2/get_started#using_tensorboard_with_keras_modelfit

Затем просто запустите Tensorboard:

 tensorboard --logdir=path/to/logs/