Ошибка значения, сгенерированная при попытке квантования модели, говорит, что она должна иметь входной вывод в виде tf.float32

#google-coral

Вопрос:

Я пытаюсь квантовать свою модель в соответствии с учебником, доступным здесь: https://colab.research.google.com/github/google-coral/tutorials/blob/master/retrain_classification_ptq_tf2.ipynb#scrollTo=RMLYBDe_e849

Мой при преобразовании моей модели выдает ошибку значения: Ошибка значения: Тип вывода_input_type и тип вывода_output_type должны быть tf.float32.

 def representative_data_gen():
    for i in range(100):
        img = X_trainE[np.random.randint(len(X_trainE))] np.random.random((256,256,1))
        img = tf.cast(image, tf.float32)
        yield [img]

converter = tf.lite.TFLiteConverter.from_keras_model(model)

# This enables quantization
converter.optimization = [tf.lite.Optimize.DEFAULT]
# This sets the representative dataset for quantization
converter.representative_dataset = representative_data_gen
# This ensures that if any ops can't be quantized, the converter throws an error
converter.target_spec.supported_ops = [tf.lite.OpsSet.TFLITE_BUILTINS_INT8]
# 
converter.target_spec.supported_types = [tf.int8]
# 
converter.inference_input_type = tf.uint8
converter.inference_output_type = tf.uint8
tflite_model = converter.convert()

with open('IVUS_v1.tflite', 'wb') as f:
    f.write(tflite_model)
 

Таким образом, я больше не могу конвертировать свою модель в модель, совместимую с Edge TPU. Кто-нибудь сталкивался с этим и как вы можете это исправить?