#tensorflow-lite
Вопрос:
Я переучил предварительно обученную нейронную сеть ssd_mobilenet_v2_320x320_coco17_tpu-8 с записями пользовательских изображений.
Ссылка на записную книжку colab-это https://colab.research.google.com/drive/1zTGsWaeAM3yOdQ5kJ7Z47jNCs-GSo02Q?usp=sharing
Модель выполняет разумный вывод в рамках colab. Теперь я создаю интерпретатор Tensroflow, используя файл model.tflite.
После вызова вызова interpreter.invoke() тензор вывода должен иметь выходное изображение. Я не могу сделать вывод об этом из выходных данных..
Ответ №1:
Вместо того, чтобы зависеть от имен тензоров, рассмотрите возможность использования концепции подписи.
# Load the TFLite model in TFLite Interpreter
interpreter = tf.lite.Interpreter(TFLITE_FILE_PATH)
# Print signature information to find out the input/output names.
signature_defs = interpreter.get_signature_list()
print(signature_defs)
# my_signature is callable with input as arguments.
my_signature = interpreter.get_signature_runner()
output = my_signature(image=input_tensor)
# 'output' is dictionary with all outputs from the inference.
print(output)
Смотрите более подробно.