#tensorflow #openvino
#тензорный поток #openvino
Вопрос:
При попытке преобразовать мою обученную модель тензорного потока в IR я получаю следующую ошибку
Аргументы оптимизатора модели: Общие параметры: — Путь к входной модели: Отсутствует — Путь для сгенерированного IR: /home/ec2-user/Notebooks/ . — Имя вывода IR: saved_model — Уровень журнала: ОШИБКА — Пакет: не указан, унаследован от модели — Входные слои: не указаны, унаследованы от модели — Выходные слои: не указаны, унаследованы от модели — Входные формы: [1,512,512,3] — Средние значения: не указаны — Значения масштаба:Не указано — Масштабный коэффициент: не указан — Точность IR: FP32 — Включить слияние: True — Включить объединение сгруппированных сверток: True — Переместить средние значения в раздел предварительной обработки: Нет — Обратные входные каналы: False Специфические параметры TensorFlow: — Ввод модели в текстовом формате protobuf: False — Путь к дампу модели дляTensorBoard: Нет — Список общих библиотек с реализацией пользовательских слоев TensorFlow: Нет — Обновите конфигурационный файл с именами узлов ввода / вывода: Нет — Используйте конфигурационный файл, используемый для создания модели с помощью API обнаружения объектов: Нет — Используйте конфигурационный файл: Нет Версия оптимизатора модели: 2021.1.0-1237-bece22ac675-релизы/2021/1 2021-01-06 09:55:53.886652: [ tensorflow/stream_executor/platform/default/dso_loader.cc:59] Не удалось загрузить динамическую библиотеку ‘libcudart.so.10.1’; ошибка: libcudart.so.10.1: не удается открыть общий объектный файл: такого файла или каталога нет; LD_LIBRARY_PATH: /opt/intel/openvino_2021/data_processing/dl_streamer/lib:/opt/intel/openvino_2021/data_processing/gstreamer/lib:/opt/intel/openvino_2021/opencv/lib:/opt/intel/openvino_2021/deployment_tools/ngraph/lib:/opt/intel/openvino_2021/deployment_tools/inference_engine/external/hddl_unite/lib:/opt/intel/openvino_2021/deployment_tools/inference_engine/external/hddl/lib:/opt/intel/openvino_2021/deployment_tools/inference_engine/external/gna/lib:/opt/intel/openvino_2021/deployment_tools/inference_engine/external/mkltiny_lnx/lib:/opt/intel/openvino_2021/deployment_tools/inference_engine/external/tbb/lib:/opt/intel/openvino_2021/deployment_tools/inference_engine/lib/ intel64 2021-01-06 09:55:53.886685: Я тензорный поток /stream_executor/cuda/cudart_stub.cc:29] Игнорируйте ошибку cudart dlerror, указанную выше, если на вашем компьютере не настроен графический процессор.машина. 2021-01-06 09:55:57.571164: W tensorflow/stream_executor/platform/default/dso_loader.cc:59] Не удалось загрузить динамическую библиотеку ‘libcuda.so.1’; ошибка: libcuda.so.1: не удается открыть общий объектный файл: такого файла или каталога нет; LD_LIBRARY_PATH: /opt/intel/openvino_2021/data_processing/dl_streamer/lib:/opt/intel/openvino_2021/data_processing/gstreamer/lib:/opt/intel/openvino_2021/opencv/lib:/opt/intel/openvino_2021/deployment_tools/ngraph/lib:/opt/intel/openvino_2021/deployment_tools/inference_engine/external/hddl_unite/lib:/opt/intel/openvino_2021/deployment_tools/inference_engine/external/hddl/lib:/opt/intel/openvino_2021/deployment_tools/inference_engine/external/gna/lib:/opt/intel/openvino_2021/deployment_tools/inference_engine/external/mkltiny_lnx/lib:/opt/intel/openvino_2021/deployment_tools/inference_engine/external/tbb/lib:/opt/intel/openvino_2021/deployment_tools/inference_engine/lib/ intel64 2021-01-06 09:55:57.571198: W tensorflow/stream_executor/cuda/cuda_driver.cc:312] неудачный вызов cuInit: НЕИЗВЕСТНАЯ ОШИБКА (303) 2021-01-06 09:55:57.571216: [ tensorflow/stream_executor/cuda/cuda_diagnostics.cc:156] драйвер ядра, похоже, не запущен на этом хосте (ip-172-31-65-233 .ec2.internal): /proc/driver/nvidia/ версия не существует 2021-01-06 09:55:57.571389:[ tensorflow /core /platform/cpu_feature_guard.cc:142] Этот двоичный файл TensorFlow оптимизирован с помощью библиотеки глубокой нейронной сети oneAPI (oneDNN) для использования следующих инструкций процессора в критически важных для производительности операциях: AVX2 AVX512F FMA Чтобы включить их в других операциях, перестройте TensorFlow с соответствующими флагами компилятора. 2021-01-06 09:55:57.607790: I tensorflow/core /platform/profile_utils/cpu_utils.cc: 104] Частота процессора: 2999980000 Гц 2021-01-06 09:55:57.608150: I tensorflow/compiler /xla / service/service.cc: 168] Служба XLA 0x3d4d800 инициализирована для хоста платформы (это не гарантирует, что XLAбудет использоваться). Устройства: 2021-01-06 09:55:57.608169: I tensorflow/compiler/ xla/service/service.cc: 176] Устройство StreamExecutor (0): Хост, версия по умолчанию 2021-01-06 09:56:15.612182: I tensorflow/core /grappler/devices.cc:69] Количество подходящих графических процессоров (coreколичество > = 8, вычислительная способность >= 0.0): 0 2021-01-06 09:56:15.613446: I tensorflow/core/ grappler/clusters/single_machine.cc: 356] Запуск нового сеанса 2021-01-06 09:56:16.010348: I tensorflow/core / grappler/optimizers/meta_optimizer.cc: 816] Результаты оптимизации для элемента grappler: graph_to_optimize 2021-01-06 09:56:16.010388: I tensorflow / core/ grappler/optimizers/meta_optimizer.cc: 818] function_optimizer: размер графика после: 5850 узлов (5149), 13416 ребер (12708), время = 182,03мс. 2021-01-06 09:56:16.010397: I tensorflow/core/grappler /optimizers/meta_optimizer.cc:818] function_optimizer: размер графикапосле: 5850 узлов (0), 13416 ребер (0), время = 88,009мс. 2021-01-06 09:56:16.010404: I tensorflow/core/ grappler /optimizers/meta_optimizer.cc:816] Результаты оптимизации для элемента grappler: __вывод_Препроцессор_Изменение размера_cond_false_12695_58123 2021-01-06 09:56:16.010409: I tensorflow/core/grappler/optimizers/meta_optimizer.cc:818] function_optimizer: function_optimizer ничего не сделал. время = 0,002мс. 2021-01-06 09:56:16.010416: I tensorflow/core/ grappler /optimizers/meta_optimizer.cc:818] function_optimizer: function_optimizer ничего не сделал. время = 0 мс. 2021-01-06 09:56:16.010422: [ tensorflow/core/grappler/optimizers/meta_optimizer.cc:816] Результаты оптимизации для элемента grappler: __вывод_Препроцессор_Изменение размера_cond_true_12694_56958 2021-01-06 09:56:16.010428: Я тензорный поток/ядро / захватчик/оптимизаторы/meta_optimizer.cc:818]function_optimizer: function_optimizer ничего не сделал. время = 0,002мс. 2021-01-06 09:56:16.010433: I tensorflow/core/ grappler /optimizers/meta_optimizer.cc:818] function_optimizer: function_optimizer ничего не сделал. время = 0,001 мс. [ОШИБКА] Не удается вывести формы или значения для узла «StatefulPartitionedCall / Preprocessor / ResizeToRange / cond». [ ОШИБКА ] Функция __вывода_препроцессора_изменения размера_cond_true_12694_56958 не определена. [ ОШИБКА]
[ ОШИБКА] Это может произойти из-за ошибки в пользовательской функции вывода формы <функция tf_native_tf_node_infer в 0x7f1fbc2c8050>. [ ОШИБКА] Или потому, что входные данные узла имеют неправильные значения / формы. [ ОШИБКА] Или из-за неправильных входных форм (встроенных в модель или переданных через —input_shape ). [ ОШИБКА] Запустите оптимизатор модели с помощью —log_level=DEBUG для получения дополнительной информации. [ ОШИБКА] Исключение возникло во время выполнения заменителя «REPLACEMENT_ID» (<class ‘extensions.middle.Частичный вывод.PartialInfer’>): остановлено распространение формы / значения на узле «StatefulPartitionedCall / Preprocessor / ResizeToRange / cond». Для получения дополнительной информации, пожалуйста, обратитесь к часто задаваемым вопросам оптимизатора модели, вопрос № 38. (https://docs.openvinotoolkit.org/latest/openvino_docs_MO_DG_prepare_model_Model_Optimizer_FAQ.html ?вопрос = 38 #вопрос-38)
Файл журнала отладки: [Debug_Log][1]
Папка модели: [Модель] [2] [1]: https://drive.google.com/file/d/1VFlAW7C0RhmL-T1HrKwBMrvQzJNvCql7/view?usp=sharing [2]: https://drive.google.com/drive/folders/1kkbp9fAXXsiDeq583Z0tV95zIfbI9_-N?usp=sharing
Ответ №1:
Прежде всего, обратите внимание, что OpenVINO поддерживает только эти ОС:
Ubuntu 18.04.x долгосрочная поддержка (LTS), 64-разрядная версия
CentOS 7.6, 64-разрядная версия (только для целевого назначения)
Yocto Project v3.0, 64-разрядный (только для целевой версии и требует изменений)
Windows 10
Raspbian * Buster, 32-разрядный
Raspbian * Stretch, 32-разрядный
macOS
В зависимости от вашей ОС убедитесь, что вы правильно настроили OpenVINO, и вы сможете запустить пример приложения, как здесь
Как только вы это подготовите, перепроверьте свою топологию Tensorflow и посмотрите, указана ли она здесь
Модели и топологии, перечисленные там, поддерживаются OpenVINO.
Вы можете перейти к следующему шагу в соответствии с приведенным выше руководством, как только будете уверены в своем.
ПРИМЕЧАНИЕ: Пожалуйста, убедитесь, что вы запустили setupvars и можете видеть сообщение об инициализации при каждом открытии нового терминала.
Комментарии:
1. Спасибо за ответ. топология, которую я использовал, отсутствует в списке поддерживаемых топологий.