Проблема с памятью при попытке преобразовать ее в tensorrt или tflite

#nvidia #tensorrt #nvidia-jetson #jetson-xavier

#nvidia #tensorrt #nvidia-jetson #джетсон-ксавье

Вопрос:

Я успешно преобразовал.файл с утяжелением в файл .tf, затем я использовал convert_trt.py scirpt, который действительно отключается после 2-минутного ожидания.

Я использую Jetson Xavier nx, Cuda 10.2.

Журнал ошибок:

 ..
..
.
2020-08-22 15:31:22.362558: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1247] Created TensorFlow device (/job:localhost/replica:0/task:0/device:GPU:0 with 3624 MB memory) -> physical GPU (device: 0, name: Xavier, pci bus id: 0000:00:00.0, compute capability: 7.2)
Killed
  

Комментарии:

1. У меня тоже эта проблема. Похоже, что это убийца нехватки памяти, который убивает его. Но я не знаю, почему при преобразовании модели, занимающей всего пару сотен МБ в системе с ~ 5 ГБ свободной оперативной памяти для начала, он получает ООМ.