Запуск сеанса TF (и ничего больше) использует более 350 МБ памяти графического процессора

#tensorflow

#tensorflow

Вопрос:

Приведенный ниже код

 with tf.Session(config=config) as sess:
    while True:
        print("Session is open!")
        time.sleep(1)
  

Использует 363MiB / 16280MiB в соответствии с nvidia-smi .

Я что-то упускаю или это нормально? Не должно ли использование GPU быть 0MiB на этом этапе?

Ответ №1:

Он выделяется средой выполнения CUDA.

Комментарии:

1. Есть ли способ выделить это только один раз? Я загружаю три модели одновременно (на одном и том же графическом процессоре) для параллельного вывода, и кажется пустой тратой времени выполнения три раза.

2. Он выделяет этот объем только один раз и только для одного графического процессора, если в вашей системе несколько графических процессоров. И AFAIK, это может быть освобождено только с помощью некоторых трюков с более низким рычагом, таких как использование numba cuda