#tensorflow
#tensorflow
Вопрос:
Приведенный ниже код
with tf.Session(config=config) as sess:
while True:
print("Session is open!")
time.sleep(1)
Использует 363MiB / 16280MiB
в соответствии с nvidia-smi
.
Я что-то упускаю или это нормально? Не должно ли использование GPU быть 0MiB
на этом этапе?
Ответ №1:
Он выделяется средой выполнения CUDA.
Комментарии:
1. Есть ли способ выделить это только один раз? Я загружаю три модели одновременно (на одном и том же графическом процессоре) для параллельного вывода, и кажется пустой тратой времени выполнения три раза.
2. Он выделяет этот объем только один раз и только для одного графического процессора, если в вашей системе несколько графических процессоров. И AFAIK, это может быть освобождено только с помощью некоторых трюков с более низким рычагом, таких как использование
numba cuda