nn.Conv2d PyTorch с половинной точностью (fp16) работает медленнее, чем fp32

#python #pytorch Вопрос: Я обнаружил, что одна операция свертки 2D с float16 выполняется медленнее, чем с float32. Я работаю с Gtx 1660 Ti с torch.1.8.0 cu111 и cuda-11.1 (также пробовал…

Продолжить чтениеnn.Conv2d PyTorch с половинной точностью (fp16) работает медленнее, чем fp32