#python #pytorch #google-colaboratory
#питон #пыторч #google-совместная лаборатория
Вопрос:
Я использую GOOGLE COLAB, когда получаю эту ошибку. Вот мой код, я не нашел ничего неправильного, этот код был правильным несколько часов назад, но вдруг пошел не так, я не знаю, почему
import torch if torch.cuda.is_available(): device = torch.device("cuda") print('There are %d GPU(s) available.' % torch.cuda.device_count()) print('We will use the GPU:', torch.cuda.get_device_name(0)) else: print('No GPU available, using the CPU instead.') device = torch.device("cpu") seed=1 np.random.seed(seed) torch.manual_seed(seed) torch.cuda.manual_seed_all(seed) torch.backends.cudnn.deterministic = True
Ошибка в том, что
There are 1 GPU(s) available. We will use the GPU: Tesla P100-PCIE-16GB --------------------------------------------------------------------------- RuntimeError Traceback (most recent call last) lt;ipython-input-121-436d9d8bb120gt; in lt;modulegt;() 9 seed=1 10 np.random.seed(seed) ---gt; 11 torch.manual_seed(seed) 12 torch.cuda.manual_seed_all(seed) 13 torch.backends.cudnn.deterministic = True 3 frames /usr/local/lib/python3.7/dist-packages/torch/cuda/random.py in cb() 109 for i in range(device_count()): 110 default_generator = torch.cuda.default_generators[i] --gt; 111 default_generator.manual_seed(seed) 112 113 _lazy_call(cb, seed_all=True) RuntimeError: CUDA error: device-side assert triggered CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1.
Кто-нибудь может мне помочь?