PyTorch выполняет цикл по эпохе, затем выводит конечные значения для всех эпох

#python #python-3.x #pytorch

#python #python-3.x #pytorch

Вопрос:

Приведенный ниже код вычисляет значения MSE и MAE, но у меня проблема, из-за которой значения для MAE и MSE не получают store_MAE и не сохраняют MSE после окончания каждой эпохи. Похоже, что он использует значения только последней эпохи. Есть идеи, что мне нужно сделать в коде, чтобы сохранить значения для каждой эпохи, я надеюсь, что это имеет смысл. Спасибо за вашу помощь

     global_step = 0
best_test_error = 10000
MAE_for_all_epochs = []
MSE_for_all_epochs = []
for epoch in range(4):
    print("Epoch %d" % epoch)
    model.train()
    for images, paths in tqdm(loader_train):
        images = images.to(device)
        targets = torch.tensor([metadata['count'][os.path.split(path)[-1]] for path in paths]) # B
        targets = targets.float().to(device)

        # forward pass:
        output = model(images) # B x 1 x 9 x 9 (analogous to a heatmap)
        preds = output.sum(dim=[1,2,3]) # predicted cell counts (vector of length B)
        
        # backward pass:
        loss = torch.mean((preds - targets)**2)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        # logging:
        count_error = torch.abs(preds - targets).mean()
        writer.add_scalar('train_loss', loss.item(), global_step=global_step)
        writer.add_scalar('train_count_error', count_error.item(), global_step=global_step)

        print("Step %d, loss=%f, count error=%f" % (global_step,loss.item(),count_error.item()))

        global_step  = 1
    
    mean_test_error = 0
    model.eval()
    for images, paths in tqdm(loader_test):
        images = images.to(device)
        targets = torch.tensor([metadata['count'][os.path.split(path)[-1]] for path in paths]) # B
        targets = targets.float().to(device)

        # forward pass:
        output = model(images) # B x 1 x 9 x 9 (analogous to a heatmap)
        preds = output.sum(dim=[1,2,3]) # predicted cell counts (vector of length B)

        # logging:
        #error = torch.abs(preds - targets).sum().data
        #squared_error = ((preds - targets)*(preds - targets)).sum().data

        #runnning_mae  = error
        #runnning_mse  = squared_error

        loss = torch.mean((preds - targets)**2)
        count_error = torch.abs(preds - targets).mean()
        mean_test_error  = count_error
        writer.add_scalar('test_loss', loss.item(), global_step=global_step)
        writer.add_scalar('test_count_error', count_error.item(), global_step=global_step)
        
        global_step  = 1
        #store_MAE = 0
        #store_MSE = 0

        mean_test_error = mean_test_error / len(loader_test)
        #store_MAE  = mean_test_error
        MAE_for_all_epochs = np.append(MAE_for_all_epochs, mean_test_error)

        mse = math.sqrt(loss / len(loader_test))
        #store_MSE  =mse
        MSE_for_all_epochs = np.append(MSE_for_all_epochs, mse)

        print("Test count error: %f" % mean_test_error)
        print("MSE: %f" % mse)

    if mean_test_error < best_test_error:
        best_test_error = mean_test_error
        torch.save({'state_dict':model.state_dict(),
                    'optimizer_state_dict':optimizer.state_dict(),
                    'globalStep':global_step,
                    'train_paths':dataset_train.files,
                    'test_paths':dataset_test.files},checkpoint_path)

print("MAE Total: %f" % store_MAE)
print("MSE Total: %f" % store_MSE)
model_mae= MAE_for_all_epochs / epoch
model_mse= MSE_for_all_epochs / epoch
print("Model MAE: %f" % model_mae)
print("Model MSE: %f" % model_mse)
  

Комментарии:

1. вероятно, следует пометить pytorch на этом

Ответ №1:

np.append() будет работать для вашего случая следующим образом,

 #outside epochs loop
MAE_for_all_epochs = [] 

#inside loop
#replace this store_MAE with relevant variable

MAE_for_all_epochs = np.append(MAE_for_all_epochs, store_MAE) 
  

Редактировать: Пример игрушки: в соответствии с использованием

 import numpy as np
all_var = []

for e in range(1, 10):
    var1 = np.random.random(1)
    all_var = np.append(all_var, var1)
    
print(all_var)
# output : [0.07660848 0.46824825 0.09432051 0.79462902 0.97798061 0.67299183 0.50996432 0.13084029 0.95100381]
  

Комментарии:

1. Я обновил свой код вашим ответом, но я получаю сообщение об обратном отслеживании: Traceback (последний вызов last): File «train3_Eval.py «, строка 160, в <модуле> MAE_for_all_epochs = np.добавить (MAE_for_all_epochs, mean_test_error) Файл «<__array_function__ internals>», строка 6, в приложении

2. ваша переменная mean_test_error является переменной pytorch, а не numpy. используйте numpy() функцию для преобразования тензора в numpy as mean_test_error.numpy() , и все будет готово

3. У меня следующее сообщение об ошибке: Трассировка (последний вызов last): File «train3_Eval.py «, строка 177, в <module> print(«MAE Total: %f» % MAE_for_all_epochs) Ошибка типа: должно быть действительное число, а не список

4. простое использование print(MAE_for_all_epochs) , и он напечатает вам список

5. Спасибо. При этом выводится список тензоров. Я хотел бы иметь возможность суммировать эти числа, а затем умножать на количество эпох. Как мне преобразовать список в одно число, которое является суммой всех чисел, пожалуйста? Спасибо за вашу помощь