#python #pytorch
#python #pytorch
Вопрос:
Я обрабатываю набор данных временных рядов с n временными интервалами, m объектами и k объектами. В результате мой вектор объектов имеет форму (n, k, m), в то время как моя целевая форма равна (n, m)
Я хочу предсказать цели для каждого временного шага и объекта, но с одинаковыми весами для каждого операционного объекта. Также моя функция потерь выглядит следующим образом.
average_loss = loss_func(prediction, labels)
sum_loss = loss_func(sum(prediction), sum(labels))
loss = loss_weight * average_loss (1-loss_weight) * sum_loss
Мой план состоит не только в том, чтобы убедиться, что я предсказываю каждый элемент как можно лучше, но и в том, чтобы сумма всех элементов была предсказана. loss_weights — это константа.
В настоящее время я делаю такое уродливое решение:
features = local_batch.squeeze(dim = 0)
labels = torch.unsqueeze(local_labels.squeeze(dim = 0), 1)
prediction = net(features)
Я установил свой batchsize = 1. И сожмите его, чтобы сделать k объектов моей партией.
Моя сеть выглядит следующим образом:
def __init__(self, n_feature, n_hidden, n_output):
super(Net, self).__init__()
self.hidden = torch.nn.Linear(n_feature, n_hidden) # hidden layer
self.predict = torch.nn.Linear(n_hidden, n_output) # output layer
def forward(self, x):
x = F.relu(self.hidden(x)) # activation function for hidden layer
x = self.predict(x) # linear output
return x
Как мне убедиться, что я выполняю разумную свертку по измерению opject, чтобы сохранить одинаковые веса для всех объектов, не привязываясь к batchsize = 1? Кроме того, как мне достичь той же функции потерь, где я вычисляю потерю суммы прогноза по сравнению с целевой суммой для любой временной метки?
Ответ №1:
Это не совсем некрасиво — я бы сделал то же самое, но немного обобщил его для использования размера пакета> 1 view
.
# Using your notations
n, k, m = features.shape
features = local_batch.view(n*k, m)
prediction = net(features).view(n, k, m)
С предсказанием в правильной форме ( n*k*m
) реализация вашей функции потерь не должна быть сложной.