Соответствующая функция потерь в pytorch, когда вывод представляет собой массив чисел с плавающей запятой

#deep-learning #pytorch #regression #loss-function #encoder-decoder

#глубокое обучение #pytorch #регрессия #функция потерь #кодировщик-декодер

Вопрос:

Я пишу модель кодера / декодера, очень похожую на https://pytorch.org/tutorials/intermediate/seq2seq_translation_tutorial.html

Единственное отличие в том, что здесь слова представлены некоторыми индексами. Я хочу показать их на основе другой метрики, которая представлена числами flaot.

Функция потерь nn.criterion = nn.NLLLoss(), похоже, работает в те времена, когда мы работаем только с классами.

Если мой выходной массив представляет собой не массив целых чисел, а массив чисел с плавающей запятой, какую функцию потерь я могу использовать? Учитывая, что все остальные части похожи на учебное пособие?

Заранее спасибо.

Комментарии:

1. Вы превратили всю проблему в проблему регрессии. Как следует интерпретировать значения с плавающей запятой?

2. Итак, на самом деле, я хочу обучить свою нейронную сеть предсказывать вложения слов, такие как word2vec или GloVe. Я думаю, что косинусное расстояние или расстояние MSE должны работать. Это верно?