#tensorflow
#tensorflow
Вопрос:
Для реализации метода grad norm в этой статье [https://arxiv.org/abs/1711.02257 ], мне нужно вычислить loss_i / loss_0, где loss_i — потеря i-го шага.
Теперь вопрос в том, как сохранить loss_0 в тензоре?
Комментарии:
1. ваш вопрос неясен. Вывод функции потерь уже является тензорным
2. спасибо за ваш комментарий! «Вывод функции потерь» меняется вместе с обучающими данными, и то, что я хочу, — это потеря первого пакета обучающих данных.
3. ‘если шаг==0: loss_0 = потеря’
4. хорошо, очень краткое решение. Я тоже думал об этом, но я не уверен, будет ли loss_0 продолжать меняться с потерей во время обучения. Я попробую ~ спасибо