#python #pytorch #autograd
Вопрос:
В настоящее время я создаю свою собственную функцию автограда в pytorch (для научных целей).
Для того, чего я пытаюсь достичь, я хотел бы передать значение для следующего прямого вызова из моего прямого. Таким образом, по сути, я ищу аналогичную функциональность, такую как ctx.save_for_backward (), но вместо сохранения значения для обратного прохода я хотел бы сохранить значение для следующего прямого прохода, чтобы мой прямой проход мог использовать значение, вычисленное предыдущим прямым проходом.
Есть ли такая функциональность в pytorch или как бы вы подошли к этому ?
Спасибо за любую помощь по этому вопросу
Комментарии:
1. Можно было бы заглянуть в этот учебник: pytorch.org/tutorials/beginner/examples_autograd/… Надеюсь, это поможет!