Зачем заполнять предложения при использовании RNNs pytorch

#machine-learning #nlp Вопрос: Почему мы заполняем предложения до максимальной длины всех предложений в пакете перед подачей в RNN (например, LSTM)? Комментарии: 1. Чтобы иметь одинаковую длину текстов. Больше, чем предложения…

Продолжить чтениеЗачем заполнять предложения при использовании RNNs pytorch