Зачем заполнять предложения при использовании RNNs pytorch

#machine-learning #nlp

Вопрос:

Почему мы заполняем предложения до максимальной длины всех предложений в пакете перед подачей в RNN (например, LSTM)?

Комментарии:

1. Чтобы иметь одинаковую длину текстов. Больше, чем предложения с дополнениями, это будет называться последовательностями заполнения. Последовательности заполнения не являются специфичными для алгоритма обучения, это своего рода метод предварительной обработки перед подачей данных в любой тип алгоритма обучения.

2. Алгоритмы машинного обучения обычно плохо справляются с входными тензорами переменного размера, поэтому у вас есть два варианта — либо сократить все входные данные до длины самого короткого ввода, либо дополнить их длиной самого длинного.