#machine-learning #nlp
Вопрос:
Почему мы заполняем предложения до максимальной длины всех предложений в пакете перед подачей в RNN (например, LSTM)?
Комментарии:
1. Чтобы иметь одинаковую длину текстов. Больше, чем предложения с дополнениями, это будет называться последовательностями заполнения. Последовательности заполнения не являются специфичными для алгоритма обучения, это своего рода метод предварительной обработки перед подачей данных в любой тип алгоритма обучения.
2. Алгоритмы машинного обучения обычно плохо справляются с входными тензорами переменного размера, поэтому у вас есть два варианта — либо сократить все входные данные до длины самого короткого ввода, либо дополнить их длиной самого длинного.