Двунаправленный вход LSTM в зависимости от размера объекта в PyTorch

#python #input #pytorch #lstm #recurrent-neural-network

Вопрос:

Я обнаружил интересную аномалию, когда для двунаправленного LSTM я получаю несколько более высокую точность, когда я удваиваю размер входных данных до количества объектов, содержащихся в моем наборе данных. Я не могу понять, почему это происходит. Единственное, что приходит на ум, так это то, что, поскольку входные данные подаются как вперед, так и назад для BLSTM, в PyTorch их размер удваивается, и, установив input_size==num_of_features, я фактически заставляю его встраивать его в половину. Может ли кто-нибудь подтвердить/отвергнуть эту гипотезу, в идеале, с цитированием некоторых источников?

Мы будем очень признательны за любую помощь.