#python #input #pytorch #lstm #recurrent-neural-network
Вопрос:
Я обнаружил интересную аномалию, когда для двунаправленного LSTM я получаю несколько более высокую точность, когда я удваиваю размер входных данных до количества объектов, содержащихся в моем наборе данных. Я не могу понять, почему это происходит. Единственное, что приходит на ум, так это то, что, поскольку входные данные подаются как вперед, так и назад для BLSTM, в PyTorch их размер удваивается, и, установив input_size==num_of_features, я фактически заставляю его встраивать его в половину. Может ли кто-нибудь подтвердить/отвергнуть эту гипотезу, в идеале, с цитированием некоторых источников?
Мы будем очень признательны за любую помощь.