#keras #lstm
#keras #lstm
Вопрос:
У меня возникли некоторые трудности с пониманием input_shape для слоя LSTM в Keras. Предположим, что это первый уровень в сети; он принимает ввод формы (пакет, время, функции). Также предположим, что существует только одна функция, поэтому входные данные имеют форму (пакет, время, 1).
Является ли число «batch» размером пакета или количеством пакетов? Я предполагаю, что это размер пакета из примеров, которые я видел в Интернете. Тогда я изо всех сил пытаюсь понять, почему количество пакетов не всегда равно единице.
В качестве конкретного примера у меня есть временной ряд из 1000 шагов, который я разделил на 10 серий по 100 шагов. Одна эпоха — это когда сеть проходит все 1000 шагов, 10 серий. Я должен иметь возможность разделить 10 серий на разные партии с разными размерами партий, но тогда входные данные будут иметь вид (количество партий, размер партии, временные шаги, 1). Что я неправильно понимаю?
Комментарии:
1. Предположим, у вас есть 1000 примеров только с одной функцией, и вы хотите использовать предыдущие 10 значений в качестве «шагов обратного просмотра», тогда вы введете свой ввод (x), имеющий форму (1000,10,1). Если размер вашего пакета равен 32, то keras возьмет (32,10,1) из вашего x как один пакет для обучения, и для создания одной эпохи потребуется 32 пакета (учитывая, что данные проверки не взяты из этих 1000 примеров).).