Ho una domanda in mente relativa all'utilizzo di pybrain per eseguire la regressione di una serie storica. Ho intenzione di utilizzare lo strato LSTM in pybrain per addestrare e prevedere una serie temporale.Previsione delle serie temporali di Pybrain utilizzando le reti ricorrenti LSTM
ho trovato un esempio di codice qui nel link qui sotto
Request for example: Recurrent neural network for predicting next value in a sequence
Nell'esempio precedente, la rete è in grado di prevedere una sequenza dopo il suo essere addestrati. Ma il problema è che la rete acquisisce tutti i dati sequenziali alimentandola in un unico passaggio nel livello di input. Ad esempio, se i dati di allenamento presentano 10 funzioni ciascuna, le 10 funzionalità saranno simultaneamente inserite in 10 nodi di input contemporaneamente.
Dalla mia comprensione, questa non è più una previsione di serie temporali, ho ragione? Poiché non vi è alcuna differenza in termini di tempo in cui ciascuna funzionalità viene inserita nella rete? Correggimi se sbaglio su questo.
Pertanto, quello che sto cercando di ottenere è una rete ricorrente che ha solo un nodo di input e un nodo di output. Il nodo di input è il punto in cui tutti i dati delle serie temporali verranno alimentati in sequenza in fasi temporali differenti. La rete verrà addestrata per riprodurre l'input nel nodo di output.
Potresti suggerire o guidarmi nella costruzione della rete che ho menzionato? Grazie mille in anticipo.
Posso chiedere un po 'di chiarezza sul gradino di formazione. Cosa fa esattamente la parte CYCLES e EPOCHS_PER_CYCLE della fase di allenamento? Inoltre, come è diverso dal semplice allenamento per il numero x di epoche? –
@ A.Devereux Si sta salvando l'errore. Penso che l'autore volesse salvare gli errori ogni EPOCHS_PER_CYCLE che in questo caso è 5 volte più piccolo di tutti gli errori. – MCSH