Nel livello di input sono presenti X nodi separati per ogni dimensione (meteo, vento, ecc.) Dei dati di input, dove X è il numero di giorni a cui guardare indietro (diciamo 4-7). Quindi dovresti normalizzare ogni dimensione di input in un intervallo adatto, diciamo [-1.0, 1.0].
Avere un secondo livello "nascosto" completamente interconnesso con il primo strato (e anche con un nodo di "bias" di input 1.0 fisso da servire come punto fisso). Ci dovrebbero essere meno nodi qui che nel livello di input, ma questa è solo una regola empirica, potrebbe essere necessario sperimentare.
L'ultimo livello è il livello di output completamente interconnesso con il secondo livello (e anche il bias). Avere un neurone di uscita separato per ogni dimensione.
Non dimenticare di allenarsi con i valori normalizzati sia sull'ingresso che sull'uscita. Dal momento che si tratta di una serie temporale, potrebbe non essere necessario randomizzare l'ordine dei dati di addestramento, ma dar loro da mangiare come vengono in tempo - la rete imparerà anche i rapporti temporali (con fortuna :)
(Si noti anche che c'è un metodo chiamato "backpropagation temporale" che è sintonizzato per dati di serie temporali)
Se si è interessati all'uso di Weka, un'opzione potrebbe essere quella di provare Knime, un pacchetto di flusso di lavoro basato su Eclipse che include i primitivi di Weka. –
Sono curioso di sapere come applicare gli alberi decisionali a questo problema. – brian
Le foreste casuali sono divertenti – ron