Uso una rete neurale composta da 4 neuroni di ingresso, 1 strato nascosto costituito da 20 neuroni e uno strato di uscita di 7 neuroni.Rete neurale con tanh saturazione errata con dati normalizzati
Sto provando ad addestrarlo per un algoritmo da bcd a 7 segmenti. I miei dati sono normalizzati 0 è -1 e 1 è 1.
Quando si verifica la valutazione dell'errore di uscita, il neurone si satura errato. Se l'output desiderato è 1
e l'output reale è -1
, l'errore è 1-(-1)= 2
.
Quando lo si moltiplica per la derivata della funzione di attivazione error*(1-output)*(1+output)
, l'errore diventa quasi 0
a causa di 2*(1-(-1)*(1-1)
.
Come posso evitare questo errore di saturazione?
Quindi questo potrebbe essere solo non mio dominio ma non ho assolutamente idea di come sia possibile risolvere questo dalle informazioni fornite.Inoltre, non so se "tanh" sia un errore di battitura o una tangente iperbolica. – djechlin
tanh is hbolbolic tangent :) – PVJ