Qualcuno potrebbe spiegarmi come aggiornare il bias durante il backpropagation?Come aggiornare il bias nella backpropagation della rete neurale?
Ho letto un bel po 'di libri, ma non riesco a trovare l'aggiornamento bias!
Capisco che il bias è un input extra di 1 con un peso collegato ad esso (per ogni neurone). Ci deve essere una formula.
Grazie,
@msw
più interessanti. Grazie, ritengo che due buoni punti siano: 1. "La proprietà di" approssimazione universale "dei percettroni multistrato con le funzioni di attivazione di livello nascosto più comunemente usate non regge se si omettono i termini di bias, ma Hornik (1993) mostra che una condizione sufficiente per la proprietà di approssimazione universale senza pregiudizi è che nessuna derivazione della funzione di attivazione svanisce all'origine, il che implica che con le solite funzioni di attivazione sigmoide, può essere usato un termine di bias diverso da zero invece di un bias formabile. " 2. I termini di polarizzazione possono essere apprese proprio come gli altri pesi ". Così io sia aggiungere in un 'peso costante' o treno questo peso come tutti gli altri usando discesa del gradiente.
Perchè sono la giusta comprensione?
Questa è una grande domanda con una risposta purtroppo di grandi dimensioni. Questo è un punto di partenza decente: ftp://ftp.sas.com/pub/neural/FAQ2.html#A_bias – msw
treno questo peso come tutti gli altri che utilizzano discesa del gradiente è richiesta – pberkes
termine Bias, un valore di polarizzazione consente di spostare la funzione di attivazione (funzione sigmoid) a sinistra oa destra. I pesi utilizzati in termini di bias verranno modificati nell'algoritmo di propagazione posteriore e saranno ottimizzati utilizzando la discesa del gradiente o una tecnica di ottimizzazione avanzata come la funzione fminunc in Octave/Matlab. –