Sto studiando le reti neurali convenzionali. Sono confuso su alcuni strati della CNN.ReLu e dropout in CNN
Riguardo a ReLu ... So solo che è la somma di una funzione logistica infinita, ma ReLu non si connette a nessun livello superiore. Perché abbiamo bisogno di ReLu, e come funziona?
Per quanto riguarda il dropout ... Come funziona il drop out? Ho ascoltato un video di G. Hinton. Ha detto che esiste una strategia che ignora a metà dei nodi, a caso, quando si allena il peso e dimezza il peso quando si preannuncia. Dice che è stato ispirato da foreste casuali e funziona esattamente come calcolare la media geometrica di questi modelli addestrati a caso.
Questa strategia è la stessa del dropout?
Qualcuno può aiutarmi a risolvere questo?
Un'ottima risorsa è il [tutorial CVPR 2014 sul riconoscimento visuale su larga scala] (https://sites.google.com/site/lsvrtutorialcvpr14/home/deeplearning) di [Marc'Aurelio Ranzato] (http://www.cs.toronto.edu/~ranzato/). Introduce e dettaglia tutti e due gli argomenti. – deltheil
@deltheil Mi dispiace, ma non riesco a trovare nulla riguardo al dropout nella carta che hai collegato. La ricerca nel documento di "dropout" restituisce tre occorrenze, tutte e tre solo una menzione che il dropout è usato qui. Avete un numero di pagina in cui il dropout dei dettagli? L'ho già letto ma non ho trovato nulla sul dropout – DBX12