5

Ho una rete neurale convoluzionale che ho modificato l'architettura. Non ho il tempo di riqualificare la rete 10 volte e di eseguire un'enorme convalida incrociata (ricerca della griglia sui parametri ottimali). Voglio regolare in modo intuitivo il tasso di apprendimento.Devo aumentare o diminuire la velocità di apprendimento se aggiungo più neuroni o pesi a una rete neurale

Devo aumentare o diminuire il tasso di apprendimento dei miei RMS (SGD-based) per ottimizzare se:

  1. aggiungo più neuroni agli strati completamente collegati?
  2. Su una rete neurale convoluzionale, rimuovo un sottocampionamento (livello medio o massimo pooling) prima delle connessioni complete e aumento la quantità di unità completamente collegate tra quella mappa delle funzioni e le uscite softmax (in modo che ci siano più pesi collegato ai neuroni completamente collegati in alto)?

risposta

10

Bene aggiungendo più strati/neuroni aumenta la possibilità di un adattamento eccessivo. Quindi sarebbe meglio se diminuissi il tasso di apprendimento nel tempo. La rimozione dei livelli di sottocampionamento aumenta anche il numero di parametri e di nuovo la possibilità di un adattamento eccessivo. È altamente raccomandato, comprovato dai risultati empirici, che strati di sottocampionamento possono aiutare il modello ad apprendere in modo migliore in modo significativo. Quindi evita di rimuoverli.

Inoltre, ti suggerisco di generare altri esempi ritagliando le immagini e allenando il modello con quelle versioni ritagliate. Funziona come un normalizzatore che aiuta il modello a imparare una migliore distribuzione dei dati. Quindi puoi anche aumentare il numero di strati/neuroni con meno rischi di over-fitting.

+0

Quindi, in entrambi i casi, aggiungere regolarizzazione e ridurre il tasso di apprendimento è una buona idea. Grazie. –

+2

Perché dovresti avere una maggiore possibilità di overfitting (a causa di più parametri) significa che dovresti diminuire il tasso di apprendimento nel tempo? In che modo ridurre il tasso di apprendimento aiuta a risolvere il problema del sovradattamento? – Peter

+0

@Peter non necessariamente. Poiché l'aggiunta di ulteriori livelli/nodi al modello lo rende incline al montaggio eccessivo, le modifiche di grandi dimensioni per i valori dei parametri potrebbero potenzialmente portare a un adattamento eccessivo o divergere dalla soluzione. In questi casi, si raccomandano piccoli passi verso i minimi locali e il tasso di apprendimento controlla le dimensioni del passo da spostare. – Amir

Problemi correlati