7

Tutti o quasi tutti i documenti che utilizzano drop-out lo utilizzano per l'apprendimento supervisionato. Sembra che possa essere usato altrettanto facilmente per regolarizzare deep autoencoder, RBM e DBN. Quindi, perché non si usa il drop out nell'apprendimento non supervisionato?Perché DropOut non viene utilizzato nell'apprendimento non supervisionato?

+8

Guardate denoising autoencoder, l'aggiunta di rumore casuale è simile ritirarsi. –

+2

Sì, è esattamente la stessa idea. Selezionano casualmente gli input e li impostano su 0. Vedere: http://deeplearning.net/tutorial/dA.html – alfa

+0

Ho la stessa domanda. Penso che il denoising AE applichi solo il dropout sul livello di input. La mia domanda è: perché il dropout non viene applicato ai livelli nascosti per evitare il sovradattamento? –

risposta

1

Il dropout è utilizzato nell'apprendimento non supervisionato. Per esempio:

Shuangfei Zhai, Zhongfei Zhang: Dropout formazione di Matrix Factorization e Autoencoder di Link previsione in Grafici Sparse (arxiv 14 Dic 2015)

Problemi correlati