5

Come implementare un autoencoder profondo (e come ottenere i filtri dalla rete nevralgica convulturale (CNN)? La mia idea è qualcosa di simile: fare immagini casuali delle immagini di input (28x28) e ottenere patch casuali (8x8). Quindi utilizzare autoencoder per imparare le caratteristiche comuni delle patch (caratteristiche = unità nascoste, circa 100, per esempio) Quindi applicare i filtri caratteristiche alle immagini di input e fare convoluzione Sono corretto?Come si ottengono/definiscono i filtri nelle reti neurali convoluzionali?

Sono confuso perché a volte lo stato della letteratura solo usando come, ad esempio 8, i filtri, ma nel mio caso ho 100..g. 2 o 3 livelli)? Qualche idea o risorsa?

+3

Voglio aiutare, ma ho bisogno di capire un po 'di più sulla tua domanda. Stai chiedendo ** come scegliere il numero di filtri per livello? ** Oppure, quale codice utilizzare per ** imparare i filtri? ** O qualcos'altro? – solvingPuzzles

risposta

4

È possibile seguire il tutorial: http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial

Questo è come una lezione su entrambe le auto-encoder e alcune cose semplici su CNN (convoluzione e messa in comune). Quando completerai questo tutorial avrai sia l'implementazione di auto-encoder che l'auto-encoder in pila nelle tue parole l'implementazione di auto-encoder in profondità pronta.

Questo tutorial avrà esattamente quello che chiedi:

  • 28x28 immagini MNIST

  • ottenere patch 8x8 e di apprendimento filtri utilizzando auto-encoder

  • convolvendo queste immagini da questi 8x8 filtri

  • raggrupparli

  • utilizzando i vettori/le immagini raggruppate e inserendoli in un classificatore soft-max per apprendere 10 diverse classi di database MNIST.

+0

Sì, grazie. Ho trovato anche questo tutorial. :) – RockTheStar

+0

Quindi posso aggiungere questo -> Ho finito con il seguente Deep Network: –

+0

Layer1 convolvi con 32 filtri di dimensione 3by3 e funzione sigmoid per sottocampionamento non linearità/Layer2 o inotherwords pool con 2by2/Layer 3 convolve con 32 filtri di 2by2 e sigmoid di nuovo/subsample Layer4 con classificatore softmax 2by2/Layer 5. Questo mi dà oltre% 98 in base all'inizializzazione casuale dei pesi. Proverò taglie di convoluzione più grandi e meno conteggi di filtri e ti farò sapere il risultato in 2 settimane. Ma posso dirti che senza usare CNN e usando solo autoencoder e layer softmax alla fine non riesco mai a raggiungere% 97-bloccato a 96 –

Problemi correlati