Sono abbastanza nuovo a tensorflow. Ho usato theano per lo sviluppo dell'apprendimento profondo. Noto una differenza tra questi due, cioè dove i dati di input possono essere memorizzati.dati di allenamento del negozio a carico di tensorflow sulla memoria GPU
In Theano, supporta la variabile condivisa per memorizzare i dati di input sulla memoria GPU per ridurre il trasferimento di dati tra CPU e GPU.
In tensorflow, è necessario alimentare i dati in segnaposto ei dati possono provenire dalla memoria o dai file della CPU.
La mia domanda è: è possibile memorizzare i dati di input sulla memoria GPU per tensorflow? o lo fa già in qualche modo magico?
Grazie.
Ecco un esempio completo di che - [mnist fully_connected_preloaded.py] (https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/how_tos/reading_data/fully_connected_preloaded.py) –
@YaroslavBulatov Grazie ! – xyd
@YaroslavBulatov non sei sicuro di esserne a conoscenza, ma il codice che hai fornito esegue un'epoca a 28 secondi, il che è terribile. (Btw è su GPU). Inoltre, non riesco a trovare nemmeno un singolo esempio di tensorflow di buona esecuzione su Internet, che è molto strano rispetto ad altri framework di deep learning come theano e torcia. È perché tensorflow è molto più lento degli altri? Altrimenti, perché nessuno dei creatori tenta di risolvere questo problema mentre tutti i nuovi utenti di tensorflow si complimentano per questo? – zwlayer