Nel tutorial CIFAR-10, ho notato che le variabili sono collocate nella memoria della CPU, ma è indicato in cifar10-train.py
che è stato addestrato con una singola GPU.Variabili su CPU, allenamento/gradienti su GPU
Sono abbastanza confuso .. sono lo strato/attivazioni immagazzinate nella GPU? O in alternativa, i gradienti sono memorizzati nella GPU? Altrimenti, sembrerebbe che la memorizzazione di variabili sulla CPU non faccia alcun uso della GPU - tutto è memorizzato nella memoria della CPU, quindi solo la CPU viene usata per la propagazione avanti/indietro.
Se la GPU è stata utilizzata per la propagazione f/b, non sarebbe uno spreco dovuto a dati di shuffling di latenza CPU < -> GPU?