2016-01-27 11 views
15

Dal tutorial di google sappiamo come addestrare un modello in TensorFlow. Ma qual è il modo migliore per salvare un modello addestrato, quindi servire la previsione utilizzando un API python minimale di base nel server di produzione.Come distribuire e servire la previsione usando TensorFlow dall'API?

La mia domanda è fondamentalmente per le best practice di TensorFlow per salvare il modello e servire la previsione sul server live senza compromettere la velocità e il problema di memoria. Poiché il server API verrà eseguito sullo sfondo per sempre.

Un piccolo frammento di codice Python sarà apprezzato.

risposta

13

TensorFlow Serving è un sistema di servizio open source ad alte prestazioni per modelli di apprendimento automatico, progettato per ambienti di produzione e ottimizzato per TensorFlow. La versione iniziale contiene server C++ e esempi di client Python basati su gRPC. L'architettura di base è mostrata nello schema seguente.

enter image description here

di iniziare rapidamente, controlla la tutorial.

+0

Grazie per questo, Jarek. Sai se ci sono piani per un'implementazione python del lato server per TensortFlow Serving? – eriophora

+0

Non che io sappia dato che la libreria principale è in C++ e focalizzata sulle prestazioni. Puoi condividere più informazioni sul tuo caso d'uso? –

+0

Questo ha senso. Mi piacerebbe distribuire un server che invierà richieste da un numero elevato di utenti, che prendono la forma di immagini e restituirà i risultati di un'inferenza (l'output di un modello il cui input è l'immagine della richiesta). Quello che non è chiaro è che gran parte della documentazione (cioè la definizione di "servables" nella panoramica di architecutre) sembra implicare che TensorFlow Serving restituisca effettivamente i modelli stessi, piuttosto che il loro output ("I servables sono gli oggetti sottostanti che i client usano per eseguire computazione ") ... Mi piacerebbe che il calcolo avvenga lato server, non lato client – eriophora

Problemi correlati