ho un grafico computazionale tensorflow per un tensore perdita L che dipende da 2 tf.Variables, A e B.variabili tenendo costante durante ottimizzatore
Vorrei eseguire salita gradiente variabile A (A + = gradiente di L a A) mentre si tiene fisso B, e viceversa - con salita gradiente su B (B + = gradiente di L a B) mentre si tiene fisso A. Come faccio a fare questo?
Grazie - var_list dovrebbe fare bene. Anche se penso che ci sia un errore di battitura - var_list dovrebbe andare negli argomenti per minimizzare() piuttosto che GradientDescentOptimizer() – ejang
Grazie, modificato lo snippet di codice. –