Il Wikipedia page for backpropagation ha questa affermazione:in che modo la backpropagation è la stessa (o non) differenziazione automatica inversa?
L'algoritmo backpropagation per calcolare un gradiente è stato riscoperto un certo numero di volte, ed è un caso speciale di un tecnica più generale chiamata differenziazione automatica in modalità accumulo inversa .
Qualcuno può esporre su questo, metterlo in parole povere? Qual è la funzione che viene differenziata? Qual è il "caso speciale"? Sono i valori aggiunti che vengono utilizzati o il gradiente finale?