Qualcuno conosce un esempio di codice funzionante dell'algoritmo sum-product per la credenza (loopy) per le reti bayesiane? Ho setacciato la terra per un paio di giorni ma non ho avuto molta fortuna. Sono indifferente al linguaggio in cui si trova.Loopy Belief Esempio di codice di propagazione
Tutti i documenti che ho trovato sull'argomento sono pieni di mathspeak arcano e assurdamente ambiguo. Non sembra un algoritmo difficile, ma non posso esserne sicuro perché alcuni dei bit più difficili vengono ignorati così tanto.
In alternativa, un esempio che utilizza numeri reali (anziché nomi di variabili) probabilmente farebbe anche il trucco.
Il libro: "Learning Networks Bayesian" di Neapolitan fornisce due versioni dell'algoritmo. Nessun dettaglio è lasciato fuori, anche se ha qualche sintassi matematica crufty. Fornisce anche * numerosi esempi numerici di ciò che accade quando gli algoritmi funzionano. Posso inviarti il PDF se vuoi (oltre 700 pagine, bleh). Non affronta esplicitamente la propagazione ciclica, ma è una cosa che probabilmente posso immaginare. Buone risorse qui: http://www.mcs.vuw.ac.nz/courses/COMP421/2008T1/documents/marcus/ Lo sto implementando da solo (in Java) quindi pubblicherò qualcosa quando funzionerà e è debug. –
Inoltre, consultare http://www.mcs.vuw.ac.nz/courses/COMP421/2008T1/code/GM/markov.py per un'implementazione Python. Anche se sono convinto che sia bacato e non lo capisco. –
Ho preso il libro di Napoletano dalla biblioteca. Davvero bello avere dei buoni esempi! Grazie per il consiglio. Sfortunatamente non spiega la relazione tra reti bayesiane, reti di markov e grafici di fattori che sembra essere il collegamento che attualmente mi manca per comprendere appieno la BP ansiosa. Alcune altre risorse in qualche modo utili: http://www.stanford.edu/~montanar/BOOK/partD.pdf http://www.kyb.tuebingen.mpg.de/bs/people/jorism /articles/thesis-mooij-hyperref.pdf – dudemeister