In k fold abbiamo questo: dividi i dati in k sottoinsiemi di (approssimativamente) di uguale dimensione. Si addestrano k volte in rete, ogni volta lasciando uno dei sottoinsiemi dall'allenamento, ma usando solo il sottoinsieme omesso su calcola qualsiasi criterio di errore ti interessi. Se k è uguale alla dimensione del campione , questa viene chiamata convalida incrociata "leave-one-out". "Leave-v-out" è una versione più elaborata e costosa della convalida incrociata che comprende lasciando fuori tutti i possibili sottoinsiemi di casi v.convalida incrociata 10 volte
cosa significano i termini Training e testing? Non riesco a capire.
vorresti comunicarmi qualche riferimento dove posso imparare questo algoritmo con un esempio?
Train classifier on folds: 2 3 4 5 6 7 8 9 10; Test against fold: 1
Train classifier on folds: 1 3 4 5 6 7 8 9 10; Test against fold: 2
Train classifier on folds: 1 2 4 5 6 7 8 9 10; Test against fold: 3
Train classifier on folds: 1 2 3 5 6 7 8 9 10; Test against fold: 4
Train classifier on folds: 1 2 3 4 6 7 8 9 10; Test against fold: 5
Train classifier on folds: 1 2 3 4 5 7 8 9 10; Test against fold: 6
Train classifier on folds: 1 2 3 4 5 6 8 9 10; Test against fold: 7
Train classifier on folds: 1 2 3 4 5 6 7 9 10; Test against fold: 8
Train classifier on folds: 1 2 3 4 5 6 7 8 10; Test against fold: 9
Train classifier on folds: 1 2 3 4 5 6 7 8 9; Test against fold: 10
Vedere [tipi comuni di convalida incrociata] (http: //en.wikipedia.org/wiki/Cross-validation_% 28statistics% 29 # Common_types_of_cross-validation) su Wikipedia. –