GridSearchCV usa predire o predict_proba, quando si usa auc_score come funzione di punteggio?GridSearchCV usa predire o predict_proba, quando si usa auc_score come funzione di punteggio?
La funzione di previsione genera etichette di classe previste, che generano sempre una curva ROC triangolare. Si ottiene una curva ROC più curva utilizzando le probabilità di classe previste. Quest'ultimo è, per quanto ne so, più preciso. In tal caso, l'area sotto la curva ROC "curva" è probabilmente la migliore per misurare le prestazioni di classificazione all'interno della ricerca della griglia.
Pertanto sono curioso di utilizzare le etichette di classe o le probabilità di classe per la ricerca della griglia, quando si utilizza l'area sotto la curva ROC come misura di prestazione. Ho cercato di trovare la risposta nel codice, ma non riuscivo a capirlo. Qualcuno qui conosce la risposta?
Grazie
Grazie per la risposta. Installerò il master corrente da github per ottenere la funzionalità desiderata. –
Il feedback sulla nuova funzionalità è molto gradito;) –
E per le funzioni personalizzate? Voglio dire che voglio usare una funzione di punteggio che segna con trota di terra e una matrice predict_proba y. – avances123