In breve: nell'apprendimento debolmente supervisionato, si utilizza una quantità limitata di dati etichettati .
Come si selezionano questi dati e ciò che si fa esattamente dipende dal metodo. In generale, si utilizza un numero limitato di dati che è facile da ottenere e/o fa davvero la differenza e quindi imparare il resto. Considero il bootstrap un metodo che può essere utilizzato nell'apprendimento debolmente supervisionato, ma come mostra il commento di Ben in basso, questa non è una visione generalmente accettata.
Vedi, per esempio this dissertation per una bella panoramica (Ma io non sono sicuro se la distinzione tra apprendimento semi-supervisionato e debolmente-sorvegliato è generalmente accettato), si dice quanto segue riguardo bootstrap/apprendimento debolmente-supervisionato:
Il bootstrap, chiamato anche autoapprendimento, è una forma di apprendimento che è stato progettato per utilizzare ancora meno esempi di formazione, pertanto a volte chiamato debitamente supervisionato. Il bootstrap inizia con alcuni esempi di training , forma un classificatore e utilizza gli esempi positivi positivi forniti da questo classificatore per la riqualificazione. Con l'aumentare degli esempi di formazione , il classificatore migliora, a condizione che non siano stati errati anche gli esempi negativi di , il che potrebbe causare un deterioramento delle prestazioni pari a .
Ad esempio, in caso di tag di parte del discorso, di solito si allena un tagger HMM (o maximum-entropy o qualunque) su 10.000 parole, ciascuna con il proprio POS. In caso di tagging debolmente supervisionato, potresti semplicemente utilizzare un corpus molto piccolo di parole da 100 secondi. Ottieni un tagger, lo usi per taggare un corpus di parole di 1000, istruisci un tagger su questo e lo usi per etichettare un corpus ancora più grande. Ovviamente, devi essere più intelligente di questo, ma questo è un buon inizio. (Vedere this paper per un esempio più avanzata di un tagger bootstrap)
Nota: l'apprendimento debolmente supervisionato può anche riferirsi ad imparare con le etichette rumorosi (tali etichette possono, ma non devono essere il risultato di bootstrap)
grazie per la vostra risposta. Non ho avuto completamente l'ultima parte; l'unica differenza è che si allena la "macchina" su un set di dati più piccolo? – Cheshie
Ti alleni su un piccolo set di dati, quindi lo applichi a un corpus più grande e ti alleni su quel corpus più grande. – Jirka
Questo è un esempio di apprendimento bootstrap, ma non molto debolmente supervisionato (o almeno, non ho mai sentito il bootstrap chiamato debolmente supervisionato). Indovino, va solo a dimostrare che c'è poco beneficio nell'usare questi termini se le loro definizioni non sono chiare. –