Video: Dr Who Review, Part 9 - The Wilderness Years & The Paul McGann Era 2024
L'approccio di convalida all'apprendimento automatico è un esame di un possibile rimedio al bias in campionamento. Il bias nel campionamento può capitare ai tuoi dati prima che l'apprendimento automatico venga messo in atto e provoca un'alta varianza delle seguenti stime. Inoltre, è necessario essere consapevoli delle trappole di dispersione che possono verificarsi quando alcune informazioni dall'esterno del campione passano ai dati in-sample. Questo problema può sorgere quando si preparano i dati o dopo che il modello di apprendimento automatico è pronto e funzionante.
Il rimedio, che è chiamato ensemble di predittori, funziona perfettamente quando il campione di allenamento non è completamente distorto e la sua distribuzione è diversa dall'esempio, ma non in modo irrimediabile, ad esempio come quando tutte le tue classi sono presenti ma non nella giusta proporzione (ad esempio). In questi casi, i risultati sono influenzati da una certa varianza delle stime che è possibile stabilizzare in uno dei vari modi: ricampionando, come nel bootstrap; sottocampionamento (prelevando un campione del campione); o usando campioni più piccoli (che aumentano il bias).
Per capire come funziona l'insieme in modo così efficace, visualizza l'immagine di un bue. Se il tuo campione influisce sulle previsioni, alcune previsioni saranno esatte e altre saranno errate in modo casuale. Se cambi il tuo campione, le previsioni corrette continueranno a essere corrette, ma quelle sbagliate inizieranno a essere variazioni tra valori diversi. Alcuni valori saranno la previsione esatta che stai cercando; altri oscilleranno attorno a quello giusto.
Confrontando i risultati, puoi indovinare che ciò che è ricorrente è la risposta giusta. Puoi anche prendere una media delle risposte e indovinare che la risposta giusta dovrebbe essere nel mezzo dei valori. Con il gioco a occhio di bue, puoi visualizzare le foto sovrapposte di diversi giochi: se il problema è la varianza, alla fine indovinerai che il bersaglio si trova nell'area colpita più frequentemente o almeno al centro di tutti gli scatti.
Nella maggior parte dei casi, tale approccio risulta corretto e migliora molto le previsioni di apprendimento automatico. Quando il tuo problema è di bias e non di varianza, l'uso di ensembling non causa alcun danno a meno che non si sottocampionino troppo pochi campioni. Una buona regola empirica per il sottocampionamento consiste nel prelevare un campione dal 70% al 90% rispetto ai dati originali nel campione. Se vuoi fare un lavoro di ensembling, devi fare quanto segue:
- Scorrere un gran numero di volte attraverso i tuoi dati e modelli (da un minimo di tre iterazioni a idealmente centinaia di volte).
- Ogni volta che iterate, sottocampione (o altro bootstrap) i vostri dati in-sample.
- Utilizzare l'apprendimento automatico per il modello sui dati ricampionati e prevedere i risultati fuori campione. Conservare questi risultati lontano per un uso successivo.
- Alla fine delle iterazioni, per ogni caso fuori campione che si desidera prevedere, prendere tutte le sue previsioni e fare una media di esse se si sta facendo una regressione. Prendi la classe più frequente se stai facendo una classificazione.
Le trappole di dispersione possono sorprenderti perché possono rivelarsi una fonte sconosciuta e non individuata di problemi con i tuoi processi di apprendimento automatico. Il problema è ficcanaso, o altrimenti osservare troppo i dati fuori campione e adattarsi troppo spesso. In breve, lo snooping è una sorta di sovradattamento - e non solo sui dati di allenamento ma anche sui dati di test, rendendo più difficile da rilevare il problema del sovradattamento fino a quando non si ottengono nuovi dati.
Di solito ti rendi conto che il problema è ficcanaso quando hai già applicato l'algoritmo di apprendimento automatico alla tua azienda o ad un servizio per il pubblico, rendendo il problema un problema che tutti possono vedere.
È possibile evitare lo snooping in due modi. Innanzitutto, quando si opera sui dati, fare attenzione a separare nettamente formazione, convalida e dati di test. Inoltre, durante l'elaborazione, non prendere mai alcuna informazione dalla convalida o dal test, nemmeno gli esempi più semplici e innocenti. Peggio ancora è applicare una trasformazione complessa usando tutti i dati.
In finanza, ad esempio, è risaputo che il calcolo della media e della deviazione standard (che può effettivamente dirti parecchio sulle condizioni e sui rischi del mercato) da tutti i dati di addestramento e di test può far trapelare preziose informazioni sui tuoi modelli. Quando si verifica una perdita, gli algoritmi di apprendimento automatico eseguono previsioni sul set di test piuttosto che dati fuori campione dai mercati, il che significa che non hanno funzionato affatto, causando quindi una perdita di denaro.
Verifica le prestazioni dei tuoi esempi fuori dal campione. In effetti, puoi riportare alcune informazioni dal tuo spionaggio sui risultati del test per aiutarti a determinare che alcuni parametri sono migliori di altri, o indurti a scegliere un algoritmo di apprendimento automatico invece di un altro. Per ogni modello o parametro, applicare la propria scelta in base ai risultati della convalida incrociata o dall'esempio di convalida. Non cadere mai per ottenere takeaway dai tuoi dati fuori campione o te ne pentirai più tardi.