Video: Cos'è il Machine Learning (Reti Neurali e A.I.) 2024
Parte di Machine Learning For Dummies Cheat Sheet < L'apprendimento automatico implica l'uso di molti algoritmi diversi. Questa tabella fornisce un rapido riepilogo dei punti di forza e di debolezza dei vari algoritmi.
Algoritmo
Migliore a | Pro | Contro | Foresta casuale |
Adatto a quasi tutti i problemi di apprendimento automatico | Bioinformatica
Può funzionare in parallelo |
Sovraccarico raramente > Gestisce automaticamente i valori mancanti
Non è necessario trasformare alcuna variabile Non è necessario modificare i parametri Può essere utilizzato da quasi chiunque con risultati eccellenti Difficile da interpretare Debole sulla regressione nella stima dei valori a le estremità della distribuzione dei valori di risposta |
Biased nei problemi multiclasse verso classi più frequenti
Boosting Apt in quasi tutti i problemi di apprendimento macchina |
Motori di ricerca (risolvendo il problema dell'apprendimento in classifica) > Può approssimare la maggior parte delle funzioni non lineari | Il miglior predittore della classe
Gestisce automaticamente i valori mancanti |
Non è necessario trasformare alcuna variabile
Può essere sovradimensionato se eseguito per troppe iterazioni Dati sensibili e rumorosi e valori anomali Non funziona bene senza sintonizzazione dei parametri |
Regressione lineare
Previsione di base Previsioni econometriche |
Modellazione delle risposte di marketing | Semplice da capire e spiegare
Raramente si adatta L'uso della regolarizzazione L1 e L2 è efficace nella selezione delle funzioni |
Veloce da addestrare
Facile da allenarsi su big data grazie alla sua versione stocastica Devi lavorare duro per adattarlo a funzioni non lineari Può soffrire di valori anomali Supporto macchine vettoriali |
Riconoscimento caratteri
Riconoscimento immagini |
Testo classificazione | Creazione automatica di feature non lineari
Può approssimare complesse funzioni non lineari Difficile da interpretare quando si applicano kernel non lineari |
Soffre di troppi esempi, dopo 10.000 esempi inizia a richiedere troppo tempo per formare
K-nearest Neighbours |
Computer vision
Tagging multilivello |
Sistemi Recommender | Problemi di controllo ortografico
Allenamento veloce e pigro Può gestire naturalmente problemi multiclasse estremi (come taggare il testo) Lento ed ingombrante nella fase di previsione |
Può non riuscire a prevedere il corr ectly a causa della maledizione della dimensionalità
Adaboost |
Rilevazione visi
Gestisce automaticamente i valori mancanti |
Non è necessario trasformare alcuna variabile | Non si adatta facilmente | Pochi parametri da modificare > Può sfruttare molti diversi utenti deboli
Dati sensibili e anomali Mai le migliori previsioni della classe Naive Bayes Riconoscimento viso |
Analisi sentiment
Rilevazione spam |
Classificazione del testo | Facile e veloce da implementare, non richiede troppa memoria e può essere utilizzato per l'apprendimento online
Facile da capire Tiene conto delle conoscenze precedenti Presupposti per l'indipendenza delle caratteristiche forti e non realistiche > Errore nella stima di occorrenze rare |
soffre di caratteristiche irrilevanti
Reti neurali Riconoscimento immagini |
Riconoscimento e traduzione
Riconoscimento vocale Riconoscimento visione |
Può approssimare qualsiasi funzione non lineare | Robusto da outlier
Funziona solo con una parte degli esempi (il vettore di supporto s) Molto difficile da configurare Difficile da regolare a causa di troppi parametri e devi anche decidere l'architettura della rete |
Difficile da interpretare
Facile da sovraffaticare Regressione logistica < Ordinare i risultati per probabilità |
Modellare le risposte marketing
Semplice da capire e spiegare Raramente si adatta L'uso della regolarizzazione L1 e L2 è efficace nella selezione delle funzionalità |
Il miglior algoritmo per predire le probabilità di un evento | Veloce da addestrare
Facile da addestrare su big data grazie alla sua versione stocastica |
Devi lavorare duro per adattarlo a funzioni non lineari
Può soffrire di outlier SVD Recommender sistemi Ristrutturazione dei dati in modo significativo Difficile capire perché i dati sono stati ristrutturati in un certo modo |
PCA
Rimozione della collinearità |
Riduzione delle dimensioni del set di dati | Riduzione della dimensionalità dei dati | Implica forti assunzioni lineari (i componenti sono una somma ponderata delle caratteristiche) K-significa | Segmentazione |
Veloce nella ricerca di cluster | Può rilevare valori anomali in più dimensioni
Soffre di multicollinearità |
I cluster sono sferici, non è possibile rilevare gruppi di altra forma | Instabile soluzioni, dipende dall'inizializzazione |
|