Video: Operations Research 15F: AMPL - NEOS Server 2024
Il Markov Model è un modello statistico che può essere utilizzato nell'analisi predittiva che si basa molto sulla teoria della probabilità. (Prende il nome da un matematico russo la cui ricerca primaria era nella teoria della probabilità.)
Ecco uno scenario pratico che illustra come funziona: Immagina di voler predire se la squadra X vincerà la partita di domani. La prima cosa da fare è raccogliere le statistiche precedenti sulla squadra X. La domanda che potrebbe sorgere è quanto indietro si dovrebbe andare nella storia?
Supponiamo che tu sia stato in grado di arrivare agli ultimi 10 risultati di gioco passati in sequenza. Vuoi conoscere la probabilità che la squadra X vinca la partita successiva, visti gli esiti degli ultimi 10 giochi.
Il problema è che più indietro nella storia si vuole andare, più difficile e complessa diventa la raccolta dei dati e il calcolo della probabilità.
Che ci crediate o no, il Markov Model semplifica la vostra vita fornendovi Markov Assumption, che appare così quando lo scrivete a parole:
La probabilità che un evento accada, dato n eventi passati, è approssimativamente uguale alla probabilità che un evento del genere accada solo all'ultimo evento passato.
Scritto come una formula, l'Assunzione di Markov assomiglia a questa:
In ogni caso, l'Assunzione di Markov significa che non è necessario andare troppo indietro nella storia per predire l'esito di domani. Puoi semplicemente utilizzare l'evento passato più recente. Questa è chiamata previsione Markov del primo ordine perché stai considerando solo l'ultimo evento per prevedere l'evento futuro.
Un secondo Markov previsione include solo gli ultimi due eventi che si verificano in sequenza. Dall'equazione appena data, è anche possibile ricavare la seguente equazione ampiamente utilizzata:
Questa equazione mira a calcolare la probabilità che alcuni eventi si verifichino in sequenza: evento 1 dopo evento 2 , e così via. Questa probabilità può essere calcolata moltiplicando la probabilità di ciascun evento t (dato l'evento precedente ad esso) dal prossimo evento nella sequenza. Ad esempio, supponiamo di voler predire la probabilità che la squadra X vinca, poi perda e poi si allacci.
Ecco come funzionerebbe un tipico modello predittivo basato su un modello Markov. Considera lo stesso esempio: supponi di voler predire i risultati di una partita di calcio che deve essere giocata dalla squadra X. I tre possibili risultati - chiamati stati - sono vittoria, perdita o parità.
Supponiamo di aver raccolto dati statistici passati sui risultati delle partite di calcio della squadra X e che la squadra X abbia perso la sua partita più recente. Vuoi pronosticare il risultato della prossima partita di calcio. Si tratta di indovinare se la squadra X vincerà, perderà o legherà, basandosi solo sui dati dei giochi passati. Quindi, ecco come si usa un modello Markov per fare quella previsione.
-
Calcola alcune probabilità in base ai dati passati.
Ad esempio, quante volte la squadra X ha perso i giochi? Quante volte la squadra X ha vinto i giochi? Ad esempio, immagina se la squadra X ha vinto 6 giochi su dieci partite in totale. Quindi, il Team X ha vinto il 60% delle volte. In altre parole, la probabilità di guadagnare per la squadra X è del 60 percento.
-
Calcola la probabilità di una perdita, quindi la probabilità di un pareggio, allo stesso modo.
-
Usa l'equazione di probabilità di Naïve Bayes per calcolare probabilità come la seguente:
-
La probabilità che la squadra X vincerà, dato che la squadra X ha perso l'ultima partita.
-
La probabilità che la squadra X perda, dato che la squadra X ha vinto l'ultima partita.
-
-
Calcola le probabilità per ogni stato (vincita, perdita o pareggio).
-
Supponendo che la squadra giochi solo una partita al giorno, le probabilità sono le seguenti:
-
P (Win | Loss) è la probabilità che la squadra X vincerà oggi, dato che ha perso ieri.
-
P (Win | Tie) è la probabilità che la squadra X vincerà oggi, dato che è legata ieri.
-
P (Win | Win) è la probabilità che la squadra X vincerà oggi, dato che ha vinto ieri.
-
-
Utilizzando le probabilità calcolate, creare un grafico.
Un cerchio in questo grafico rappresenta uno stato possibile che la squadra X potrebbe ottenere in qualsiasi momento (vincita, perdita, parità); i numeri sulle frecce rappresentano le probabilità che la squadra X possa spostarsi da uno stato all'altro.
Per esempio, se la squadra X ha appena vinto la partita di oggi (il suo stato attuale = vittoria), la probabilità che la squadra vincerà di nuovo è del 60 percento; la probabilità che perderanno la partita successiva è del 20 percento (nel qual caso si sposterebbero dallo stato corrente = vinci allo stato futuro = perdita).
Supponiamo che tu voglia conoscere le possibilità che il Team X vincerà due partite di fila e perderà il terzo. Come puoi immaginare, non è una previsione facile da fare.
Tuttavia, usando il grafico appena creato e l'ipotesi Markov, puoi facilmente prevedere le probabilità che si verifichi un evento del genere. Si inizia con lo stato di vittoria, si attraversa nuovamente lo stato di vittoria e si registra il 60%; poi vai allo stato di perdita e registra il 20 percento.
Le probabilità che la squadra X vinca due volte e perdano il terzo gioco diventano semplici da calcolare: il 60 percento del 60 percento del 20 percento e il 60 percento il 60 percento del 20 percento, che equivale al 72 percento.
Quindi, quali sono le probabilità che la squadra X vincerà, quindi legherà e poi perderà due volte? La risposta è del 20 percento (passando dallo stato di vincita allo stato di pareggio) per il 20 percento (passando da parità a perdita), per il 35 percento (passando da perdita a perdita) per il 35 percento (passando da perdita a perdita). Il risultato è il 49 percento.