Como utilizar o modelo de markov em análise preditiva

o Markov Modelo

é um modelo estatístico que pode ser usado em análises preditivas que depende fortemente de teoria da probabilidade. (É o nome de um matemático russo cuja pesquisa primária foi na teoria da probabilidade.)

Aqui está um cenário prático que ilustra como funciona: Imagine que você quer prever se Equipe X vai ganhar o jogo de amanhã. A primeira coisa a fazer é recolher estatísticas anteriores sobre Team X. A pergunta que pode surgir é o quão distante você deve ir na história?

Vamos supor que você fosse capaz de obter para os últimos 10 resultados de jogos passados ​​em sequência. Você quer saber a probabilidade de Equipe X vencer o próximo jogo, dados os resultados dos últimos 10 jogos.

O problema é que quanto mais para trás na história você quer ir, mais difícil e mais complexo o cálculo coleta de dados e probabilidade de se tornar.

Acredite ou não, o Modelo de Markov simplifica sua vida, fornecendo-lhe com o Markov Assunção, que tem esta aparência quando você escrevê-lo em palavras:

A probabilidade de que um evento irá acontecer, dada n eventos passados, é aproximadamente igual à probabilidade de que tal evento vai acontecer dado apenas o último evento passado.

Escrito como uma fórmula, o Markov Assunção parece com isso:

Video: Probabilidade, Probabilidade condicional, Estatística e Matrizes

De qualquer maneira, o Markov Assunção significa que você não precisa ir muito longe na história para prever o resultado de amanhã. Você pode apenas usar o evento mais recente passado. Isso é chamado de predição de Markov de primeira ordem porque você está considerando apenas o último evento de prever o futuro evento.

UMA predição de Markov de segunda ordem inclui apenas os dois últimos eventos que acontecem em seqüência. A partir da equação simplesmente dado, a seguinte equação amplamente utilizado também pode ser derivada:

Esta equação tem o objetivo de calcular a probabilidade de que alguns eventos vai acontecer em seqüência: evento1 depois de evento2, e assim por diante. Esta probabilidade pode ser calculado multiplicando a probabilidade de cada eventot (Dado o caso anterior a ele) pelo evento seguinte na sequência. Por exemplo, suponha que você queira prever a probabilidade de que Equipe X ganha, em seguida, perde, em seguida, laços.

Aqui está como um modelo preditivo típico baseado em um modelo Markov iria funcionar. Considere o mesmo exemplo: suponha que você quer prever os resultados de um jogo de futebol para ser jogado pelo Team X. Os três resultados possíveis - chamada estados - são vitória, perda ou empate.

Suponha que você coletou dados estatísticos anteriores sobre os resultados de jogos de futebol da equipe X, e que o Team X perdeu o seu jogo mais recente. Você quer prever o resultado do jogo de futebol ao lado. É tudo sobre adivinhar se Equipe X vai ganhar, perder, ou empate - contando apenas com os dados de jogos passados. Então aqui está como você usa um modelo Markov para fazer essa previsão.

  1. Calcule algumas probabilidades com base em dados passados.

    Por exemplo, quantas vezes Equipe X perdeu jogos? Quantas vezes Equipe X ganhou jogos? Por exemplo, imagine se Equipe X ganhou 6 jogos fora de dez jogos no total. Então, Equipe X ganhou 60 por cento do tempo. Em outras palavras, a probabilidade de ganhar para o Team X é de 60 por cento.

  2. Calcular a probabilidade de uma perda, e, em seguida, a probabilidade de empate, da mesma forma.



  3. Use a equação de probabilidade Naïve Bayes para calcular probabilidades como as seguintes:

  4. A probabilidade de que Equipe X vai ganhar, dado que o Team X perdeu o último jogo.

  5. A probabilidade de que Equipe X vai perder, dado que o Team X ganhou o último jogo.

  6. Calcular as probabilidades para cada estado (vitória, perda ou empate).

  7. Assumindo que o time joga apenas um jogo por dia, as probabilidades são as seguintes:

  8. P (Win | Loss) é a probabilidade de que o Team X vai ganhar hoje, uma vez que perdeu ontem.

  9. P (Win | Tie) é a probabilidade de que o Team X vai ganhar hoje, uma vez que empatou ontem.

  10. P (Win | Win) é a probabilidade de que o Team X vai ganhar hoje, uma vez que ganhou ontem.

  11. Usando as probabilidades calculadas, criar um gráfico.

    Um círculo neste gráfico representa um possível estado que equipa X pode atingir, em qualquer momento dado (vitória, perda, tie) - os números nas setas representam as probabilidades de que equipa X pode passar de um estado para outro.

Por exemplo, se Equipe X acaba de ganhar o jogo de hoje (seu estado atual = win), a probabilidade de que a equipe vai ganhar de novo é de 60 per- a probabilidade de que eles vão perder o próximo jogo é de 20 por cento (caso em que eles d mudar de estado atual = vencer para futuro estado = perda).

Suponha que você quer saber as chances que o Team X vai ganhar dois jogos seguidos e perder o terceiro. Como você pode imaginar, isso não é uma previsão simples de fazer.

No entanto, usando o gráfico acabou de criar e a suposição de Markov, você pode facilmente prever as chances de tal evento ocorrer. Você começa com o estado vitória, percorrer o estado vitória novamente, e gravar 60 per- seguida, você se move para o estado perda e gravar 20 por cento.

As chances de que Equipe X vai ganhar duas vezes e perder o terceiro jogo tornam-se simples para calcular: 60 por cento vezes 60 por cento vezes 20 por cento, que é 60 por cento * 60 por cento * 20 por cento, o que equivale a 72 por cento.

Video: Build a Markov Model in TreeAge Pro

Então, quais são as chances de que Equipe X vai ganhar, em seguida, amarrar, e, em seguida, perdem duas vezes depois disso? A resposta é de 20 por cento (passando de estado vitória para amarrar estado) vezes 20 por cento (passando de empate a perda), vezes 35 por cento (passando de perda de perda) vezes 35 por cento (passando de perda de perda). O resultado é 49 por cento.


Publicações relacionadas