Cadeia de Markov

Em matemática , uma cadeia de Markov é um processo de Markov em tempo discreto, ou tempo contínuo e espaço de estado discreto. Um processo de Markov é um processo estocástico que possui a propriedade de Markov  : a informação útil para prever o futuro está inteiramente contida no estado presente do processo e não é dependente de estados anteriores (o sistema não tem "memória"). Os processos de Markov têm o nome de seu inventor, Andrei Markov .

Um processo de Markov em tempo discreto é uma sequência de variáveis ​​aleatórias com valores no espaço de estados , que observaremos a seguir. O valor é o estado do processo no instante.As aplicações onde o espaço de estado é finito ou contável são inúmeras: fala-se então de cadeia de Markov ou de cadeias de Markov com espaço de estado discreto . As propriedades essenciais dos processos de Markov gerais, por exemplo as propriedades de recorrência e ergodicidade , podem ser declaradas ou provadas de forma mais simples no caso de cadeias de Markov em espaço de estado discreto . Este artigo trata precisamente das cadeias de Markov com espaço de estado discreto .

Andrei Markov publicou os primeiros resultados sobre cadeias de Markov no espaço de estado finito em 1906 . Uma generalização para um espaço de estado infinito contável foi publicada por Kolmogorov em 1936 . Processos de Markov estão relacionados com o movimento Browniano ea hipótese ergódica , dois tópicos de física estatística que eram muito importantes no início do XX °  século .

Propriedade de Markov fraca

Definições

Esta é a propriedade característica de uma cadeia de Markov: a previsão do futuro a partir do presente não é tornada mais precisa por informações adicionais sobre o passado, porque todas as informações úteis para a previsão do futuro estão contidas no estado presente de o processo. A propriedade de Markov fraca tem várias formas equivalentes que equivalem a observar que a lei condicional de conhecer o pretérito, ou seja, conhecer é uma função de apenas:

Uma variante comum das cadeias de Markov é a cadeia de Markov homogênea , para a qual a probabilidade de transição é independente de  :

No restante do artigo, apenas cadeias de Markov homogêneas serão consideradas. Para uma aplicação interessante de cadeias de Markov não homogêneas para otimização combinatória , consulte o artigo Simulated annealing . Existe uma propriedade de Markov forte , ligada à noção de tempo de parada  : esta propriedade de Markov forte é crucial para a prova de resultados importantes (vários critérios de recorrência, lei forte de grandes números para cadeias de Markov). É afirmado no artigo "  Propriedade de Markov  ".

Critério

Critério fundamental  -  Seja uma sequência de variáveis ​​aleatórias independentes da mesma lei, com valores em um espaço , e um mapa mensurável de em. Suponha que a sequência seja definida pela relação de recorrência: e suponha que a sequência seja independente de Então é uma cadeia de Markov homogênea.

Exemplo: o problema do coletor de adesivos  :

Petit Pierre reúne retratos dos onze jogadores da seleção nacional de futebol, que encontra em adesivos dentro das embalagens das barras de chocolate; toda vez que ele compra um tablet, ele tem 1 chance em 11 de encontrar o retrato do jogador n ° (para tudo ). Observe o status da coleção de Pierre Petit, depois de abrir a embalagem do seu e barra de chocolate. é uma cadeia de Markov a partir de , porque se encaixa no quadro anterior para a escolha desde onde as variáveis ​​aleatórias são variáveis ​​aleatórias independentes e uniformes sobre  : são os números sucessivos das vinhetas tiradas das barras de chocolate. O tempo médio necessário para completar a coleção (aqui o número de comprimidos que Petit Pierre deve comprar em média para completar sua coleção) é, para uma coleção de vinhetas no total, onde está o º número harmônico . Por exemplo, barras de chocolate.

Notas:

Probabilidades de transição

Definição

Definição  -  O número é chamado de probabilidade de transição de estado para estado em uma etapa ou probabilidade de transição de estado para estado se não houver ambigüidade. Freqüentemente observamos este número

Os números da família são chamados de matriz de transição , o núcleo de transição ou operador de transição da cadeia de Markov.

A terminologia matriz de transição é a mais utilizada, mas é adequada, estritamente falando, apenas quando, para um inteiro Quando é finito, por exemplo de cardinal, pode-se sempre numerar os elementos de arbitrariamente de 1 até o que define o problema, mas de forma imperfeita, porque essa renumeração é contra-intuitiva em muitos exemplos.

Modelo Ehrenfest: os dois cães e suas pulgas:

Dois cães compartilham pulgas da seguinte maneira: a cada momento, uma das pulgas é escolhida ao acaso e depois pula de um cão para outro. O estado do sistema é descrito por um elemento onde

Então tem elementos, mas numerá-los de 1 a seria difícil acompanhar a evolução do sistema, que consiste em escolher uma das coordenadas de ao acaso e alterar seu valor. Se quisermos entender o sistema com menos detalhes (porque não somos capazes de reconhecer um chip de outro), podemos simplesmente estudar o número de chips no cão # 1, o que equivale a escolher Novamente, para entender, seria uma pena renumerar os estados de 1 para Observe que, para esta nova modelização, já que, por exemplo, o número de fichas nas costas do cachorro n ° 1 vai de k para k-1 se for uma dessas k fichas que for escolhida para pular, entre as N fichas presentes no “sistema”. Este modelo é mais frequentemente referido como o “  Modelo de Urnas Ehrenfest  ”. Foi introduzido em 1907 por Tatiana e Paul Ehrenfest para ilustrar alguns dos "paradoxos" que surgiram nos fundamentos da mecânica estatística nascente e para modelar o ruído rosa . O modelo de urna Ehrenfest foi considerado pelo matemático Mark Kac como "provavelmente um dos modelos mais instrutivos em toda a física".

Em vez de renumerar os estados de 1, é, portanto, mais ergonômico em muitos casos aceitar matrizes finitas ou infinitas cujas linhas e colunas são "numeradas" usando os elementos de O produto de duas dessas "matrizes" e , então, é definido muito naturalmente de por analogia com a fórmula mais clássica do produto de duas matrizes quadradas de tamanho

Propriedades

Proposição  -  A matriz de transição é estocástica  : a soma dos termos de qualquer linha sempre dá 1.

Proposição  -  A lei da cadeia de Markov é caracterizada pelo par formado por sua matriz de transição e sua lei inicial (a lei de ): para toda a lei conjunta de é dada por

Demonstração

Por indução, na classificação 0,

Na fila , posando em virtude da propriedade de Markov fraca, então se tem a expressão esperada, então também.

Ao estudar uma determinada cadeia de Markov, sua matriz de transição é geralmente bem definida e fixada ao longo do estudo, mas a lei inicial pode mudar durante o estudo e as notações devem refletir a lei inicial considerada no momento: se em um momento do estudo, consideramos uma cadeia de Markov de distribuição inicial definida até então, as probabilidades são anotadas e as expectativas são anotadas. Em particular, se dissermos que a cadeia de Markov começa a partir das probabilidades são anotadas e as expectativas são anotadas

Poderes da matriz de transição

Para a probabilidade de transição na etapa, não depende de  :

Proposição  -  A matriz de transição em etapas , é igual à potência th da matriz de transição nota Nós e

Demonstração

Por recorrência. No posto 1, é uma consequência da homogeneidade da cadeia de Markov já mencionada na seção Propriedade de Markov fraca  :

Classificação ou

Para concluir, dividimos os dois termos extremos desta sequência de igualdades por, a menos que este último termo seja zero, caso em que podemos definir arbitrariamente, portanto, por exemplo, igual a

Por uma simples aplicação da fórmula de probabilidade total , deduzimos as leis marginais da cadeia de Markov.

Corolário  -  A lei de é dada por

Em particular,

Na escrita da matriz, se a lei de é considerada um vetor linha com que se reformula em:

Classificação dos estados

Para , dizemos que é acessível a partir de , se e somente se existir tal que Denotaremos:

Dizemos isso e comunicamos se e somente se eles existem de modo que e Denotamos:

A relação de comunicar , notada, é uma relação de equivalência . Quando falamos de classe quando falamos dos estados de uma cadeia de Markov, geralmente é às classes de equivalência da relação que estamos nos referindo. Se todos os estados se comunicam, a cadeia de Markov é considerada irredutível .

A relação ser acessível , denotada, estende-se às classes de equivalência: para duas classes e , temos

A relação é uma relação de ordem entre as classes de equivalência.

Diz- se que uma classe é final se não conduz a nenhuma outra, ou seja, se a classe é mínima para a relação , caso contrário, diz-se que é transitória . Pertencer a uma classe final ou transitória tem consequências nas propriedades probabilísticas de um estado na cadeia de Markov, em particular no seu status como um estado recorrente ou um estado transiente . O número e a natureza das classes finais ditam a estrutura do conjunto de probabilidades estacionárias , que resumem com precisão o comportamento assintótico da cadeia de Markov, como pode ser visto na próxima seção e nos dois exemplos detalhados no final desta página.

É

O período de um estado é o GCD do conjunto.Se dois estados se comunicam, eles têm o mesmo período: podemos, portanto, falar do período de uma classe de estados. Se o período for 1, a aula é considerada aperiódica . A aperiodicidade dos estados de uma cadeia de Markov condiciona a convergência da lei de para a probabilidade estacionária, consulte a página Probabilidade estacionária de uma cadeia de Markov .

A classificação dos estados e seu período podem ser facilmente lidos no gráfico da cadeia de Markov . No entanto, se todos os elementos da matriz de transição são estritamente positivos, a cadeia de Markov é irredutível e aperiódica: desenhar o gráfico da cadeia de Markov é então supérfluo.

Lei estacionária

Definição

Pode haver uma ou mais medidas no espaço de estado , como: ou mesmo

Essa medição é chamada de medição estacionária . Uma medida estacionária é uma autofunção da transposta da matriz de transição, associada ao autovalor 1. É chamada de probabilidade estacionária ou lei estacionária se cumprir as condições adicionais:

O termo "  estacionário  " justifica-se pela seguinte proposição:

Proposição  -  Se a lei inicial da cadeia de Markov (ou seja, a lei de ) é uma probabilidade estacionária, então para toda a lei de ainda é

Demonstração

Isso segue das propriedades das potências da matriz de transição dadas acima: a lei μ n de X n é expressa como uma função da lei μ 0 de X 0 como segue: ou implica

De maneira mais geral, a cadeia de Markov é um processo estacionário se e somente se sua lei inicial for uma probabilidade estacionária .

Existência e singularidade

No caso de cadeias de Markov de espaço de estado discreto, certas propriedades do processo determinam se há ou não uma probabilidade estacionária, e se ela é única ou não:

Se uma cadeia de Markov tem pelo menos um estado recorrente positivo, então há uma probabilidade estacionária. Se houver uma probabilidade estacionária tal , então o estado é recorrente positivo e vice-versa.

Teorema  -  Se uma cadeia de Markov tem apenas uma classe final, então há no máximo uma probabilidade estacionária. Temos então a equivalência entre as 3 proposições:

Também temos a equivalência

Este teorema é válido em particular para cadeias de Markov irredutíveis, uma vez que as últimas têm apenas uma classe (que é, portanto, necessariamente uma classe final); as irredutíveis cadeias de Markov verificam em particular

Lei forte de grandes números e ergodicidade

No caso de uma cadeia de Markov positiva irredutível e recorrente, a lei forte dos grandes números está em vigor: a média de uma função nas instâncias da cadeia de Markov é igual à sua média de acordo com sua probabilidade estacionária. Mais precisamente, sob o pressuposto nós quase com certeza  :

A média do valor das instâncias é, portanto, no longo prazo, igual à expectativa de acordo com a probabilidade estacionária. Em particular, esta equivalência nas médias se aplica se for a função indicadora de um subconjunto do espaço de estado:

Isso torna possível aproximar a probabilidade estacionária pela distribuição empírica (que é um histograma construído a partir de uma determinada sequência), como no caso do passeio aleatório com barreira .

Em particular, se o processo é construído tomando a probabilidade estacionária como a lei inicial, a mudança definida por preserva a medida, o que torna a cadeia de Markov um sistema dinâmico medido . A forte lei dos grandes números faz com que a cadeia de Markov seja um sistema ergódico dinâmico . A ergodicidade é mais forte do que a lei forte dos grandes números porque podemos deduzir, por exemplo, que tem um limite quase certo, mas também é mais fraca porque, em princípio, requer a estacionariedade da cadeia de Markov, o que não é o caso com o forte lei dos grandes números.

Convergência para a lei estacionária

Se a cadeia de Markov for irredutível , recorrente positiva e aperiódica, então converge para uma matriz em que cada linha é a distribuição estacionária única. Em particular, a lei de converge para independentemente da lei inicial. No caso de um espaço de estado acabado, isso é provado pelo teorema de Perron-Frobenius . Note que é natural que a sequência definida por indução pela relação tenha, possivelmente, por limite um ponto fixo desta transformação, ou seja, uma solução da equação

Cadeias de Markov no espaço de estados finitos

Se uma cadeia de Markov for irredutível e seu espaço de estados for finito, todos os seus estados são recorrentes positivos. A forte lei dos grandes números entra então em vigor.

De maneira mais geral, todos os elementos de uma classe final finita são recorrentes positivos, seja o espaço de estados finito ou contável infinito.

Distribuições quase estacionárias de uma cadeia de Markov absorvida

Let Ser uma cadeia de Markov sobre o conjunto de números naturais . Suponha que o estado 0 seja absorvente e a cadeia seja absorvida em 0 quase com certeza. Seja o tempo de absorção em 0. Dizemos que uma probabilidade em é uma distribuição quase estacionária se para todos e para todos ,

Dizemos que uma probabilidade em é um limite de Yaglom se para tudo e todos ,

Um limite de Yaglom é uma distribuição quase estacionária . Se existir, o limite de Yaglom é único. Por outro lado, pode haver várias distribuições quase estacionárias.

Se for uma distribuição quase estacionária, então existe um número real como esse .

Avaliação

Nas fórmulas acima, o elemento ( ) é a probabilidade da transição de para . A soma dos elementos de uma linha é sempre igual a 1 e a distribuição estacionária é dada pelo autovetor esquerdo da matriz de transição.

Às vezes, encontramos matrizes de transição nas quais o termo ( ) é a probabilidade de transição de para , caso em que a matriz de transição é simplesmente a transposição daquela descrita aqui. A soma dos elementos de uma coluna vale então 1. Além disso, a distribuição estacionária do sistema é dada pelo autovetor direito da matriz de transição, em vez do autovetor esquerdo.

Exemplo: Doudou, o hamster

O hamster Doudou conhece apenas três lugares em sua gaiola: as aparas onde dorme, o comedouro onde se alimenta e a roda onde se exercita. Seus dias são bastante semelhantes e sua atividade é facilmente representada por uma cadeia de Markov. A cada minuto, ele pode mudar sua atividade ou continuar a que estava fazendo. O nome processo sem memória não é exagerado para falar de Doudou.

Diagramas

Os gráficos podem mostrar todas as setas, cada uma representando uma probabilidade de transição. No entanto, é mais legível se:

Matriz de transição

A matriz de transição deste sistema é a seguinte (as linhas e colunas correspondem em ordem aos estados representados no chip , alimentador , gráfico de roda ):

Previsões

Suponhamos que Doudou durma durante o primeiro minuto do estudo.

Depois de um minuto, podemos prever:

Assim, após um minuto, há 90% de chance de Doudou ainda estar dormindo, 5% de comer e 5% de correr.

Após 2 minutos, há 4,5% de chance de o hamster comer.

De um modo geral, por minutos: e

A teoria mostra que depois de certo tempo, a lei da probabilidade é independente da lei inicial. Vamos observá-lo  :

Obtemos convergência se e somente se a cadeia é aperiódica e irredutível . Este é o caso em nosso exemplo, então podemos escrever:

Sabendo disso , obtemos:

Doudou, portanto, passa 88,4% do tempo dormindo, 4,42% comendo e 7,18% correndo.

Ilustração do impacto do modelo

O exemplo a seguir tem como objetivo mostrar a importância da modelagem do sistema. Uma boa modelagem torna possível responder a questões complexas com cálculos simples.

Estudamos uma civilização (fictícia) composta por várias classes sociais e na qual os indivíduos podem passar de uma classe para outra. Cada etapa representará um ano. Consideraremos uma linhagem em vez de um indivíduo, para evitar a obtenção de cidadãos bicentenários. Existem quatro diferentes status sociais:

Nesta empresa:

Para complicar um pouco o exemplo e assim mostrar a extensão das aplicações das cadeias de Markov, consideraremos que os servidores públicos são eleitos por vários anos. Portanto, o futuro de um funcionário público depende de quanto tempo ele é funcionário público. Estamos, portanto, no caso de uma cadeia de Markov não homogênea. Felizmente, podemos facilmente voltar a uma cadeia homogênea. Na verdade, é suficiente adicionar um estado artificial para cada ano de mandato. Em vez de ter um estado 4: Oficial , teremos um estado:

As probabilidades que conectam dois estados artificiais consecutivos (terceiro e quarto ano, por exemplo) são de valor 1 porque consideramos que qualquer mandato iniciado termina (poderíamos modelar o oposto mudando o valor dessas probabilidades). Fixemos a duração dos mandatos em dois anos, sendo o contingente de funcionários renováveis ​​por meio de cada ano. Temos então o seguinte gráfico:

Para modelar eleições não anuais, também seria necessário adicionar estados fictícios (ano eleitoral, um ano desde a última eleição, etc.).

A matriz é então escrita:

Conforme explicado acima, forneça as probabilidades de transição em estágios. O mesmo ocorre com a probabilidade de ficar no estado depois de anos para uma linhagem que faz parte da classe social . Para saber o que acontece com um escravo depois de anos, basta escrever:

Onde está a probabilidade de estar na classe social depois de anos sabendo que a linha estudada deixou o estado de escravo?

Se sabemos os números de cada classe social no ano 0, basta calcular:

Obtemos assim a distribuição da população nas diferentes classes sociais (no final dos anos). Multiplicando esse vetor pelo tamanho total da população, obtemos o tamanho de cada classe ao final dos anos.

Coloquemo-nos agora a seguinte questão: "No final dos anos, quantas linhas já terá um alto funcionário terminado o seu mandato?" "

A resposta difere do número de mandatos cumpridos em anos porque existe a possibilidade de ser reeleito. Responder a esta pergunta parece difícil (ainda deve ser possível). Na verdade, basta mudar a modelagem do problema. Então, vamos passar para um novo modelo para responder a essa pergunta. (Por outro lado, não responde às questões anteriores, daí a apresentação dos dois modelos.)

Basta modificar o gráfico da seguinte forma:

Adicionamos um tampo absorvente porque, uma vez que uma linha termina um mandato, ela não é mais levada em consideração.

Se alguns leitores forem críticos, eles podem dizer que o modelo está errado porque as filas com uma autoridade eleita não participam mais das eleições. Não é assim. Na verdade, o número de funcionários eleitos é proporcional ao número de cidadãos. A não reinjeção de ex-altos funcionários entre os candidatos, portanto, não altera a probabilidade de um cidadão ser eleito porque, sendo a população de cidadãos menor, o número de cargos oferecidos também o é. Este modelo permite que você responda com precisão à pergunta feita.

Portanto, temos uma nova matriz de transição:

Fazendo os mesmos cálculos das questões anteriores, obtemos na última linha do vetor de solução a percentagem de linhas que cumpriram pelo menos um mandato ou o número (se multiplicarmos pelo número total da população). Em outras palavras, modelar novamente o problema torna possível responder à questão que parecia tão complicada por um simples cálculo de potências de uma matriz.

Formulários

Notas e referências

Veja também

Artigos relacionados

Bibliografia

links externos