Em teoria de probabilidade e estatística , uma lei de probabilidade descreve o comportamento aleatório de um fenômeno dependente do acaso . O estudo dos fenômenos aleatórios começou com o estudo dos jogos de azar . Jogos de dados, lançamento de cédulas e lançamento de moeda eram motivações para compreender e prever experiências aleatórias. Essas primeiras abordagens são fenômenos discretos, isto é, cujo número de resultados possíveis é finito ou no máximo contável . No entanto, certas questões revelaram leis com suporte infinito incontável; por exemplo, quando o número de jogadas ou caudas feitas tende ao infinito, a distribuição de frequências com as quais as caudas aparecem se aproxima de uma lei normal .
Flutuações ou variabilidade estão presentes em quase todos os valores que podem ser medidos ao se observar um fenômeno, independentemente de sua natureza; além disso, quase todas as medições apresentam algum erro intrínseco . As leis da probabilidade tornam possível modelar essas incertezas e descrever fenômenos físicos , biológicos , econômicos , etc. O campo da estatística permite encontrar leis de probabilidades adaptadas a fenômenos aleatórios.
Existem muitas leis de probabilidade diferentes. Dentre todas essas leis, a lei normal tem uma importância particular, uma vez que, de acordo com o teorema do limite central , ela aborda o comportamento assintótico de muitas leis de probabilidade.
O conceito da lei da probabilidade é matematicamente formalizado usando a teoria da medição : uma lei da probabilidade é uma medida , frequentemente vista como a lei que descreve o comportamento de uma variável aleatória , discreta ou contínua. Uma medida é uma lei de probabilidade se sua massa total for igual a 1. O estudo de uma variável aleatória de acordo com uma lei de probabilidade discreta revela cálculos de somas e séries , ao passo que se sua lei for absolutamente contínua, o estudo da variável aleatória revela cálculos de integrais . As funções especiais permitem caracterizar as leis de probabilidade, por exemplo, a função de distribuição e a função característica .
Uma lei de probabilidade descreve teoricamente a aleatoriedade de um experimento considerado aleatório. A noção de “ experiência aleatória ” é lançada para designar um processo real de natureza experimental, onde intervém o acaso, com resultados possíveis claramente identificados. Por exemplo, durante uma jogada de dados (este é o evento aleatório), o resultado é um número de 1 a 6 e é geralmente aceito que cada resultado tem a mesma chance de aparecer; a lei da probabilidade é, portanto: cada um dos 6 dígitos é equiprovável com probabilidade 1/6.
Historicamente, as distribuições de probabilidade foram estudadas em jogos de azar : jogos de dados , jogos de cartas , etc. Os resultados possíveis desses fenômenos são finitos, a lei da probabilidade é dita discreta. Fornecer a lei da probabilidade equivale a fornecer a lista de valores possíveis com suas probabilidades associadas. Ele é então fornecido na forma de uma fórmula, uma tabela de valores, uma árvore de probabilidade ou funções (que serão detalhadas nas seções seguintes).
Em um contexto mais geral, ou seja, no caso em que o número de valores possíveis do fenômeno aleatório não é finito, mas infinito ( contável ou não), a lei da probabilidade sempre descreve a distribuição das chances de resultados possíveis mas é caracterizado por funções ( densidade de probabilidade e função de distribuição , entre outras) ou mais geralmente por medidas .
O uso do azar existe desde a Antiguidade em particular nos jogos de azar , apostando nos riscos do transporte marítimo ou anuidades . No entanto, uma primeira conhecidas referências aos cálculos de probabilidade é um simples cálculo da Divina Comédia , que aparece apenas em XV th século durante o Renascimento . Os primeiros tratados constituem o início da teoria das probabilidades , principalmente com base em probabilidades combinatórias. Os problemas surgem da seguinte forma, no que diz respeito à duração de um baralho de cartas:
“Sobre a duração dos jogos que jogamos desistindo ... Perguntamos quanto há para apostar que o jogo que pode durar indefinidamente será finalizado em um determinado número de jogadas no máximo. "
- Ensaio , de Montmort , 1713
Reconhecemos aqui a probabilidade ( "apostar" ) de que uma variável ( "a duração do jogo" ) seja menor que um valor ( "determinado número determinado" ), esta é a função de distribuição da lei da probabilidade da duração de um jogo.
É na tese de Nicolas Bernoulli , publicada em 1711, que a lei uniforme aparece pela primeira vez . Algumas outras leis então aparecem como a lei binomial ou a lei normal , mesmo que suas abordagens não sejam completamente rigorosas. Por exemplo, a lei normal é construída por Abraham de Moivre graças à curva gaussiana por uma aproximação numérica . No XVIII th século, outras ideias relacionadas com as leis da probabilidade também estão emergindo como a expectativa de uma variável aleatória discreta com Jean le Rond d'Alembert ou probabilidades condicionais com Thomas Bayes . Algumas leis de probabilidades contínuas são declaradas em um livro de memórias de Joseph-Louis Lagrange em 1770.
O uso rigoroso das leis de probabilidade desenvolve a partir do XIX ° século em ciências aplicadas, como a biometria com Karl Pearson ou física estatística com Ludwig Boltzmann .
A definição formal de medidas de probabilidade começou em 1896 com uma publicação de Émile Borel e continuou com vários outros matemáticos, como Henri-Léon Lebesgue , René Maurice Fréchet , Paul Lévy e em particular Andreï Kolmogorov que formulou os axiomas de probabilidades em 1933.
Na teoria da probabilidade , uma lei da probabilidade é uma medida cuja massa total é 1. Em particular, essa medida satisfaz os três axiomas das probabilidades .
Definição - Para um espaço mensurável , é uma lei de probabilidade , uma medida de probabilidade ou mais simplesmente probabilidade se:
O trio é chamado de espaço de probabilidade . Uma lei de probabilidade também é chamada de distribuição de probabilidade para um estudo mais aplicado.
Uma maneira habitual de expressar uma lei é a utilização de uma variável aleatória uma vez que, para qualquer lei probabilidade de , existe uma variável aleatória definida em um espaço de probabilidade (potencialmente diferente ) e lei . As leis mais comumente estudadas na teoria da probabilidade são as leis de valor real; eles podem ser representados usando uma variável real aleatória pela seguinte definição.
Definição - seja uma variável real aleatória no espaço de probabilidade , ou seja, uma função mensurável .
A lei de probabilidade da variável aleatória é a medida de probabilidade, denotada , definida no espaço mensurável por:
para qualquer Boreliano real . Em outras palavras, é a medida da imagem por .
Assim, para definir a lei de uma variável aleatória, transportamos a lei da probabilidade on para uma medida on .
A representação de uma lei por uma variável aleatória não é única. Em outras palavras, duas variáveis aleatórias diferentes, ou mesmo definidas em espaços diferentes, podem ter a mesma lei. Duas variáveis aleatórias reais e têm a mesma lei se (em termos de igualdade de medidas). Quer dizer: para tudo . O seguinte teorema permite usar outra caracterização:
Teorema de transferência (ou transporte) - Seja uma variável real aleatória . Então :
para qualquer função tal que pelo menos uma das duas integrais tenha um significado.
A integral que aparece no último termo é a integral, no sentido da teoria da medição , da função com respeito à medição . Essa integral assume a forma de uma soma no caso de leis discretas .
Assim, duas variáveis aleatórias reais e têm a mesma lei se: para qualquer função tal que pelo menos um dos dois termos da igualdade tem um significado.
Esse resultado é chamado de " lei do estatístico inconsciente (en) " em inglês.
Intuitivamente, uma lei de probabilidade é considerada multidimensional, ou n-dimensional , quando a lei descreve vários valores (aleatórios) de um fenômeno aleatório. Por exemplo, ao lançar dois dados, a lei da probabilidade dos dois resultados obtidos é uma lei bidimensional. O caráter multidimensional surge assim durante a transferência, por uma variável aleatória, do espaço probabilizado para um espaço numérico de dimensão n . No exemplo dos dois dados, a dimensão é n = 2 e o espaço é . A lei também é chamada de lei solidária .
Um exemplo importante de uma lei multidimensional é a lei da probabilidade do produto, onde e são duas leis unidimensionais. Esta lei de probabilidade é a lei de um par de variáveis aleatórias independentes , é o caso do exemplo dos dois dados.
Definição - Let Ser uma variável aleatória no espaço probabilizado , com valores em muni da real tribo Borelian produzida . A lei da variável aleatória é a medida de probabilidade definida por para todos :
A variável aleatória é então identificada em um vetor aleatório para n dimensões . O teorema de Cramer-Wold garante que a lei ( n- dimensional) desse vetor aleatório é inteiramente determinada pelas leis (unidimensionais) de todas as combinações lineares desses componentes: para todos .
Caso de uma lei absolutamente contínuaUma lei bidimensional (ou n- dimensional) é considerada absolutamente contínua em se a lei for absolutamente contínua em relação à medida de Lebesgue em , ou seja, se a lei da variável aleatória correspondente for escrita na forma:
para tudo Leis marginaisIntuitivamente, a lei marginal de um vetor aleatório é a lei da probabilidade de um de seus componentes. Para obtê-lo, projeta-se a lei no espaço unidimensional da coordenada procurada. A lei de probabilidade da i- ésima coordenada de um vetor aleatório é chamada de i- ésima lei marginal . A lei marginal de é obtida pela fórmula:
para tudo .As leis marginais de uma lei absolutamente contínua são expressas usando suas densidades marginais .
Intuitivamente, uma lei de probabilidade condicional torna possível descrever o comportamento aleatório de um fenômeno quando temos informações sobre esse processo. Em outras palavras, a probabilidade condicional permite avaliar o grau de dependência estocástica entre dois eventos. Por exemplo, durante um lançamento de dados, a lei condicional permite dar a lei da soma dos resultados sabendo que um dos dois dados deu um resultado de pelo menos quatro.
Definição de eventosA probabilidade condicional é definida, mais intuitivamente em eventos pela probabilidade de um evento Um condicional em um outro evento B . Para todos os A e B da tribo subjacente, como :
A lei da probabilidade é usada em probabilidade elementar e estatística , para a fórmula de probabilidade total ou o teorema de Bayes, por exemplo.
Definição para variáveis aleatóriasA probabilidade condicional também é definida para as variáveis aleatórias . Em seguida, estudar a lei de uma variável X condicionalmente a uma variável Y . Quando , a lei de X sabendo Y = y é definida por:
No entanto, esta definição não é válida se a lei de Y for absolutamente contínua , pois , para todo y . A seguinte definição é válida para qualquer par de variáveis aleatórias.
Definição - sejam algumas variáveis aleatórias reais . Existe uma lei da probabilidade , chamada lei condicional de saber , ou saber , definida por, para qualquer função boreliana limitada :
, quase com certeza .A lei também é observada ou . A igualdade precedente é uma igualdade entre variáveis aleatórias.
Definição para tribosDe maneira mais geral, a lei da probabilidade é definida a partir da expectativa condicional de uma variável aleatória X que conhece uma tribo . Essa expectativa condicional é a única variável aleatória - mensurável , anotada e verificadora: para qualquer Z , variável -mensurável. A lei condicional é então definida por:
onde está a função do indicador . Definição de leis absolutamente contínuasNo caso de leis absolutamente contínuas , existe uma densidade condicional de uma lei em relação à outra e vice-versa. Se for a densidade da lei bidimensional, as duas densidades condicionais são dadas por:
e .Aqui, e estão as duas leis marginais de X e Y, respectivamente. Substituindo as integrais por somas, obtemos fórmulas semelhantes no caso em que as leis marginais são discretas ou quando a lei marginal de X é discreta e a de Y é absolutamente contínua, ou vice-versa.
Como é um espaço de Banach , as leis de valor em um espaço de Banach generalizam as leis de valor real. A definição é então semelhante.
Definição - Let Ser uma variável aleatória no espaço probabilizado e com valores em um espaço de Banach dotado da tribo gerada pelos conjuntos abertos de . A lei da probabilidade da variável aleatória é a medida de probabilidade definida no espaço mensurável por:
para tudo .
Para obter boas propriedades, é comum considerar medidas de probabilidade restritas , ou seja, que intuitivamente se concentram em um conjunto compacto , e assumir que o espaço de Banach é separável .
Um possível exemplo de um espaço de Banach é o espaço de funções contínuas . Um processo estocástico é uma família de variáveis aleatórias indexados por um conjunto de índices T . Uma definição possível da lei de probabilidade de tal processo é o dado de leis de dimensão finita , ou seja, a lei de probabilidade multidimensional de vetores quando . A lei pode então ser estendida pelo teorema de extensão de Carathéodory para todo o processo. Tomemos o exemplo do movimento browniano que tem trajetórias contínuas, sua lei de probabilidade é a medida de Wiener , geralmente denotada por W :
, para qualquer subconjunto A de .Uma lei de probabilidade é uma medida da massa total unitária. O conjunto de leis de probabilidade é, portanto, um subespaço do espaço de medidas finitas . Este espaço é freqüentemente observado ou para as leis de probabilidade real. No restante desta seção, as propriedades desse espaço são detalhadas para as leis de probabilidade real; no entanto, eles são verdadeiros em espaços de Banach.
Podemos fornecer a esse espaço uma topologia chamada topologia fraca. Esta topologia, portanto, define uma convergência fraca das leis de probabilidade: uma série de leis de probabilidade converge fracamente para uma lei de probabilidade se:
para qualquer função limitada contínua .Convergência é indicado: . Essa convergência é refletida, pelo teorema da transferência, nas variáveis aleatórias das respectivas leis ; a convergência de variáveis aleatórias é então chamada de convergência na lei (ou na distribuição ou fraca ) e é anotada ou . Se a convergência fraca de variáveis aleatórias é freqüentemente usada, na verdade ela diz respeito apenas à sua lei.
O espaço das leis das probabilidades fornecido com esta topologia fraca é um espaço métrico , completo e separável (no caso de um espaço de Banach também separável), o que o torna um espaço polonês .
Certas leis são agrupadas por família com respeito a certas propriedades de sua densidade ou função de massa, ou de acordo com o número de parâmetros que as definem, são chamadas de família paramétrica de leis de probabilidade .
ConfiguraçõesOs chamados parâmetros posicionais influenciam a tendência central da lei da probabilidade, ou seja, o valor ou valores em torno dos quais a lei assume seus maiores valores. A expectativa , a mediana , o modo , os diferentes quantis ou decis são exemplos.
Os chamados parâmetros de escala influenciam a dispersão ou “achatamento” da lei da probabilidade. A variância (ou o momento de segunda ordem), o desvio padrão e o intervalo interquartil são exemplos.
Os chamados parâmetros de forma são os outros parâmetros vinculados às leis de probabilidade. A cauda ou cauda de uma lei de probabilidade real faz parte de sua forma. As caudas esquerda e direita são intervalos do tipo e, respectivamente . Diz - se que uma lei de probabilidade tem cauda pesada se a medida de probabilidade da cauda tende menos rapidamente para 0, para x indo para o infinito, do que a lei normal . Em particular, qualquer lei absolutamente contínua, centrada e reduzida cuja densidade verifica:
é uma lei com caudas direita e esquerda pesadas . A assimetria (ou tempo de ordem três) é um exemplo de parâmetro, permite fazer com que a cauda direita fique mais ou menos pesada. A curtose (ou momento de ordem quatro) permite favorecer ou prejudicar os valores próximos à média daqueles que estão longe dela. Uma lei de probabilidade é considerada mesocúrtica , leptocúrtica ou platicúrtica se sua curtose for zero, positiva ou negativa.
Famílias de leisDiz-se que uma lei é da família exponencial com um parâmetro se sua densidade de probabilidade ou sua função de massa depende apenas de um parâmetro e tem a forma:
Esta família inclui muitas leis clássicas: distribuição normal , distribuição exponencial , distribuição gama , distribuição qui-quadrado , distribuição beta , Bernoulli , Poisson , etc.
Diz-se que uma lei é da família do poder com dois parâmetros e se sua densidade é da forma:
Lei direcionalQuando uma lei de probabilidade multidimensional representa a direção aleatória de um fenômeno, é chamada de lei direcional . É então a lei de um vetor aleatório unitário d- dimensional onde ou, de maneira equivalente, é uma lei de probabilidade na esfera d- dimensional . Uma lei direcional d- dimensional pode então ser representada por um vetor ( d-1- dimensional) em coordenadas polares . As leis de von Mises e Bingham são exemplos disso.
Se existir, o enésimo momento de uma lei de probabilidade é definido por:
.Esta fórmula é escrita de forma mais simples no caso em que a lei é definida a partir da variável aleatória .
O primeiro momento, ou momento de ordem 1, também é chamado de esperança da lei; quando esse momento é zero, diz-se que a lei está centrada . O segundo momento de uma distribuição centralizada também é chamado de variância da distribuição; quando este momento é igual a um, diz-se que a lei é reduzida .
De modo geral, a coleta de todos os momentos de uma lei de probabilidade não é suficiente para caracterizar esta última. Certas leis são definidas por um número finito de seu momento: a lei de Poisson é completamente definida por sua expectativa; a lei normal é completamente definida por seus dois primeiros momentos. Algumas leis não têm momentos, é o caso da lei de Cauchy .
As leis da probabilidade tornam possível representar fenômenos aleatórios. A entropia de Shannon de uma lei de probabilidade foi introduzida na termodinâmica para quantificar o estado de desordem molecular de um sistema. O objetivo é medir a falta de informação da lei da probabilidade por uma função. A entropia foi primeiro definida para leis discretas e depois estendida para leis absolutamente contínuas. Para uma lei discreta e uma lei de densidade , a entropia H é definida respectivamente por:
e .O estado de entropia máxima é o estado mais desordenado, mais estável e mais provável de um sistema. Essas leis são, portanto, a menos preventiva de todas as leis compatíveis com as observações ou restrições e, portanto, as únicas admissíveis objetivamente como distribuições de probabilidade a priori . Esta propriedade desempenha um grande papel nos métodos bayesianos .
As leis de probabilidade mais comuns em aplicações são as chamadas leis discretas e as chamadas leis absolutamente contínuas . No entanto, existem leis de probabilidade que não são discretas nem absolutamente contínuas.
Uma lei de probabilidade é concentrada ou transportada para um conjunto quando . Uma lei de probabilidade é considerada discreta se houver um conjunto finito ou contável no qual ela está concentrada.
O elemento é chamado de átomo de uma lei de probabilidade quando e . O conjunto de átomos de uma lei de probabilidade é finito ou contável . De maneira mais geral, essa propriedade é válida para qualquer medida σ -finita . Para uma lei de probabilidade real, o conjunto de átomos é exatamente o conjunto de pontos de descontinuidade de sua função de distribuição; neste caso, a finitude do conjunto de átomos é determinada pelo fato de que a função de distribuição é limitada.
Um critério suficiente para que uma lei seja discreta é que ela seja finita ou contável.
Se for discreto, concentra-se em particular no conjunto (finito ou contável) de seus átomos . Para defini- lo, portanto, basta definir o conjunto de pares: onde está a função massa de . Assim obtemos:
onde está a medida de Dirac no ponto .
No caso em que a lei da probabilidade é definida a partir de uma variável aleatória, as noções anteriores são usadas para a variável aleatória: uma variável aleatória está concentrada em um conjunto , respectivamente é discreta se sua lei está concentrada em , respectivamente é discreta. Da mesma forma Os átomos de são os átomos de .
Para uma variável aleatória discreta , o teorema de transferência é expresso na forma de somas (ou séries ):
, para qualquer função , , para tudo .Geralmente, a função de distribuição de uma lei discreta é constante por partes. Uma lei discreta pode ser representada por um gráfico de barras .
ExemplosAqui está uma lista não exaustiva de leis de probabilidade discretas com suporte finito ou contável.
Medida de diracA medida de Dirac é a mais simples das leis discretas no sentido de que o suporte da lei contém apenas um valor. Se uma variável aleatória tem a lei de Dirac , então vale com uma probabilidade igual a 1. Essa lei modela um fenômeno determinístico (não aleatório), uma vez que o resultado do experimento é (quase com certeza) igual ao valor conhecido .
Lei Discreta UniformeA lei uniforme discreta modela um fenômeno aleatório cujos resultados são igualmente prováveis. É o caso, por exemplo, de um lançamento de dados. Se o suporte da lei é o elemento definido , então esta lei é definida por:
Lei de bernoulliA lei de Bernoulli corresponde a um experimento com dois resultados (sucesso - falha), geralmente codificados respectivamente pelos valores 1 e 0. Esta lei depende de um parâmetro que mede a probabilidade de sucesso e é definida por:
Lei binomialÉ a lei do número de sucessos obtidos ao final de testes independentes de Bernoulli de parâmetro , ou seja, é a lei da soma de variáveis aleatórias independentes da lei de Bernoulli de mesmo parâmetro. Esta lei com suporte finito é definida por:
para tudo .
Distribuição aritméticaÉ uma distribuição focada em um conjunto do tipo where .
Lei geométricaÉ a lei que modela o tempo de espera para o primeiro sucesso em uma série de testes de Bernoulli independentes com probabilidade de sucesso . É a única lei discreta a possuir a propriedade de perda de memória . Esta lei com suporte infinito contável é definida por:
para tudo .
Lei de PoissonA lei de Poisson é a lei que descreve o comportamento do número de eventos que ocorrem em um período de tempo fixo. Esta lei com suporte infinito contável depende de um parâmetro e é definida por:
para tudo .
Lei hipergeométricaA lei hipergeométrica descreve o número de bolas vencedoras extraídas durante um sorteio simultâneo de bolas em uma urna contendo bolas vencedoras e bolas perdedoras. Esta lei de suporte finito depende de três parâmetros , e , e é definida por:
para tudo .
Uma lei de probabilidade real é dita absolutamente contínua ou com densidade quando é absolutamente contínua em relação à medida de Lebesgue .
Se for absolutamente contínuo, então em virtude do teorema Radon-Nikodym , tem uma densidade de probabilidade em relação à medida de Lebesgue, isto é, existe uma função mensurável positiva única (igual a Lebesgue- quase em todos os lugares perto) positiva tal que para tudo :
onde está a função característica do Boreliano . Essa densidade de probabilidade nem sempre tem uma expressão analítica (veja os exemplos abaixo).
Quando uma lei de probabilidade absolutamente contínua é definida a partir de uma variável aleatória , a variável aleatória é dita como absolutamente contínua ou densidade e a densidade da lei também é chamada de densidade de , às vezes é denotada .
Para uma variável aleatória absolutamente contínua , o teorema de transferência é escrito usando uma integral de Lebesgue , para qualquer função integrável com relação a :
.A função de distribuição de uma lei absolutamente contínua é localmente absolutamente contínua , é uma propriedade necessária e suficiente . Uma lei absolutamente contínua não tem átomo . No entanto, essa propriedade, que opõe leis absolutamente contínuas a leis discretas, não é característica de leis absolutamente contínuas , mas de leis contínuas (ver a seção Leis singulares abaixo).
As leis absolutamente contínuas são às vezes chamadas de leis mais simplesmente contínuas. Isso é um abuso de linguagem devido ao fato de que na maioria das aplicações em estatística, as leis contínuas são absolutamente contínuas, mas isso não é verdade no caso geral.
Exemplos Lei UniformeA lei uniforme sobre um intervalo indica, intuitivamente, que todos os valores do intervalo têm as mesmas chances de aparecer. Mais formalmente, cada subintervalo tem uma probabilidade igual à medida de Lebesgue de (multiplicada por uma constante) de ocorrer. A lei uniforme depende apenas do intervalo, seu suporte é compacto e sua densidade é dada por:
para . de outra forma.Lei exponencialA lei exponencial é a lei comumente usada para modelar o tempo de vida de um fenômeno, uma vez que é a única lei absolutamente contínua com a propriedade de perda de memória . Nesse sentido, é o análogo contínuo da lei geométrica . Esta lei com suporte semi-infinito depende apenas de um parâmetro (às vezes chamado de intensidade), sua densidade é dada por, para tudo :
.Lei normalA lei normal, ou lei de Gauss, é uma lei central na teoria da probabilidade e estatística. Ele descreve o comportamento de uma série de experimentos aleatórios quando o número de tentativas é muito grande. É a lei do limite no teorema do limite central , é também a única lei estável do parâmetro 2. A lei normal é caracterizada por sua média (que também é sua mediana ) e por seu desvio padrão, seu suporte é o direito real. Sua densidade é simétrica e sua forma é comumente chamada de curva Gaussiana ou curva em sino:
.Lei de CauchyA lei de Cauchy é a lei estável do parâmetro 1, que lhe confere boas propriedades. No entanto, é um exemplo típico de uma lei que não admite momentos, em particular nem média, nem variância. Seu suporte é a linha real e sua densidade é simétrica e definida por:
.A lei da posição de um movimento browniano plano quando atinge a linha é uma lei de Cauchy.
Lei de Tukey-lambdaA lei de Tukey-lambda é uma lei absolutamente contínua, portanto, tem uma densidade de probabilidade, mas a última não tem expressão analítica. Essa lei depende de um parâmetro, seu suporte é um intervalo limitado centrado na origem ou a linha real (dependendo do parâmetro). A lei de Tuckey-lambda é definida a partir de sua função de quantil (consulte a seção Outras caracterizações abaixo):
.Uma lei de probabilidade é considerada contínua ou difusa quando não possui um átomo.
Em particular, as leis absolutamente contínuas são contínuas, mas o inverso não é verdadeiro. A função de distribuição de uma lei de probabilidade real contínua é contínua, é uma propriedade necessária e suficiente .
Uma lei de probabilidade é considerada singular quando é contínua, mas não absolutamente contínua. Isso quer dizer que uma lei singular não tem átomo nem densidade.
Essas noções também são ditas para as leis de probabilidade definidas a partir de variáveis aleatórias: uma variável aleatória é contínua (ou difusa ), respectivamente singular , quando sua lei de probabilidade associada é contínua (ou difusa), respectivamente singular.
ExemploÉ uma lei singular. Ela é definida a partir do conjunto de Cantor : . Quando são variáveis independentes e identicamente distribuídas de distribuição discreta uniforme sobre , então
é uma variável aleatória da lei de Cantor. Esta lei da probabilidade está escrita na forma , é a lei uniforme no conjunto de Cantor. Sua função de distribuição é a escada Cantor , ela pode ser derivada em quase todos os lugares e com derivação zero em quase todos os lugares.
Em aplicações, é raro que leis contínuas contenham uma parte singular. O conjunto Cantor aparece, entretanto, em alguns exemplos bem conhecidos: o conjunto de zeros no movimento browniano é um conjunto do tipo Cantor.
Existem leis de probabilidade que não são discretas, nem absolutamente contínuas, nem singulares; às vezes, são chamadas de leis mistas .
De um ponto de vista mais geral, qualquer lei de probabilidade pode ser decomposta em uma combinação linear de uma lei contínua e uma lei discreta . Além disso, o teorema da decomposição de Lebesgue aplicado a indica que esta lei contínua se decompõe em uma combinação linear de duas leis contínuas, uma é absolutamente contínua em relação à medida de Lebesgue e a outra é singular, estranha à medida de Lebesgue. A decomposição é, portanto, escrita:
com e . A presença de garante isso .
A seguinte lei de probabilidade real é um exemplo de lei mista obtida pela mistura de uma lei discreta, definida por seus átomos e sua função de massa , com uma lei de densidade absolutamente contínua :
onde . Sua função de distribuição é uma função contínua por partes , mas não constante por partes , o que é o caso com as funções de distribuição de leis discretas.
Intuitivamente, isso corresponde a um fenômeno aleatório cuja lei é absolutamente contínua. No entanto, o dispositivo de medição só pode medir os dados acima de um certo limite c . Todas as medições não detectadas pelo dispositivo serão atribuídas a 0, então a lei é zero em qualquer parte "menor" do que c, enquanto um salto aparece no singleton c . As medições seguem a lei absolutamente contínua para valores maiores que c . Neste exemplo, a função de distribuição é descontínua em c .
Existem várias funções com variáveis reais ou complexas que determinam exclusivamente as leis da probabilidade. As propriedades de algumas dessas funções tornam possível deduzir propriedades para leis como o cálculo de momentos ou uma expressão de convergência em lei.
De acordo com o lema de classe monotônico , os conjuntos , chamados de paralelepípedos ou retângulos , geram a verdadeira tribo Boreliana , bastando então definir uma lei de probabilidade sobre os paralelepípedos. Supõe-se que a lei da probabilidade é real, ou seja .
A função de distribuição de uma lei de probabilidade real, denotada por , é a função definida por, para todos :
Uma lei de probabilidade é caracterizada por sua função de distribuição, ou seja, duas leis de probabilidade são iguais se e somente se suas funções de distribuição são iguais.
De modo mais geral, qualquer função crescente , contínua e satisfatória: e é a função de distribuição de um único ato de probabilidade . A lei de probabilidade definida a partir de uma função de distribuição é chamada de medida de Lebesgue-Stieltjes .
Uma das vantagens da função é que ela é bem definida para qualquer distribuição de probabilidade. No entanto, nem sempre tem uma expressão explícita, a exemplo da função de distribuição da distribuição normal . A função de distribuição às vezes permite cálculos fáceis de leis (lei do máximo ou mínimo de uma amostra, por exemplo) e fornece um critério conveniente de convergência das leis de probabilidades por meio do teorema do cabide .
Chamamos uma função característica de uma lei de probabilidade e denotamos a “simetria” da transformada de Fourier de . Para tudo :
De acordo com a definição da transformada de Fourier , a função característica é se ela é simétrica ou não. Como o nome sugere, a função característica determina exclusivamente a lei, ou seja, duas leis de probabilidade são iguais se e somente se suas funções características forem iguais.
Uma das vantagens da função característica é que ela existe para qualquer lei de probabilidade. Além disso, usando a fórmula de inversão da transformada de Fourier , a lei da probabilidade é obtida a partir da função característica. A representação das leis pela função característica também permite caracterizar a convergência das leis de probabilidade por meio do teorema do cabide .
No caso em que a lei da probabilidade é definida a partir de uma variável aleatória , de acordo com o teorema de transferência, para todos :
A função geradora dos momentos de uma lei de probabilidade , notada , é a “simetria” da transformada de Laplace de . Quando a função pode ser integrada em relação à medição , para todos :
A função geradora de momento determina exclusivamente a lei da probabilidade se essa função existir em um intervalo contendo a origem.
Uma das vantagens desta função geradora de momentos é que ela permite encontrar os momentos da lei de probabilidade pelas derivadas . Para tudo , a -ésima derivada da função que gera momentos em 0 é o momento de ordem da lei de probabilidade:
.A representação das leis pela função geradora dos momentos também permite caracterizar a convergência das leis de probabilidades por meio do teorema do cabide .
No caso em que a lei da probabilidade é definida a partir de uma variável aleatória , de acordo com o teorema de transferência, para todos :
.Além disso, para leis definidas a partir de variáveis aleatórias, esta função permite facilmente mostrar a independência das variáveis.
Existe um caso especial para leis discretas. A função geradora das probabilidades de uma distribuição de probabilidade discreta é definida como a esperança de geração de séries : sujeito da existência nesta série. Esta função geradora determina a lei da probabilidade de uma maneira única.
A função quantil de uma lei de probabilidade real , denotada , é a função que fornece os quantis da lei. É definido por, para tudo :
onde está a função de distribuição de .
Algumas leis de probabilidade são mais fáceis de definir, por meio de sua função de quantil. Intuitivamente, é o valor tal que uma proporção dos valores possíveis da lei é menor do que ele. , E , respectivamente, são o 1 st quartil , a mediana ea 3 ª lei quartil.
Se é bicontinua em seguida, é a função inversa da função de distribuição: ; é por isso que, no caso geral, também chamamos a função quantílica recíproca generalizada de ou função inversa contínua à direita de .
Esta função quantílica determina a distribuição associada no sentido de que, se é uma variável aleatória com distribuição uniforme contínua em [0, 1], então é uma variável aleatória com distribuição inicial. Esta representação é particularmente útil para simular leis de probabilidade, uma vez que é suficiente simular uma lei uniforme contínua e aplicar a função de quantil a ela (veja a seção abaixo sobre simulação de leis de probabilidade).
Algumas leis não têm função de distribuição explícita, mas são definidas a partir de sua função de quantil, é o caso da lei de Tukey-lambda .
A distribuição estatística de uma variável dentro de uma população costuma estar próxima dos modelos matemáticos das leis da probabilidade. Muitas vezes é interessante, por razões teóricas e práticas, estudar o modelo probabilístico, conhecido como teórico. O estudo então começa com uma seleção aleatória de várias ações ou indivíduos. Se o método utilizado for perfeito, ou seja, esses valores observados provêm de uma seleção equiprovável , então são variáveis aleatórias e o estudo do fenômeno equivale a estudar a lei da probabilidade.
Para estudar as leis da probabilidade, é importante ser capaz de simulá-las, isso se deve em particular ao uso da informática nas ciências. Conforme indicado acima, as leis de probabilidade são caracterizadas pela função de quantil por meio de uma variável aleatória de lei uniforme contínua . Este método geral compreende duas etapas: a geração dos chamados valores pseudo-aleatórios da lei uniforme e a inversão da função de distribuição da lei estudada. Esta segunda etapa não é fácil de realizar para todas as leis, outros métodos são usados.
“Qualquer um que considere os métodos aritméticos para produzir números aleatórios está, é claro, cometendo um pecado. " |
Para obter valores de acordo com a lei uniforme contínua , o computador simula valores da lei uniforme discreta . Vários métodos foram usados: o uso de tabelas de dados que poderiam conter mais de um milhão deles é cada vez menos usado; o uso de processos físicos como a criação de ruído eletrônico é bastante caro para recuperação de dados; o método mais simples é usar algoritmos aritméticos. Sendo esses algoritmos determinísticos (não aleatórios), os valores obtidos são chamados de pseudo-aleatórios . Muitos algoritmos foram criados para melhorar a independência entre os valores e sua distribuição no intervalo .
Simulação de outras leisQuando a função de distribuição é invertível, a caracterização pela função de quantil é usada. Alguns exemplos de casos em que esta função não é reversível: o Box-Muller simula a lei normal , o método de rejeição de von Neumann é baseado em um teste estatístico e é aplicável a uma série de leis, existem outros métodos específicos de lei.
ExemploUm exemplo conhecido de uso de simulação de lei de probabilidade é o método de Monte-Carlo , por exemplo, para aproximar o valor de π . O método consiste em simular um grande número de valores de acordo com uma lei uniforme contínuo sobre e na contagem da proporção dos pares deles que verificam . Essa proporção se aproxima quando o número de pontos tende para o infinito.
Existem várias aproximações de uma lei de probabilidade usando as diferentes caracterizações detalhadas acima. Essas são geralmente as técnicas usadas em casos práticos. A primeira etapa é a coleta de dados, o que possibilita a construção de objetos empíricos como a função de distribuição empírica . Algumas vezes são chamadas, por abuso de linguagem, de leis da probabilidade, mas na verdade são leis empíricas chamadas de distribuições estatísticas . Teoremas de limite ou testes estatísticos finalmente permitem identificar a melhor lei de probabilidade que modela o fenômeno aleatório inicial.
“As probabilidades devem ser consideradas análogas à medição das magnitudes físicas, ou seja, nunca podem ser conhecidas com exatidão, mas apenas com uma certa aproximação. "
Pela função de distribuiçãoO teste estatístico de Kolmogorov-Smirnov , baseado no teorema do cabide , identifica a função de distribuição empírica calculada a partir dos dados para uma função de distribuição de uma lei de probabilidade, em função de uma taxa de rejeição. A vantagem da convergência das funções de distribuição é que essas funções existem para todas as leis de probabilidade. Essa convergência torna possível, em particular, abordar uma lei absolutamente contínua por uma série de leis discretas.
Convergência de outras funções característicasDiferentes teoremas de convergência de variáveis aleatórias tornam possível construir uma série de leis de probabilidade que convergem para uma dada lei ou, inversamente, construir uma lei como limite de leis de probabilidade. O teorema do limite central diz respeito à lei normal para a lei do limite. O teorema de continuidade Paul Lévy sobre a convergência de funções características.
Regressão de quantilA regressão quantílica pode se aproximar do quantil da lei pelo quantil empírico, ou seja, derivado de quaisquer dados. Um teste estatístico pode ser usado para comparar os quantis empíricos (observados) com os quantis da lei que supostamente modelará o fenômeno.
Essa abordagem é particularmente útil para estudar certas leis que não são conhecidas explicitamente por sua densidade ou função de distribuição, mas por seus quantis, como a lei de Tukey-lambda .
Testes estatísticosExistem vários testes estatísticos para comparar duas leis. Mais precisamente, os testes de adequação permitem comparar uma lei empírica (isto é, calculada a partir dos dados obtidos nas amostras) com uma chamada lei de probabilidade a priori que se supõe modelar o fenômeno estudado. Os dois testes principais são: o teste de Kolmogorov-Smirnov mencionado acima que compara as funções de distribuição e o teste χ² de goodness-of-fit que compara os números observados com uma lei do χ² . Entre esses testes, aqueles que dizem respeito à distribuição normal são chamados de testes de normalidade .
Os testes de homogeneidade permitem comparar duas leis empíricas para saber se resultam do mesmo fenômeno ou, de forma equivalente, se podem ser modeladas pela mesma lei de probabilidade a priori . Esses testes comparam certas propriedades das leis empíricas com as propriedades da lei anterior . Eles são úteis na prática, pois permitem comparar não distribuições inteiras, mas valores resultantes das leis: o teste de Fisher estima a razão das variâncias empíricas por meio da lei de Fisher , o teste de Student estima a média empírica por meio da lei de Student , etc.
As leis da probabilidade são usadas para representar os fenômenos observados. Uma lei de probabilidade, chamada a priori , deve modelar os dados recuperados, testes estatísticos são então realizados para afirmar ou invalidar a concordância da lei de probabilidade com os dados. Em muitas áreas, os métodos evoluíram e melhores leis de probabilidade foram criadas para corresponder melhor ao problema proposto. Aqui está uma lista de exemplos concretos que oferecem modelos: