Lei de Poisson
Lei de Poisson
|
|
Função de massa As funções de massa são definidas apenas para inteiros k .
|
Função de distribuição
|
|
Definições
|
λ∈]0,+∞[{\ displaystyle \ lambda \ in {}] 0, + \ infty [} |
---|
Apoiar
|
NÃO{\ displaystyle \ mathbb {N}}
|
---|
Função de massa
|
e-λλkk!{\ displaystyle {\ frac {\ mathrm {e} ^ {- \ lambda} \ lambda ^ {k}} {k!}} \!}
|
---|
Função de distribuição
|
Γ(⌊k+1⌋,λ)⌊k⌋! para k≥0{\ displaystyle {\ frac {\ Gamma (\ lfloor k + 1 \ rfloor, \ lambda)} {\ lfloor k \ rfloor!}} \! {\ text {for}} k \ geq 0}
(onde é a função gama incompleta ) e onde é a parte inteira padrão de xΓ(x,y){\ displaystyle \ Gamma (x, y)}⌊x⌋{\ displaystyle \ lfloor x \ rfloor}
|
---|
Ter esperança
|
λ{\ displaystyle \ lambda \,}
|
---|
Mediana
|
cerca de ⌊λ+1/3-0,02/λ⌋{\ displaystyle {\ text {aproximadamente}} \ lfloor \ lambda + 1 / 3-0.02 / \ lambda \ rfloor}
|
---|
Moda
|
⌊λ⌋{\ displaystyle \ lfloor \ lambda \ rfloor}se for um real não inteiro,
λ{\ displaystyle \ lambda} λ{\ displaystyle \ lambda}e se é um inteiro
λ-1{\ displaystyle \ lambda -1}λ{\ displaystyle \ lambda}
|
---|
Variância
|
λ{\ displaystyle \ lambda \,}
|
---|
Assimetria
|
λ-1/2{\ displaystyle \ lambda ^ {- 1/2} \,}
|
---|
Curtose normalizada
|
λ-1{\ displaystyle \ lambda ^ {- 1} \,}
|
---|
Entropia
|
λ[1-registro(λ)]+e-λ∑k=0∞λkregistro(k!)k!.{\ displaystyle \ lambda [1 \! - \! \ log (\ lambda)] \! + \! \ mathrm {e} ^ {- \ lambda} \ sum _ {k = 0} ^ {\ infty} {\ frac {\ lambda ^ {k} \ log (k!)} {k!}}.}
Para grande:
λ{\ displaystyle \ lambda}
12registro(2πeλ)-112λ-124λ2-19360λ3+O(1λ4){\ displaystyle \ scriptstyle {\ frac {1} {2}} \ log (2 \ pi \ mathrm {e} \ lambda) - {\ frac {1} {12 \ lambda}} - {\ frac {1} { 24 \ lambda ^ {2}}} - {\ frac {19} {360 \ lambda ^ {3}}} + O \ left ({\ frac {1} {\ lambda ^ {4}}} \ right)}
|
---|
Função geradora de momento
|
exp(λ(et-1)){\ displaystyle \ exp (\ lambda (e ^ {t} -1))}
|
---|
Função característica
|
exp(λ(eeut-1)){\ displaystyle \ exp (\ lambda (\ mathrm {e} ^ {it} -1)) \,}
|
---|
Função geradora de probabilidade
|
exp(λ(t-1)){\ displaystyle \ exp (\ lambda (t-1))}
|
---|
Em teoria de probabilidade e estatística , a lei de Poisson é uma lei de probabilidade discreta que descreve o comportamento do número de eventos que ocorrem em um intervalo de tempo fixo, se esses eventos ocorrerem com uma frequência ou expectativa média conhecida, e independentemente do tempo decorrido desde o anterior evento.
A lei de Poisson também é relevante para descrever o número de eventos em outros tipos de intervalos, espaciais ao invés de temporais, como segmentos, áreas ou volumes.
História
A lei de Poisson foi introduzida em 1838 por Denis Poisson (1781-1840), em sua obra Recherches sur la probabilidade des julgamentos em questões civis e criminais . O tópico principal deste livro consiste em certas variáveis aleatórias que contam, entre outras coisas, o número de ocorrências (às vezes chamadas de "chegadas") que ocorrem durante um determinado período de tempo.
Definição
Se o número médio de ocorrências em um intervalo de tempo fixo for λ , então a probabilidade de que haja exatamente k ocorrências ( k sendo um inteiro natural , k = 0, 1, 2 ... ) é
p(k)=P(X=k)=λkk!e-λ{\ displaystyle p (k) = \ mathbb {P} (X = k) = {\ frac {\ lambda ^ {k}} {k!}} \ mathrm {e} ^ {- \ lambda}}
ou :
Dizemos então que X segue a lei de Poisson do parâmetro λ , denotada .
X∼Ervilhas(λ){\ displaystyle X \ sim \ operatorname {Pois} \ left (\ lambda \ right)}
Por exemplo, se determinado tipo de evento ocorre em média 4 vezes por minuto , para estudar o número de eventos que ocorrem em um período de 10 minutos, escolhemos como modelo uma distribuição de Poisson com parâmetro λ = 10 × 4 = 40 .
Cálculo de p ( k )
Este cálculo pode ser feito dedutivamente trabalhando em uma distribuição binomial de parâmetros ( T ;λ/T) Para T grande, provamos que a lei binomial converge para a lei de Poisson.
Também pode ser feito indutivamente estudando no intervalo [0; T ] as funções F k ( t ) , que fornecem a probabilidade de que o evento ocorra k vezes no intervalo de tempo [0; t ] . Usando recorrência e cálculo diferencial, conseguimos encontrar as fórmulas anteriores.
Propriedades
Ao longo desta seção, X é uma variável aleatória seguindo uma lei de Poisson com parâmetro λ .
Momentos e funções geradoras
Momentos comuns
Os primeiros quatro momentos ordinários de uma distribuição de Poisson são dados por:
E[X]=λE[X2]=λ(1+λ)E[X3]=λ(1+3λ+λ2)E[X4]=λ(1+7λ+6λ2+λ3){\ displaystyle {\ begin {array} {lll} \ mathbb {E} [X] & = & \ lambda \\\ mathbb {E} [X ^ {2}] & = & \ lambda (1+ \ lambda) \\\ mathbb {E} [X ^ {3}] & = & \ lambda (1 + 3 \ lambda + \ lambda ^ {2}) \\\ mathbb {E} [X ^ {4}] & = & \ lambda (1 + 7 \ lambda +6 \ lambda ^ {2} + \ lambda ^ {3}) \ end {array}}}
Deduzimos a variação e o desvio padrão :
V(X)=λσ(X)=λ{\ displaystyle {\ begin {array} {lll} V (X) & = & \ lambda \\\ sigma (X) & = & {\ sqrt {\ lambda}} \ end {array}}}
De modo mais geral, o n º tempo comum um parâmetro de Poisson λ éE(Xnão)=∑k=0nãoS(não,k)λk{\ displaystyle \ mathbb {E} (X ^ {n}) = \ sum _ {k = 0} ^ {n} S (n, k) \ lambda ^ {k}}onde S ( n , k ) é o número de Stirling do segundo tipo de parâmetros e .
não{\ displaystyle n}k{\ displaystyle k}
Em particular, quando o n- th momento de X corresponde ao n- th número de Bell . Na verdade, isso é uma consequência da fórmula de Dobiński .
λ=1{\ displaystyle \ lambda = 1}
O limite a seguir amplia os momentos de uma distribuição de Poisson:E[Xnão]≤kkem(kλ+1)≤λkek2λ{\ displaystyle \ mathbb {E} [X ^ {n}] \ leq {\ frac {k ^ {k}} {\ ln \ left ({\ frac {k} {\ lambda}} + 1 \ right)} } \ leq \ lambda ^ {k} e ^ {\ frac {k} {2 \ lambda}}}Temos a relação de recorrência:E[Xnão]=λE[Xnão-1]+λ∂E[Xnão-1]∂λ{\ displaystyle \ mathbb {E} [X ^ {n}] = \ lambda \ mathbb {E} [X ^ {n-1}] + \ lambda {\ frac {\ partial \ mathbb {E} [X ^ { n-1}]} {\ partial \ lambda}}}
Momentos centrados
Os primeiros quatro momentos centrados de uma distribuição de Poisson são dados por:
E[(X-λ)2]=λE[(X-λ)3]=λE[(X-λ)4]=λ(1+3λ)E[(X-λ)5]=λ(1+10λ){\ displaystyle {\ begin {array} {lll} \ mathbb {E} [(X- \ lambda) ^ {2}] & = & \ lambda \\\ mathbb {E} [(X- \ lambda) ^ { 3}] & = & \ lambda \\\ mathbb {E} [(X- \ lambda) ^ {4}] & = & \ lambda (1 + 3 \ lambda) \\\ mathbb {E} [(X- \ lambda) ^ {5}] & = & \ lambda (1 + 10 \ lambda) \ end {array}}}
Deduzimos a assimetria e a curtose normalizada :
γ1(X)=1/λγ2(X)=1/λ{\ displaystyle {\ begin {array} {lll} \ gamma _ {1} (X) & = & 1 / {\ sqrt {\ lambda}} \\\ gamma _ {2} (X) & = & 1 / \ lambda \ end {array}}}
Temos a relação de recorrência:E[(X-λ)não+1]=nãoλE[(X-λ)não-1]+λ∂E[(X-λ)não]∂λ{\ displaystyle \ mathbb {E} [(X- \ lambda) ^ {n + 1}] = n \ lambda \ mathbb {E} [(X- \ lambda) ^ {n-1}] + \ lambda {\ frac {\ partial \ mathbb {E} [(X- \ lambda) ^ {n}]} {\ partial \ lambda}}}
Momentos fatoriais
A r th momento fatorial de uma distribuição de Poisson é
E((X)r)=λr{\ displaystyle \ mathbb {E} ((X) _ {r}) = \ lambda ^ {r}}
onde denota o fatorial decrescente .
(x)r=x(x-1)...(x-r+1){\ displaystyle (x) _ {r} = x (x-1) \ dots (x-r + 1)}
Função geradora de probabilidade
A função que gera as probabilidades de uma distribuição de Poisson é
GX(t)≡E(tX)=eλ(t-1).{\ displaystyle G_ {X} (t) \ equiv \ mathbb {E} (t ^ {X}) = \ mathrm {e} ^ {\ lambda (t-1)}.}
Função geradora de momento
A função geradora dos momentos de uma distribuição de Poisson é
MX(t)≡E(etX)=exp(λ(et-1)).{\ displaystyle M_ {X} (t) \ equiv \ mathbb {E} (\ mathrm {e} ^ {tX}) = \ exp \ left (\ lambda (\ mathrm {e} ^ {t} -1) \ direito).}
Demonstração
Seja X uma variável aleatória seguindo uma distribuição de Poisson com parâmetro λ . Lembre-se disso por definição .
P(X=k)=e-λλkk!{\ displaystyle \ mathbb {P} (X = k) = \ mathrm {e} ^ {- \ lambda} {\ frac {\ lambda ^ {k}} {k!}}}
Ter esperança
E(X)=∑k=1∞kP(X=k)=∑k=1∞ke-λλkk!=e-λ∑k=1∞λk(k-1)!=λe-λ∑k=1∞λk-1(k-1)!(reconhecemos todo o desenvolvimento da série de eλ)=λe-λeλ=λ.{\ displaystyle {\ begin {alinhado} \ mathbb {E} (X) & = \ sum _ {k = 1} ^ {\ infty} k \, \ mathbb {P} (X = k) \\ & = \ soma _ {k = 1} ^ {\ infty} k \, \ mathrm {e} ^ {- \ lambda} {\ frac {\ lambda ^ {k}} {k!}} \\ & = \ mathrm {e } ^ {- \ lambda} \, \ sum _ {k = 1} ^ {\ infty} {\ frac {\ lambda ^ {k}} {(k-1)!}} \\ & = \ lambda \, \ mathrm {e} ^ {- \ lambda} \, \ sum _ {k = 1} ^ {\ infty} {\ frac {\ lambda ^ {k-1}} {(k-1)!}} \ qquad ({\ text {reconhecemos a expansão serial inteira de}} \ mathrm {e} ^ {\ lambda}) \\ & = \ lambda \, \ mathrm {e} ^ {- \ lambda} \, \ mathrm {e } ^ {\ lambda} \\ & = \ lambda. \ end {alinhado}}} Variância
V(X)=E(X2)-(E(X))2=∑k=1∞k2P(X=k)-λ2=∑k=1∞k2e-λλkk!-λ2=λe-λ∑k=1∞kλk-1(k-1)!-λ2=λe-λ∑k=1∞ddλλk(k-1)!-λ2(toda a série tendo um raio de convergência infinito,=λe-λddλ∑k=1∞λk(k-1)!-λ2podemos reverter o somatório e a derivação)=λe-λddλ[λ∑k=1∞λk-1(k-1)!]-λ2(reconhecemos todo o desenvolvimento da série de eλ)=λe-λddλ[λeλ]-λ2=λe-λ(λ+1)eλ-λ2=λ(λ+1)-λ2=λ.{\ displaystyle {\ begin {alinhados} V (X) & = \ mathbb {E} (X ^ {2}) - (\ mathbb {E} (X)) ^ {2} & \\ & = \ sum _ {k = 1} ^ {\ infty} k ^ {2} \, \ mathbb {P} (X = k) - \ lambda ^ {2} & \\ & = \ sum _ {k = 1} ^ {\ infty} k ^ {2} \, \ mathrm {e} ^ {- \ lambda} {\ frac {\ lambda ^ {k}} {k!}} - \ lambda ^ {2} & \\ & = \ lambda \, \ mathrm {e} ^ {- \ lambda} \ sum _ {k = 1} ^ {\ infty} \, {\ frac {k \ lambda ^ {k-1}} {(k-1)!} } - \ lambda ^ {2} & \\ & = \ lambda \, \ mathrm {e} ^ {- \ lambda} \ sum _ {k = 1} ^ {\ infty} \, {\ frac {d} { d \ lambda}} {\ frac {\ lambda ^ {k}} {(k-1)!}} - \ lambda ^ {2} & \ qquad ({\ text {toda a série tendo um raio de convergência infinito,} } \\ & = \ lambda \, \ mathrm {e} ^ {- \ lambda} {\ frac {d} {d \ lambda}} \ sum _ {k = 1} ^ {\ infty} \, {\ frac {\ lambda ^ {k}} {(k-1)!}} - \ lambda ^ {2} & \ qquad {\ text {podemos reverter a soma e a derivação}}) \\ & = \ lambda \, \ mathrm {e} ^ {- \ lambda} {\ frac {d} {d \ lambda}} \ left [\ lambda \ sum _ {k = 1} ^ {\ infty} \, {\ frac {\ lambda ^ {k-1}} {(k-1)!}} \ right] - \ lambda ^ {2} & \ qquad ({\ text {reconhecemos a expansão serial inteira de}} \ mathrm {e} ^ {\ lambda}) \\ & = \ lambda \, \ mathrm {e} ^ {- \ lambda} {\ frac {d} {d \ lambda}} [\ lambda \, \ mathrm {e} ^ {\ lambda}] - \ lambda ^ {2} & \\ & = \ lambda \, \ mathrm {e} ^ {- \ lambda} (\ lambda +1) \, \ mathrm {e} ^ {\ lambda} - \ lambda ^ {2} & \\ & = \ lambda \, (\ lambda +1 ) - \ lambda ^ {2} & \\ & = \ lambda. & \ end {alinhado}}} Função geradora
Lembramos que a função geradora de X é definida por
. Então temos:
GX(t)=E(tX){\ displaystyle G_ {X} (t) = \ mathbb {E} (t ^ {X})}
E(tX)=∑k=0∞tkP(X=k)=∑k=0∞tke-λλkk!=e-λ∑k=0∞tkλkk!=e-λ∑k=0∞(tλ)kk!(reconhecemos todo o desenvolvimento da série de etλ)=e-λetλ=eλ(t-1).{\ displaystyle {\ begin {alinhados} \ mathbb {E} (t ^ {X}) & = \ sum _ {k = 0} ^ {\ infty} t ^ {k} \ mathbb {P} (X = k ) \\ & = \ sum _ {k = 0} ^ {\ infty} t ^ {k} \ mathrm {e} ^ {- \ lambda} {\ frac {\ lambda ^ {k}} {k!}} \\ & = \ mathrm {e} ^ {- \ lambda} \ sum _ {k = 0} ^ {\ infty} t ^ {k} {\ frac {\ lambda ^ {k}} {k!}} \ \ & = \ mathrm {e} ^ {- \ lambda} \ sum _ {k = 0} ^ {\ infty} {\ frac {(t \ lambda) ^ {k}} {k!}} \ qquad ({ \ text {reconhecemos a expansão serial inteira de}} \ mathrm {e} ^ {t \ lambda}) \\ & = \ mathrm {e} ^ {- \ lambda} \ mathrm {e} ^ {t \ lambda} \\ & = \ mathrm {e} ^ {\ lambda (t-1)}. \ end {alinhado}}} Função geradora de momento
Lembramos que a função geradora dos momentos de X é definida por
. Então temos:
MX(t)=E(etX){\ displaystyle M_ {X} (t) = \ mathbb {E} (\ mathrm {e} ^ {tX})}
MX(t)=∑k=0∞etkP(X=k)=∑k=0∞etkλkk!e-λ=e-λ∑k=0∞(λet)kk!(reconhecemos todo o desenvolvimento da série de ex avaliado em x=λet)=e-λeλet=eλ(et-1).{\ displaystyle {\ begin {alinhados} M_ {X} (t) & = \ sum _ {k = 0} ^ {\ infty} \ mathrm {e} ^ {tk} \ mathbb {P} (X = k) \\ & = \ sum _ {k = 0} ^ {\ infty} \ mathrm {e} ^ {tk} {\ frac {\ lambda ^ {k}} {k!}} \, \ mathrm {e} ^ {- \ lambda} \\ & = \ mathrm {e} ^ {- \ lambda} \ sum _ {k = 0} ^ {\ infty} {\ frac {(\ lambda \, \ mathrm {e} ^ {t }) ^ {k}} {k!}} \ qquad ({\ text {reconhecemos a expansão da série inteira de}} \ mathrm {e} ^ {x} {\ text {avaliado em}} x = \ lambda \ mathrm {e} ^ {t}) \\ & = \ mathrm {e} ^ {- \ lambda} \ mathrm {e} ^ {\ lambda \, \ mathrm {e} ^ {t}} \\ & = \ mathrm {e} ^ {\ lambda (\ mathrm {e} ^ {t} -1)}. \ end {alinhado}}} Momentos fatoriais
E((X)r)=e-λ∑k=r∞k!(k-r)!λkk!=λre-λ∑k=r∞λk-r(k-r)!=λre-λ∑k=0∞λkk!=λr.{\ displaystyle {\ begin {alinhados} \ mathbb {E} ((X) _ {r}) & = \ mathrm {e} ^ {- \ lambda} \ sum _ {k = r} ^ {\ infty} { \ frac {k!} {(kr)!}} {\ frac {\ lambda ^ {k}} {k!}} \\ & = \ lambda ^ {r} \ mathrm {e} ^ {- \ lambda} \ sum _ {k = r} ^ {\ infty} {\ frac {\ lambda ^ {kr}} {(kr)!}} \\ & = \ lambda ^ {r} \ mathrm {e} ^ {- \ lambda} \ sum _ {k = 0} ^ {\ infty} {\ frac {\ lambda ^ {k}} {k!}} \\ & = \ lambda ^ {r}. \ end {alinhado}}} Momentos
Os números de Stirling do segundo tipo verificam a relação
Xnão=∑k=0nãoS(não,k)(X)k{\ displaystyle X ^ {n} = \ sum _ {k = 0} ^ {n} S (n, k) (X) _ {k}}.
Assim, usando a fórmula dos momentos fatoriais de uma lei de Poisson, bem como a linearidade da expectativa, concluímos que
E(Xnão)=∑k=0nãoS(não,k)λk{\ displaystyle \ mathbb {E} (X ^ {n}) = \ sum _ {k = 0} ^ {n} S (n, k) \ lambda ^ {k}}.
Gráfico de barras
Como qualquer lei de probabilidade discreta , uma lei de Poisson pode ser representada por um gráfico de barras. Abaixo são mostrados os diagramas de barras das leis de Poisson dos parâmetros 1, 2 e 5.
Quando o parâmetro da lei de Poisson λ torna-se grande, (praticamente quando é maior que 5), seu diagrama de barras é corretamente aproximado pelo histograma de uma lei normal de expectativa e variância igual a λ (intervalo de classe l 'sendo igual à unidade). Essa convergência foi aproveitada, antes que os recursos do computador se tornassem generalizados, para usar a lei normal em vez da lei de Poisson em certos testes.
Estabilidade da distribuição de Poisson pela soma
Se as variáveis { X i } i = 1, ..., n são independentes e seguem uma lei de Poisson com os respectivos parâmetros λ i , então sua soma segue uma lei de Poisson com o parâmetro a soma de λ i :
Y=(∑eu=1nãoXeu)∼Ervilhas(∑eu=1nãoλeu){\ displaystyle Y = \ left (\ sum _ {i = 1} ^ {n} X_ {i} \ right) \ sim \ operatorname {Pois} \ left (\ sum _ {i = 1} ^ {n} \ lambda _ {i} \ right)}
Demonstração
Mostramos o caso n = 2 , os casos superiores são deduzidos por indução.
Lembre-se disso
P(X1=não)=λ1nãonão!e-λ1 e P(X2=não)=λ2nãonão!e-λ2.{\ displaystyle \ mathbb {P} (X_ {1} = n) = {\ frac {{\ lambda _ {1}} ^ {n}} {n!}} \ mathrm {e} ^ {- \ lambda _ {1}} {\ text {and}} \ mathbb {P} (X_ {2} = n) = {\ frac {{\ lambda _ {2}} ^ {n}} {n!}} \ Mathrm { e} ^ {- {\ lambda _ {2}}}.}
Então temos
P(X+Y=não)=∑k=0nãoP({X1=k}∩{X2=não-k})=∑k=0nãoP(X1=k)P(X2=não-k)=∑k=0nãoλ1kk!e-λ1⋅λ2não-k(não-k)!e-λ2=e-λ1e-λ2não!∑k=0nãonão!k!(não-k)!λ1kλ2não-k=e-(λ1+λ2)não!(λ1+λ2)não{\ displaystyle {\ begin {alinhados} \ mathbb {P} (X + Y = n) & = \ sum _ {k = 0} ^ {n} \ mathbb {P} (\ {X_ {1} = k \ } \ cap \ {X_ {2} = nk \}) = \ sum _ {k = 0} ^ {n} \ mathbb {P} (X_ {1} = k) \ mathbb {P} (X_ {2} = nk) \\ & = \ sum _ {k = 0} ^ {n} {\ frac {\ lambda _ {1} ^ {k}} {k!}} \ mathrm {e} ^ {- \ lambda _ {1}} \ cdot {\ frac {\ lambda _ {2} ^ {nk}} {(nk)!}} \ Mathrm {e} ^ {- \ lambda _ {2}} \\ & = {\ frac {\ mathrm {e} ^ {- \ lambda _ {1}} \ mathrm {e} ^ {- \ lambda _ {2}}} {n!}} \ sum _ {k = 0} ^ {n} { \ frac {n!} {k! (nk)!}} \ lambda _ {1} ^ {k} \ lambda _ {2} ^ {nk} = {\ frac {\ mathrm {e} ^ {- (\ lambda _ {1} + \ lambda _ {2})}} {n!}} (\ lambda _ {1} + \ lambda _ {2}) ^ {n} \ end {alinhado}}}
Independência foi usada em 2 e iguais. A última igualdade é obtida por meio da fórmula binomial de Newton .
Terminais de cauda
Um argumento do tipo limite de Chernoff permite deduzir os seguintes limites de cauda
P(X≥x)≤e-λ(eλ)xxx{\ displaystyle \ mathbb {P} (X \ geq x) \ leq {\ frac {\ mathrm {e} ^ {- \ lambda} (\ mathrm {e} \ lambda) ^ {x}} {x ^ {x }}}}para todo
x > λ e
P(X≤x)≤e-λ(eλ)xxx{\ displaystyle \ mathbb {P} (X \ leq x) \ leq {\ frac {\ mathrm {e} ^ {- \ lambda} (\ mathrm {e} \ lambda) ^ {x}} {x ^ {x }}}}para todos os
x <λ .
Esses terminais podem ser reescritos da seguinte forma
P(X≥x+λ)≤e-x22λh(xλ){\ displaystyle \ mathbb {P} (X \ geq x + \ lambda) \ leq \ mathrm {e} ^ {- {\ frac {x ^ {2}} {2 \ lambda}} h \ left ({\ frac {x} {\ lambda}} \ right)}} para todo
x > 0 e
P(X≤-x+λ)≤e-x22λh(-xλ){\ displaystyle \ mathbb {P} (X \ leq -x + \ lambda) \ leq \ mathrm {e} ^ {- {\ frac {x ^ {2}} {2 \ lambda}} h \ left (- { \ frac {x} {\ lambda}} \ right)}} para todo
λ> x > 0
onde para tudo . Estes últimos limites envolvem em particular o seguinte poste de amarração (que é mais fraco, mas mais agradável de manusear)
h(você): =2(1+você)em(1+você)-vocêvocê2{\ displaystyle h (u): = 2 {\ frac {(1 + u) \ ln (1 + u) -u} {u ^ {2}}}}você≥-1{\ displaystyle u \ geq -1}
P(|X-λ|≥x)≤2e-x22(λ+x){\ displaystyle \ mathbb {P} (| X- \ lambda | \ geq x) \ leq 2 \ mathrm {e} ^ {- {\ frac {x ^ {2}} {2 (\ lambda + x)}} }}.
O limite superior dado por Chernoff pode ser melhorado por um fator de pelo menos 2
P(X≥x+λ)≤e-x22λh(xλ)max{2,2πx2λh(xλ)}{\ displaystyle \ mathbb {P} (X \ geq x + \ lambda) \ leq {\ frac {\ mathrm {e} ^ {- {\ frac {x ^ {2}} {2 \ lambda}} h \ left ({\ frac {x} {\ lambda}} \ right)}} {\ max \ left \ {2, {\ sqrt {{\ frac {2 \ pi x ^ {2}} {\ lambda}} h \ esquerda ({\ frac {x} {\ lambda}} \ direita)}} \ direita \}}}} para todo
x > 0 .
Deve-se notar que a função h está ligada à divergência de Kullback-Leibler entre uma lei de Poisson com parâmetro x + λ e uma lei de Poisson com parâmetro λ . Na verdade, temos a relação
DKeu(x+λ||λ)=(x+λ)em(xλ+1)-x=x22λh(xλ){\ displaystyle D_ {KL} (x + \ lambda || \ lambda) = (x + \ lambda) \ ln \ left ({\ frac {x} {\ lambda}} + 1 \ right) -x = {\ frac {x ^ {2}} {2 \ lambda}} h \ left ({\ frac {x} {\ lambda}} \ right)}.
Simulação
Um algoritmo simples para simular a lei de Poisson é usar o seguinte resultado:
Teorema - Seja ( E i ) i ≥ 1 uma sequência de variáveis aleatórias independentes com a mesma distribuição exponencial do parâmetro λ . Definimos S 1 = E 1 e para n ≥ 2 , S n = E 1 + ... + E n . Então temos:
∀não⩾1, P(Snão⩽1<Snão+1)=e-λλnãonão!.{\ displaystyle \ forall n \ geqslant 1, \ \ mathbb {P} (S_ {n} \ leqslant 1 <S_ {n + 1}) = {\ frac {\ mathrm {e} ^ {- \ lambda} \ lambda ^ {n}} {n!}}.}
O método de transformação inversa fornece uma maneira simples de gerar um sorteio aleatório de acordo com uma lei exponencial:
Se
U segue uma lei uniforme em
[0; 1] , então
E = -1/λln ( U ) segue uma lei exponencial com parâmetro
λ .
O algoritmo pode, portanto, ser simplificado por:
-
k ← 0 , p ← 1
- contanto que p > e –λ
- desenhamos u de acordo com um sorteio aleatório uniforme em [0; 1]
- p ← p × u
- k ← k +1
- nós retornamos k - 1
Estimativa do parâmetro λ
O estimador de máxima verossimilhança do parâmetro λ de uma amostra derivada de uma distribuição de Poisson é a média empírica . É um estimador convergir sem viés , eficaz , abrangente (in) , exaustivo .
Link com outras leis de probabilidade
- Se X e Y são duas variáveis aleatórias independentes que seguem as leis de Poisson dos respectivos parâmetros λ e μ , então X - Y é uma variável aleatória que segue uma lei de parâmetros de Skellam (λ, μ ) .
- Se X e Y são duas variáveis aleatórias independentes que seguem as leis de Poisson com parâmetros λ e μ , então a lei condicional de X sabendo X + Y é uma lei binomial .
- Para grandes valores de λ , podemos nos aproximar da lei de Poisson pela lei normal da média λ e da variância λ .
A contagem de eventos raros geralmente é feita através da soma de variáveis de Bernoulli , a raridade dos eventos resultando no fato de que os parâmetros dessas variáveis de Bernoulli são pequenos (portanto, a probabilidade de cada evento ocorrer é baixa). A ligação entre a lei de Poisson e eventos raros pode então ser declarada da seguinte forma:
Paradigma de Poisson - A soma S n de um grande número de variáveis independentes de Bernoulli de parâmetro pequeno segue aproximadamente a distribuição de Poisson do parâmetroE[Snão]. {\ displaystyle \ mathbb {E} [S_ {n}]. \}
A desigualdade de Le Cam diz que o paradigma de Poisson é uma tabela de variáveis aleatórias Bernoulli independentes , com respectivos parâmetros p k , n . Nós notamos
X1,não,X2,não,...,Xnonão,não {\ displaystyle X_ {1, n}, X_ {2, n}, \ dots, X_ {a_ {n}, n} \}
Snão=∑k=1nonãoXk,nãoeλnão = E[Snão]=∑k=1nonãopk,não. {\ displaystyle S_ {n} = \ sum _ {k = 1} ^ {a_ {n}} \, X_ {k, n} \ quad {\ text {e}} \ quad \ lambda _ {n} \ = \ \ mathbb {E} [S_ {n}] = \ sum _ {k = 1} ^ {a_ {n}} \, p_ {k, n}. \}
Desigualdade de Le Cam - Para qualquer conjunto
A de números naturais,
|P(Snão∈NO)-∑k∈NOλnãoke-λnãok!| ≤ ∑k=1nonãopk,não2.{\ displaystyle \ left | \ mathbb {P} \ left (S_ {n} \ in A \ right) - \ sum _ {k \ in A} \, {\ frac {\ lambda _ {n} ^ {k} \, \ mathrm {e} ^ {- \ lambda _ {n}}} {k!}} \ right | \ \ leq \ \ sum _ {k = 1} ^ {a_ {n}} \, p_ {k , n} ^ {2}.}
Em particular, se as duas condições a seguir forem atendidas:
- limnãoλnão=λ>0, {\ displaystyle \ lim _ {n} \ lambda _ {n} \, = \, \ lambda> 0, \}
- limnão∑k=1nonãopk,não2=0, {\ displaystyle \ lim _ {n} \ sum _ {k = 1} ^ {a_ {n}} \, p_ {k, n} ^ {2} \, = \, 0, \}
então S n converge em lei para a distribuição de Poisson com o parâmetro Eficiência (estatística)
Na afirmação do paradigma de Poisson , fazemos duas suposições (vagas) sobre os termos de uma soma S n de variáveis de Bernoulli:
- os parâmetros das variáveis de Bernoulli são pequenos; no entanto, as duas condições acima significam que
limnão(max1≤k≤nonãopk,não)=0, {\ displaystyle \ lim _ {n} \, \ left (\ max _ {1 \ leq k \ leq a_ {n}} \, p_ {k, n} \ right) \, = \, 0, \}
que reformula a hipótese “ os parâmetros das variáveis de Bernoulli são pequenos ” com mais precisão;
- há um grande número de termos; no entanto, as duas condições acima levam ao número de termos tendendo ao infinito:
limnãononão=+∞. {\ displaystyle \ lim _ {n} a_ {n} \, = \, + \ infty. \}
Notas:
- Esse paradigma permanece relevante, sob certas condições, se relaxarmos a hipótese de independência .
- O caso particular de um n = n , p k, n = λ / n , λ n = λ , da desigualdade de Le Cam, especifica a velocidade de convergência do direito binomial de parâmetros n e λ / N para a lei de Poisson com parâmetro λ .
Áreas de aplicação
O campo de aplicação da lei de Poisson foi por muito tempo limitado ao de eventos raros como suicídios de crianças, chegada de barcos a um porto ou acidentes por chute de cavalos em exércitos (estudo de Ladislaus Bortkiewicz ).
Mas nas últimas décadas seu campo de aplicação se ampliou consideravelmente. Atualmente, é amplamente utilizado em telecomunicações (para contar o número de comunicações em um determinado intervalo de tempo), controle estatístico de qualidade (número de defeitos no SPC ), a descrição de certos fenômenos relacionados à decadência radioativa (a decadência de núcleos radioativos seguindo, além disso, uma lei exponencial de parâmetro também observou lambda), biologia ( mutações no experimento de Luria e Delbrück , número de potenciais de ação emitidos por um neurônio em neurociências), meteorologia , finanças para modelar a probabilidade de um default de crédito, Yield Management ( American Airlines, Lufthansa e SAS para estimar a demanda de passageiros), etc.
Na literatura
No romance de Thomas Pynchon , The Rainbow of Gravity , um dos personagens, o estatístico Roger Mexico, usa a lei de Poisson para mapear as áreas de impacto dos foguetes V2 alemães na cidade de Londres durante a Segunda Guerra Mundial .
Notas e referências
-
Com as convenções usuais 0! = 1 e 0 0 = 1 , a definição da lei de Poisson estende-se a λ = 0 : então encontramos p (0) = 1 e, assim que k > 0 , p ( k ) = 0 . Assim, uma variável aleatória quase certa de zero pode ser vista como seguindo a lei de Poisson do parâmetro 0. Essa convenção é consistente com as propriedades essenciais da lei de Poisson do parâmetro estritamente positivo. É conveniente, mesmo essencial, por exemplo, durante o estudo dos processos pontuais de Poisson.
-
Siméon-Denis Poisson, Pesquisa sobre a probabilidade de julgamentos em matéria penal e civil; precedido pelas Regras Gerais para o Cálculo de Probabilidades em Gallica , 1837, passagem 81, p. 205.
-
Ver, por exemplo, Michel Henry, Around Probability model , Presses Universitaires de Franche-Comté,2001( apresentação online ) , p. 229-231ou essas notas do curso .
-
(em) Eric W. Weisstein, " distribuição de Poisson " em mathworld.wolfram.com
-
(em) D Thomas Ahle, " Sharp and Simple Bounds for the raw moment of the Binomial and Poisson distributions " , arXiv ,2021( arXiv 2103.17027 , leia online )
-
(en) Norman L Johnson, Adrienne W Kemp e Samuel Kotz, Univariate Discrete Distributions , Wiley,2005, 3 e ed. ( ISBN 978-0-471-27246-5 , leitura online ) , p. 162
-
(em) Michael Mitzenmacher e Eli Upfal , Probability and Computing: Randomized Algorithms and Probabilistic Analysis , Cambridge, UK, Cambridge University Press,2005( ISBN 978-0-521-83540-4 , leitura online ) , p. 97
-
(en) " Uma breve nota sobre os limites da cauda de Poisson "
-
(em) Michael Short, " Improved Inequalities for the Poisson and Binomial Distribution and Quantile Functions Upper Tail " , International Scholarly Research Notices , vol. 2013,2013( DOI https://doi.org/10.1155/2013/412958 , leia online )
-
(em) L. Le Cam , " Um Teorema de Aproximação para a Distribuição Binomial de Poisson " , Pacific Journal of Mathematics , vol. 10, n o 4,1960, p. 1181–1197 ( ler online , acessado em 13 de maio de 2009 ).
-
(em) AD Barbour , L. Holst e S. Janson , aproximação de Poisson , Oxford, Clarendon Press, Oxford University Press,1992, 277 p. ( ISBN 0-19-852235-5 ).
-
Ladislaus Bortkiewicz, Das Gesetz der kleinen Zahlen ,1898( leia online ), p. 23 .
Veja também
Artigos relacionados