Convergência de variáveis aleatórias
Na teoria da probabilidade , existem diferentes noções de convergência de variáveis aleatórias . A convergência (em um dos sentidos descritos abaixo) de sequências de variáveis aleatórias é um conceito importante da teoria da probabilidade usado em particular em estatística e no estudo de processos estocásticos . Por exemplo, a média de n variáveis aleatórias independentes e distribuídas de forma idêntica quase certamente converge para a expectativa comum dessas variáveis aleatórias (se houver). Esse resultado é conhecido como a lei forte dos grandes números .
Neste artigo, assumimos que ( X n ) é uma sequência de variáveis aleatórias reais , que X é uma variável aleatória real e que todas essas variáveis são definidas no mesmo espaço de probabilidade .
(Ω,F,P){\ displaystyle (\ Omega, {\ mathcal {F}}, \ mathbb {P})}
Convergência na lei
Vamos F 1 , F 2 , ... o resultado das funções de distribuição
associados com variáveis aleatórias X 1 , X 2 , ... , e F a função de distribuição do real variável aleatória X . Em outras palavras, F n é definido por F n ( x ) = P ( X n ≤ x ) , e F por F ( x ) = P ( X ≤ x ) .
A sequência X n converge para X na lei , ou na distribuição , se
limnão→∞Fnão(no)=F(no),{\ displaystyle \ lim _ {n \ rightarrow \ infty} F_ {n} (a) = F (a),}Para todos reais
um onde
F é
contínua .
Como F ( a ) = P ( X ≤ a ) , isso significa que a probabilidade de X pertencer a um determinado intervalo é muito próxima da probabilidade de X n estar neste intervalo para n suficientemente grande. A convergência na lei é frequentemente observada
Xnão→euX{\ displaystyle X_ {n} {\ xrightarrow {\ mathcal {L}}} X}
ou
Xnão→dX{\ displaystyle X_ {n} {\ xrightarrow {d}} X}
A convergência no direito é a forma mais fraca no sentido de que, em geral, não implica as outras formas de convergência definidas a seguir, enquanto essas outras formas de convergência implicam na convergência no direito. É esse tipo de convergência que é usado no Teorema do Limite Central .
Equivalentemente, a sequência ( X n ) converge na lei para X se e somente se para qualquer função limitada contínua
limnão→∞E[f(Xnão)]=E[f(X)].{\ displaystyle \ lim _ {n \ rightarrow \ infty} \ mathbb {E} [f (X_ {n})] = \ mathbb {E} [f (X)].}
Teorema Levy continuidade - Let φ n ( t ) a função característica de X n e φ ( t ) que de X . Então
{∀t∈R:φnão(t)→φ(t)}⇔{Xnão→euX}{\ displaystyle \ left \ {\ forall t \ in \ mathbb {R}: \ varphi _ {n} (t) \ to \ varphi (t) \ right \} \ quad \ Leftrightarrow \ quad \ left \ {X_ { n} {\ xrightarrow {\ mathcal {L}}} X \ right \}}.
Em outras palavras, ( X n ) converge em distribuição para X , se e apenas se a função característica do real variável aleatória X n converge simplesmente para a função característica do real variável aleatória X .
Exemplo: teorema do limite central:
A média de uma série de variáveis aleatórias centradas e quadradas integráveis, independentes e da mesma lei, uma vez renormalizada por √ n converge na lei para a lei normal
nãoX¯não→euNÃO(0,σ2).{\ displaystyle {\ sqrt {n}} {\ bar {X}} _ {n} {\ xrightarrow {\ mathcal {L}}} {\ mathcal {N}} (0, \ sigma ^ {2}). }
Exemplo: convergência da lei do aluno:
O parâmetro de distribuição de Student k converge, quando k tende a + ∞ , para a lei de Gauss :
t(k)→euNÃO(0,1).{\ displaystyle \ mathrm {t} (k) {\ xrightarrow {\ mathcal {L}}} {\ mathcal {N}} (0,1).}Nesse caso, também podemos usar o lema de Scheffé , que é um critério de convergência de uma sequência de variáveis aleatórias de densidade em direção a uma variável aleatória de densidade .
Exemplo: lei degenerada:
A sequência converge na lei para uma variável aleatória X 0 chamada degenerada, que assume um único valor (0) com probabilidade 1 (às vezes falamos de massa de Dirac em 0, notado δ 0 ):
NÃO(0,1não){\ displaystyle {\ mathcal {N}} \ left (0, {\ frac {1} {n}} \ right)}
P(X0≤x)=δ0(]-∞,x])={0 E se x<0,1 E se x≥0{\ displaystyle \ mathbb {P} (X_ {0} \ leq x) = \ delta _ {0} \ left (] - \ infty, x] \ right) = {\ begin {cases} 0 & {\ text { si}} x <0, \\ 1 & {\ text {si}} x \ geq 0. \ end {casos}}}
Convergência em probabilidade
Definição -
Seja ( X n ) n uma série de variáveis aleatórias reais definidas no mesmo espaço de probabilidade . Dizemos que X n converge para X em probabilidade se
(Ω,NO,P){\ displaystyle \ left (\ Omega, {\ mathcal {A}}, \ mathbb {P} \ right)}
∀ε>0,limnão→∞P(|Xnão-X|≥ε)=0{\ displaystyle \ forall \ varepsilon> 0, \ qquad \ lim _ {n \ rightarrow \ infty} \ mathbb {P} \ left (\ left | X_ {n} -X \ right | \ geq \psilon \ right) = 0.}
Às vezes notamos
Xnão→pX{\ displaystyle X_ {n} {\ xrightarrow {p}} X}
ou
Xnão→PX{\ displaystyle X_ {n} {\ xrightarrow {\ mathbb {P}}} X}
Lema -
Se tivermos as seguintes convergências, respectivamente em ( E , d ) e emR{\ displaystyle \ mathbb {R}}
Xnão→(d)Xed(Xnão,Ynão)→(d)0{\ displaystyle X_ {n} {\ xrightarrow [{}] {(d)}} X \ qquad {\ text {et}} \ qquad d (X_ {n}, Y_ {n}) {\ xrightarrow [{} ] {(d)}} 0}
então nós temos
(Xnão,Ynão)→(d)(X,X){\ displaystyle (X_ {n}, Y_ {n}) {\ xrightarrow [{}] {(d)}} (X, X)}
no espaço E × E fornecido com a distância infinita.
Demonstração
Deixe- F uma fechada E × E . Para todo ε > 0 denotamos
Fε: ={(x,y)∈E×E:d∞((x,y),F)≤ε}{\ displaystyle F _ {\ varepsilon}: = \ {(x, y) \ in E \ times E: d _ {\ infty} ((x, y), F) \ leq \ varepsilon \}}
Então
P((Xnão,Ynão)∈F)≤P((Xnão,Xnão)∈Fϵ)+P(d(Xnão,Ynão)≥ϵ){\ displaystyle \ mathbb {P} ((X_ {n}, Y_ {n}) \ in F) \ leq \ mathbb {P} ((X_ {n}, X_ {n}) \ in F _ {\ epsilon }) + \ mathbb {P} (d (X_ {n}, Y_ {n}) \ geq \ epsilon)}
Passando limsup é obtido usando os dois pressupostos e a 3 e ponto cabide teorema
lim supnãoP((Xnão,Ynão)∈F)≤P((X,X)∈Fϵ){\ displaystyle \ limsup _ {n} \ mathbb {P} ((X_ {n}, Y_ {n}) \ in F) \ leq \ mathbb {P} ((X, X) \ in F _ {\ epsilon })}
então, fazendo ε tender para 0, já que F é fechado
lim supnãoP((Xnão,Ynão)∈F)≤P((X,X)∈F{\ displaystyle \ limsup _ {n} \ mathbb {P} ((X_ {n}, Y_ {n}) \ in F) \ leq \ mathbb {P} ((X, X) \ in F}
Conclui-se, utilizando novamente o 3 rd ponto do teorema cabide.
Propriedade -
Se X n converge para X em probabilidade, então X n converge para X em lei .
Demonstração
É uma consequência do lema anterior, tomando X n = X e observando que a convergência na lei
d(X,Ynão)→(d)0{\ displaystyle d (X, Y_ {n}) {\ xrightarrow [{}] {(d)}} 0}
em é a convergência em probabilidade
R{\ displaystyle \ mathbb {R}}
Ynão→PX{\ displaystyle Y_ {n} {\ xrightarrow [{}] {\ mathbb {P}}} X}
em ( E , d ) .
Caso contrário, você pode proceder da seguinte maneira. Vamos começar declarando um lema.
Lema -
Sejam X , Y variáveis aleatórias reais, c a real e ε > 0 . Então
P(Y≤vs)≤P(X≤vs+ε)+P(X-Y>ε){\ displaystyle \ mathbb {P} (Y \ leq c) \ leq \ mathbb {P} (X \ leq c + \ varejpsilon) + \ mathbb {P} (XY> \ varejpsilon)}
Na verdade, é suficiente notar que:
{Y≤vs}⊂{X≤vs+ε}∪{X>vs+ε,Y≤vs}{\ displaystyle \ {Y \ leq c \} \ subset \ {X \ leq c + \ varejpsilon \} \ cup \ {X> c + \ varejpsilon, Y \ leq c \}}
A desigualdade segue naturalmente.
Para todo ε > 0 , devido a este lema, temos:
P(Xnão≤no)≤P(X≤no+ε)+P(|Xnão-X|>ε){\ displaystyle \ mathbb {P} (X_ {n} \ leq a) \ leq \ mathbb {P} (X \ leq a + \ varejpsilon) + \ mathbb {P} (\ left | X_ {n} -X \ direita |> \ varepsilon)}
P(X≤no-ε)≤P(Xnão≤no)+P(|Xnão-X|>ε){\ displaystyle \ mathbb {P} (X \ leq a- \ varepsilon) \ leq \ mathbb {P} (X_ {n} \ leq a) + \ mathbb {P} (\ left | X_ {n} -X \ direita |> \ varepsilon)}
Então nós temos
P(X≤no-ε)-P(|Xnão-X|>ε)≤P(Xnão≤no)≤P(X≤no+ε)+P(|Xnão-X|>ε).{\ displaystyle \ mathbb {P} (X \ leq a- \ varejpsilon) - \ mathbb {P} (\ left | X_ {n} -X \ right |> \ varepsilon) \ leq \ mathbb {P} (X_ { n} \ leq a) \ leq \ mathbb {P} (X \ leq a + \ varejpsilon) + \ mathbb {P} (\ left | X_ {n} -X \ right |> \ varepsilon).}Ou é um ponto de continuidade de F X . Fixamos um ε ' > 0 real . Por continuidade de F X em a , existe um real ε > 0 tal que
|P(X⩽no+ε)-P(X⩽no)|<ε′et|P(X⩽no-ε)-P(X⩽no)|<ε′{\ displaystyle | \ mathbb {P} (X \ leqslant a + \ varepsilon) - \ mathbb {P} (X \ leqslant a) | <\ varejpsilon '\ mathrm {e} | \ mathbb {P} (X \ leqslant a - \ varepsilon) - \ mathbb {P} (X \ leqslant a) | <\ varejpsilon '}.
A convergência de ( X n ) n na probabilidade de X , pode-se deduzir a existência de um número inteiro N de tal modo que: se n ≥ N .
P(|Xnão-X|>ε)<ε′{\ displaystyle \ mathbb {P} (\ left | X_ {n} -X \ right |> \ varepsilon) <\ varepsilon '}
Onde: .
∀não∈NÃO,não⩾NÃO⇒|P(Xnão⩽no)-P(X⩽no)|<2ε′{\ displaystyle \ forall n \ in \ mathbb {N}, n \ geqslant N \ Rightarrow | \ mathbb {P} (X_ {n} \ leqslant a) - \ mathbb {P} (X \ leqslant a) | <2 \ varejpsilon '}
Teorema de Slutsky - Se X n converge na lei para X , e se Y n converge em probabilidade para uma constante c , então o par ( X n , Y n ) converge na lei para o par ( X , c ) .
Convergência quase certa
Definição -
Dizemos que X n quase certamente converge para X se
P(limnão→∞Xnão=X)=1{\ displaystyle \ mathbb {P} \ left (\ lim _ {n \ rightarrow \ infty} X_ {n} = X \ right) = 1}
ou de forma equivalente, se existir um subconjunto - desprezível N ⊂ Ω tal que
P{\ displaystyle \ mathbb {P}}
∀ω∈Ω∖NÃO,Xnão(ω)→não→∞X(ω){\ displaystyle \ forall \ omega \ in \ Omega \ setminus N, \ qquad X_ {n} (\ omega) {\ xrightarrow [{n \ to \ infty}] {}} X (\ omega)}
Também falamos sobre convergência em quase todos os lugares ou com probabilidade 1 ou alta , e escrevemos
Xnão→p.s.X{\ displaystyle X_ {n} {\ xrightarrow {ps}} X}
ou, em inglês ( quase com certeza )
Xnão→no.s.X{\ displaystyle X_ {n} {\ xrightarrow {as}} X}
A convergência quase segura é reescrita como:
∀ε>0,P(lim infnão{|Xnão-X|<ε})=1{\ displaystyle \ forall \ varepsilon> 0, \ qquad \ mathbb {P} \ left (\ liminf _ {n} \ {| X_ {n} -X | <\ varepsilon \} \ right) = 1}
ou
∀ε>0,P(lim supnão{|Xnão-X|>ε})=0{\ displaystyle \ forall \ varepsilon> 0, \ qquad \ mathbb {P} \ left (\ limsup _ {n} \ {| X_ {n} -X |> \ varepsilon \} \ right) = 0}
ou
lim infnão{|Xnão-X|<ε}: =⋃NÃO∈NÃO⋂não≥NÃO{|Xnão-X|<ε}={|Xnão-X|<ε no vai de um certo classificação}{\ displaystyle \ liminf _ {n} \ {| X_ {n} -X | <\ varepsilon \}: = \ bigcup _ {N \ in \ mathbb {N}} \ bigcap _ {n \ geq N} \ { | X_ {n} -X | <\ varepsilon \} = \ {| X_ {n} -X | <\ varepsilon \ {\ textrm {a}} \ {\ textrm {start}} \ {\ textrm {d ' a}} \ {\ textrm {certo}} \ {\ textrm {rang}} \}}
lim supnão{|Xnão-X|>ε}: =⋂NÃO∈NÃO⋃não≥NÃO{|Xnão-X|>ε}={|Xnão-X|>ε infinitamente muitas vezes.}{\ displaystyle \ limsup _ {n} \ {| X_ {n} -X |> \ varepsilon \}: = \ bigcap _ {N \ in \ mathbb {N}} \ bigcup _ {n \ geq N} \ { | X_ {n} -X |> \ varepsilon \} = \ {| X_ {n} -X |> \ varepsilon \ {\ textrm {infinitamente}} \ {\ textrm {frequentemente}}. \}}
Teorema - Se X n converge para X quase com certeza, então X n converge para X em probabilidade .
Demonstração
Pelo lema de Fatou , temos para todo ε > 0 :
lim infnãoP(|Xnão-X|<ε)≥P(lim infnão{|Xnão-X|<ε})=1{\ displaystyle \ liminf _ {n} \ mathbb {P} (| X_ {n} -X | <\ varepsilon) \ geq \ mathbb {P} \ left (\ liminf _ {n} \ {| X_ {n} -X | <\ varepsilon \} \ right) = 1}
A convergência quase certa é usada na lei forte dos grandes números .
Convergência média de ordem r
Definição -
Seja r > 0 e ( X n ) n uma série de variáveis aleatórias reais definidas no mesmo espaço de probabilidade . Dizemos que X n converge para X como uma média de ordem r ou como uma norma L r se para todo n e se
(Ω,NO,P){\ displaystyle \ left (\ Omega, {\ mathcal {A}}, P \ right)} E(|Xnão|r)<+∞{\ displaystyle E (| X_ {n} | ^ {r}) <+ \ infty}
limnão→∞E(|Xnão-X|r)=0{\ displaystyle \ lim _ {n \ rightarrow \ infty} E \ left (\ left | X_ {n} -X \ right | ^ {r} \ right) = 0}
Às vezes notamos .
Xnão→eurX{\ displaystyle X_ {n} {\ xrightarrow {\ mathbb {L} ^ {r}}} X}
Para r = 1, falamos simplesmente de convergência média e para r = 2 de convergência quadrada média .
Propriedade -
Para r > s ≥ 1, a convergência da norma implica a convergência da norma .
eur{\ displaystyle \ mathbb {L} ^ {r}}eus{\ displaystyle \ mathbb {L} ^ {s}}
Demonstração
É uma aplicação simples da desigualdade de Jensen com a função convexax↦xr/s{\ displaystyle x \ mapsto x ^ {r / s}}
Para r = 2, temos o seguinte resultado:
Propriedade -
Seja c uma constante real. Então temos
Xnão→eu2vs{\ displaystyle X_ {n} {\ xrightarrow {\ mathbb {L} ^ {2}}} c}
se e apenas se
limnão→∞E[Xnão]=vselimnão→∞Var[Xnão]=0{\ displaystyle \ lim _ {n \ to \ infty} \ mathbb {E} [X_ {n}] = c \ qquad {\ text {et}} \ qquad \ lim _ {n \ to \ infty} \ operatorname { Var} [X_ {n}] = 0}
Demonstração
Isso segue a seguinte identidade:
E[(Xnão-vs)2]=Var(Xnão)+(E[Xnão]-vs)2{\ displaystyle \ mathbb {E} \ left [(X_ {n} -c) ^ {2} \ right] = \ operatorname {Var} (X_ {n}) + \ left (\ mathbb {E} [X_ { n}] - c \ direita) ^ {2}}
Propriedade -
Se X n converge para X na norma L r , então X n converge para X em probabilidade .
Demonstração
É uma aplicação direta da desigualdade de Markov para variáveis aleatórias reais admitindo um momento de ordem r :
P(|Xnão-X|≥ε)≤E[|Xnão-X|r]εr{\ displaystyle \ mathbb {P} \ left (\ left | X_ {n} -X \ right | \ geq \ varepsilon \ right) \ leq {\ frac {\ operatorname {E} [\ left | X_ {n} - X \ right | ^ {r}]} {\ varepsilon ^ {r}}}}
Exemplo:
A lei fraca dos grandes números é uma consequência direta dessas duas últimas propriedades
Convergência de uma função de uma variável aleatória
Um teorema muito prático, geralmente referido em inglês como teorema do mapeamento (en) , afirma que uma função contínua g aplicada a uma variável que converge para X convergirá para g ( X ) para todos os modos de convergência:
Teorema - ( Teorema de mapeamento ) Seja uma função contínua em qualquer ponto de um conjunto C tal que :
g:Rk→Rm{\ displaystyle g: \ mathbb {R} ^ {k} \ to \ mathbb {R} ^ {m}}P(X∈VS)=1{\ displaystyle \ mathbb {P} (X \ in C) = 1}
- Se ;Xnão→euX tão g(Xnão)→eug(X){\ displaystyle X_ {n} {\ xrightarrow {\ mathcal {L}}} X {\ text {then}} g (X_ {n}) {\ xrightarrow {\ mathcal {L}}} g (X)}
- Se ;Xnão→pX tão g(Xnão)→pg(X){\ displaystyle X_ {n} {\ xrightarrow {p}} X {\ text {then}} g (X_ {n}) {\ xrightarrow {p}} g (X)}
- Sim .Xnão→p.sX tão g(Xnão)→p.s.g(X){\ displaystyle X_ {n} {\ xrightarrow {ps}} X {\ text {then}} g (X_ {n}) {\ xrightarrow {ps}} g (X)}
Exemplo:
Em estatística , um estimador convergente da variância σ 2 é dado por:
snão-12≡1não-1∑eu=1não(yeu-y¯)2{\ displaystyle s_ {n-1} ^ {2} \ equiv {\ frac {1} {n-1}} \ sum _ {i = 1} ^ {n} \ left (y_ {i} - {\ overline {y}} \ right) ^ {2}}.
Sabemos então do teorema do mapeamento contínuo que o estimador do desvio padrão σ = √ σ 2 é convergente, porque a função raiz é uma função contínua.snão-12{\ displaystyle {\ sqrt {s_ {n-1} ^ {2}}}}
Implicações recíprocas
Para recapitular, temos a cadeia de implicação entre as diferentes noções de convergência de variáveis aleatórias:
→eus⇒s>r≥1→eur⇓→p.s.⇒→ p ⇒→ d {\ displaystyle {\ begin {matrix} {\ xrightarrow {L ^ {s}}} & {\ underset {s> r \ geq 1} {\ Rightarrow}} & {\ xrightarrow {L ^ {r}}} && \\ && \ Downarrow && \\ {\ xrightarrow {ps}} & \ Rightarrow & {\ xrightarrow {\ p \}} & \ Rightarrow & {\ xrightarrow {\ d \}} \ end {matrix}}}
Convergência em probabilidade não implica convergência em nem convergência quase certa, como mostra o exemplo a seguir:
eur{\ displaystyle \ mathbb {L} ^ {r}}
Exemplo:
Seja r > 0 . Consideramos ( X n ) n ≥ 1 uma sequência de variáveis aleatórias independentes de modo que
P(Xnão=não1/r)=1nãoeP(Xnão=0)=1-1não{\ displaystyle \ mathbb {P} (X_ {n} = n ^ {1 / r}) = {\ frac {1} {n}} \ qquad {\ text {and}} \ qquad \ mathbb {P} ( X_ {n} = 0) = 1 - {\ frac {1} {n}}}
A sequência ( X n ) n converge em probabilidade para 0 porque
∀ε>0,∀não≥ε,P(|Xnão|≥ε)=P(Xnão=não1/r)=1não→0{\ displaystyle \ forall \ varepsilon> 0, \ qquad \ forall n \ geq \ varepsilon, \ qquad \ mathbb {P} (| X_ {n} | \ geq \ varepsilon) = \ mathbb {P} (X_ {n} = n ^ {1 / r}) = {\ frac {1} {n}} \ a 0}
Por outro lado, não converge porqueeur{\ displaystyle \ mathbb {L} ^ {r}}E[Xnãor]=1↛0{\ displaystyle \ mathbb {E} [X_ {n} ^ {r}] = 1 \ nrightarrow 0}
Deixe-nos mostrar que também não converge quase com certeza. Se fosse esse o caso, seu limite quase certo seria necessariamente seu limite em probabilidade, ou seja, 0. Agora, uma vez que e uma vez que as variáveis aleatórias X n são independentes, temos pela lei de Borel de zero-um :
∑nãoP(Xnão=não1/r)=+∞{\ displaystyle \ sum _ {n} \ mathbb {P} (X_ {n} = n ^ {1 / r}) = + \ infty}
P(lim supnão{Xnão=não1/r})=1{\ displaystyle \ mathbb {P} \ left (\ limsup _ {n} \ {X_ {n} = n ^ {1 / r} \} \ right) = 1}
ou seja, quase certamente X n = n 1 / r para um infinito de n . Portanto, quase com certeza, A fortiori X n não quase certamente converge para 0.
lim supnãoXnão=+∞.{\ displaystyle \ limsup _ {n} X_ {n} = + \ infty.}
Exemplo:
No exemplo anterior, para evitar o recurso à lei zero-um de Borel, podemos definir explicitamente a sequência X n como segue. Escolhemos Ω = [0; 1] fornecido com sua tribo Borelian e a medida Lebesgue . Posamos , para , então
no1: =0{\ displaystyle a_ {1}: = 0}nonão: =12+⋯+1não(mod1){\ displaystyle a_ {n}: = {\ frac {1} {2}} + \ cdots + {\ frac {1} {n}} {\ pmod {1}}}não≥2{\ displaystyle n \ geq 2}
eunão: ={[nonão-1,nonão]E se nonão-1<nonão[0,nonão]∪[nonão-1,1]E se nonão-1>nonão{\ displaystyle I_ {n}: = \ left \ {{\ begin {matrix} \ left [a_ {n-1}, a_ {n} \ right] & {\ text {si}} a_ {n-1} <a_ {n} \\\ esquerda [0, a_ {n} \ direita] \ xícara \ esquerda [a_ {n-1}, 1 \ direita] & {\ text {si}} a_ {n-1}> a_ {n} \ end {matriz}} \ direita.}
Finalmente definimos
Xnão(ω): ={não1/rE se ω∈eunão0E se ω∉eunão{\ displaystyle X_ {n} (\ omega): = \ left \ {{\ begin {matrix} n ^ {1 / r} & {\ text {si}} \ omega \ in I_ {n} \\ 0 & {\ text {si}} \ omega \ notin I_ {n} \ end {matriz}} \ right.}
Os X n assim definidos não são independentes, mas verificam como no exemplo anterior
P(lim supnão{Xnão=não1/r})=1{\ displaystyle \ mathbb {P} \ left (\ limsup _ {n} \ {X_ {n} = n ^ {1 / r} \} \ right) = 1}
Com algumas exceções, essas implicações não têm recíproca, estritamente falando. No entanto, aqui estão algumas propriedades úteis que podem ser descritas como "aparência de recíproca":
- Se X n converge em lei para uma constante real c , então X n converge em probabilidade para c .
- Se X n converge em probabilidade para X , então existe uma subsequência que converge quase certamente para X .Xσ(não){\ displaystyle X _ {\ sigma (n)}}
- Se X n converge em probabilidade para X , e se para todo n e algum b , então X n converge em média da ordem r para X para todo r ≥ 1 . Mais geralmente, se X n converge em probabilidade para X , e se a família ( XP(|Xnão|≤b)=1{\ displaystyle \ mathbb {P} (| X_ {n} | \ leq b) = 1}p
n) É integrável uniformemente, então X n converge em média de ordem p para X .
- Se para todos ε > 0 ,
∑nãoP(|Xnão-X|>ε)<∞,{\ displaystyle \ sum _ {n} \ mathbb {P} \ left (| X_ {n} -X |> \ varepsilon \ right) <\ infty,}
então X n converge quase certamente para X . Em outras palavras, se X n converge em probabilidade para X suficientemente rapidamente ( i . E . Os converge série acima de tudo ε > 0 ), então X n converge quase certamente como X . Isso resulta de uma aplicação direta do teorema de Borel-Cantelli .
- Seja ( X n ) n ≥ 1 uma sequência de variáveis aleatórias reais independentes. Para todos os n , definimos:
Snão=X1+⋯+Xnão{\ displaystyle S_ {n} = X_ {1} + \ cdots + X_ {n}}.
Então, a convergência quase certa da sequência ( S n ) n ≥ 1 é equivalente à sua convergência em probabilidade; em outras palavras, a convergência quase certa da série do termo geral X n é equivalente à sua convergência em probabilidade.
Notas e referências
-
Para obter mais informações sobre este exemplo, consulte Davidson e McKinnon 1993 , cap. 4
-
Vaart 1998 , p. 7
Bibliografia
- (pt) Russell Davidson e James McKinnon ( traduzido do alemão), Estimation and Inference in Econometrics , New York, Oxford University Press ,1993, 874 p. ( ISBN 978-0-19-506011-9 , LCCN 92012048 ) , p. 874
- (pt) GR Grimmett e DR Stirzaker , Probability and Random Processes , Oxford, Clarendon Press,1992, 2 nd ed. ( ISBN 0-19-853665-8 ) , p. 271-285
- (en) Adrianus Willem van der Vaart ( tradução do alemão), Asymptotic Statistics , Cambridge, Cambridge University Press ,1998, 1 r ed. , 443 p. , capa dura ( ISBN 978-0-521-49603-2 , LCCN 98015176 ) , p. 443
links externos
-
[1] : Curso de 1º ano na escola central de Paris sobre a convergência de variáveis aleatórias