théorie des probabilités corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfthéorie des...

26
Théorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs : – Karl-Friedrich Israel (ex 1.2, 1.4, 3.2, 3.4,6.4) – Rossi Abi Rafeh (ex 3.5, 4.1, 6.6, 6.7, 5.9, 5.10) – Malka Guillot (ex 1.1, 1.3) – François Grimaud (ex 2.2, 3.1) – Françoise Huang (ex 6.1) – Françoise Huang / Fernando Arce (ex 1.5, 2.1) – Pierre Grison (ex 4.2, 4.3) – Augustin Autrand (ex 4.5, 4.6) – Pierre Anquetil (ex 5.2) – Adrien Chenin (ex 5.6) Chapitre 1 Exercice 1.1 1. E(X) = 1 E(X) car si X v.a. telle que ImX = {1, 2} et que P (X = 1) = 1 4 Alors E(X)=7/4 et E( 1 X )= 5 8 2. On sait que V (X)= E(X 2 ) - E(X) 2 0, donc E(X 2 ) E(X) 2 3. Montrons que si X est symétrique par rapport à 0, alors E(X)=0 : Sq. x ImX, f X (x)= f X (-x) (si X admet une densité) Alors E(X)= E(-X) or E(X)= E(-X) par linéarité de léspérance. Donc 2.E(X) = 0 puis E(X)=0 4. E(XY )= E(X).E(Y ) faux sauf si X,Y indépendantes, car Cov(X, Y )= E(XY ) - E(X).E(Y ) Contrexemple : soit X ∼B( 1 2 ), alors E(X)= 1 2 , E(X 2 )= 1 4 , donc E(XY )= E(X).E(Y ) Exercice 1.2 1. + k=0 P (X>K)= + k=0 + i=k+1 P (X = i)= + i=1 i-1 k=0 P (X = i)= + i=1 iP (X = i)= E(X) 2. Mq E(X)= +0 P (X>t)dt - 0 -∞ P (X<t)dt par définition : E(X)= Ω XdP 1

Upload: others

Post on 19-Jul-2020

7 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Théorie des probabilitésCorrigé

Armand Joulin

2010-2011

Contributeurs :– Karl-Friedrich Israel (ex 1.2, 1.4, 3.2, 3.4,6.4)– Rossi Abi Rafeh (ex 3.5, 4.1, 6.6, 6.7, 5.9, 5.10)– Malka Guillot (ex 1.1, 1.3)– François Grimaud (ex 2.2, 3.1)– Françoise Huang (ex 6.1)– Françoise Huang / Fernando Arce (ex 1.5, 2.1)– Pierre Grison (ex 4.2, 4.3)– Augustin Autrand (ex 4.5, 4.6)– Pierre Anquetil (ex 5.2)– Adrien Chenin (ex 5.6)

Chapitre 1Exercice 1.1

1. E(X) 6= 1E(X) car si X v.a. telle que ImX = 1, 2 et que P (X = 1) = 1

4Alors E(X) = 7/4 et E( 1

X ) = 58

2. On sait que V (X) = E(X2)− E(X)2 ≤ 0, donc E(X2) ≤ E(X)2

3. Montrons que si X est symétrique par rapport à 0, alors E(X)=0 :Sq. ∀x ∈ ImX, fX(x) = fX(−x) (si X admet une densité)Alors E(X) = E(−X) or E(X) = E(−X) par linéarité de léspérance.Donc 2.E(X) = 0 puis E(X) = 0

4. E(XY ) = E(X).E(Y ) faux sauf si X,Y indépendantes, car Cov(X,Y ) = E(XY )− E(X).E(Y )Contrexemple : soit X ∼ B( 1

2 ), alors E(X) = 12 , E(X2) = 1

4 , donc E(XY ) = E(X).E(Y )

Exercice 1.21.

+∞∑k=0

P (X > K) =+∞∑k=0

+∞∑i=k+1

P (X = i) =+∞∑i=1

i−1∑k=0

P (X = i) =+∞∑i=1

iP (X = i) = E(X)

2. Mq

E(X) =∫ +∞

0P (X > t)dt−

∫ 0

−∞P (X < t)dt

par définition :E(X) =

∫ΩXdP

1

Page 2: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

par th. de transfert : ∫ΩXdP =

∫RxdPx(x) =

∫ +∞

0xdPx(x)︸ ︷︷ ︸I1

+∫ 0

−∞xdPx(x)︸ ︷︷ ︸I2

pour I1, en utilisant le th. de Fubini :∫ +∞

0xdPx(x) =

∫ +∞

0

∫ +∞

01[0,x](t)dtdPx(x) =

∫ +∞

0

∫ +∞

01x>t(x, t)dPx(x)dt

=∫ +∞

0P (X > t)dt

de même pour I2 : 1∫ 0

−∞xdPx(x) = −

∫ 0

−∞

∫ 0

−∞1[−x,0](t)dtdPx(x) = −

∫ 0

−∞

∫ 0

−∞1x<t(x, t)dPx(x)dt

−∫ 0

−∞P (X < t)dt

on a donc :E(X) = I1 + I2 =

∫ +∞

0P (X > t)dt−

∫ 0

−∞P (X < t)dt

3. Mq

E(|X − a|) =∫ +∞

a

(1− F (t))dt+∫ a

−∞F (t)dt

par le résultat précédent :

E(|X − a|) =∫ +∞

0P (|X − a| > t)dt−

∫ 0

−∞P (|X − a| < t)dt︸ ︷︷ ︸

=0 car |X−a|≥0 et t≤0

⇒ E(|X − a|) =∫ +∞

0 P (|X − a| > t)dt. Car |X − a| > t = X − a > t ∪ a−X > t :

E(|X − a|) =∫ +∞

0P (X > t+ a)dt+

∫ 0

−∞P (a− t > X)dt

en posant u = t+ a et v = a− t :

E(|X − a|) =∫ +∞

a

P (X > u)du+∫ a

−∞P (v > X)dv

et puisque P (X > u) = 1− P (X < u) et F (u) = P (u < X) :

E(|X − a|) =∫ +∞

a

(1− F (u))du+∫ a

−∞F (v)dv

4.f(a) = E(|X − a|)

f dérivablef ′(a) = −(1− F (a)) + F (a) = 2F (a)− 1 != 0

⇒ F (a) = 12

1. pour x < 0 on a x = −∫ 0−∞ 1[−x,0](t)dt

2

Page 3: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Exercice 1.31. Loi de (N1, . . . , Nk). Soit (n1, . . . , nk) ∈ [1, k]

– 1e cas :∑ni=1 ni 6= n

alors P (N1 = n1, . . . , Nk = nk) = 0

– 2e cas :∑ni=1 ni = n

alors

P (N1 = n1, . . . , Nk = nk) = Cn1n .pn1

1 .Cn2n−n1

.pn22 . · · · .Cnk

n−∑k−1

i=1

.pnkk

= n!n1! · · ·nk! .p

n11 . · · · .pnkk

Ou bien :

P (N1 = n1, . . . , Nk = nk) = P (N1 = n1)P (N2 = n2, . . . , Nk = nk|N1 = n1)= P (N1 = n1)P (N2 = n2|N1 = n1)

P (N3 = n3, . . . , Nk = nk|N1 = n1 ∩N2 = n2)

D` où par récurrence : P (N1 = n1, . . . , Nk = nk) = n!n1!···nk! .p

n11 . · · · .pnkk

2. Loi marginale de Nj Soit j ∈ [1, k − 1]

P (Nj = nj) =∑

n1,...,nj−1,nj+1,...,nk∈[1,k]k−1

P (N1 = n1, . . . , Nk = nk)

Sachant que l’on ak∑i=1i6=j

ni = n− nj

P (Nj = nj) = n!(n− nj)!nj

.pnjj .

∑n1,...,nj−1,nj+1,...,nk∈[1,k]k−1

n− njn1! · · ·nj−1!nj+1! · · ·nk! .p

n11 . · · · .pnj−1

j−1 .pnj+1j+1 . · · · .p

nkk

Rappel sur la multinome de Newton : ∀n ∈ N∗,∀p ∈ N∗,∀(x1, . . . , xp) ∈ Rp

(x1 + · · ·+ xp)n =∑

(n1,...,np)∈[1,n]∑n

i=1ni=n

n!n1!. · · · .np!

.xn11 . · · · .xnpp

Donc

P (Nj = nj) = Cnjn .pnjj (

k∑i=1i 6=j

pi)n−nj

P (Nj = nj) = Cnjn .pnjj (1− pj)n−nj

Autre méthode.Nj ∼ B(n− nj , pj)Soit Fj = C

njn .p

njj (1− pj)n−nj , on a

∑k−1i=1 Fj = 1

Soit également Gj = P (N=nj)Fj

On a Nj =∑ni=1X

ij où Xi

j ∼ B(pj)

D` où E(Nj) =n∑i=1

E(Xij) =

n∑i=1

pj = n.pj

et V (Nj) = V (n∑i=1

Xij) =

n∑i=1

V (Xij)− 2

∑1≤i≤l≤n

Cov(Xij , X

lj)

3

Page 4: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Or ∀i, l, Cov(Xij , X

lj) = 0 car les (Xi

j) sont indépendants.

Donc V (Nj) =n∑i=1

(pj − p2j ) = n.pj(1− pj)

3. Calcul de P (N1 = n1|N2 = n2)

P (N1 = n1|N2 = n2) = P (N1 = n1, N2 = n2)P (N2 = n2)

P (N1 = n1|N2 = n2) =

Cn1n .pn1

1 .Cn2n .pn2

2 .∑

n1,...,nk∈[1,n]n∑i=3

ni=n−n1−n2

P (N3 = n3, . . . , Nk = nk)

Cn2n .pn2

2 (1− p2)n−n2

P (N1 = n1|N2 = n2) = Cn1n−n2

.pn11 .

(1− p1 − p2)n−n1−n2

(1− p2)n−n2

Verification :

∑0≤n1≤n−n2

P (N1 = n1|N2 = n2) =

∑0≤n1≤n−n2

Cn1n−n2

.pn11 .(1− p1 − p2)n−n1−n2

(1− p2)n−n2∑0≤n1≤n−n2

P (N1 = n1|N2 = n2) = (p1 + (1− p1 − p2))n−n2

(1− p2)n−n2∑0≤n1≤n−n2

P (N1 = n1|N2 = n2) = 1

Exercice 1.51.

Y = −1λ

ln (1−X)

X suit une loi uniforme sur [0, 1[ donc Y sur ]0,+∞[.Calculons la fonction de répartition de Y :

FY (u) = P(Y ≤ u)

= P(−1λ

ln (1−X) ≤ u)

= P(ln (1−X) ≥ −λu)= P(X ≤ 1− exp(−λu))= (1− exp(−λu))1u≥0

Donc Y suit une loi exponentielle de paramètre λ.2. Soit l’inverse généralisé de F :

F−(t) = infs|F (s) ≥ tMontrons que ∀t ∈ [0, 1], F−(t) ≤ u⇔ t ≤ F (u)

⇒)infs|F (s) ≥ t ≤ u et F étant croissante, on a F (u) ≥ F (s) ≥ tOn a la réciproque par définition d’un inf

Déterminons la loi de Y = F−1(X)P(F−1(X) ≤ t) = P(X ≤ F (t)) = F (t) car X suit une loi uniforme sur [0, 1[

Donc la fonction de répartition de F−1(X) est F .

4

Page 5: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Chapitre 2Exercice 2.1

1. Soit X = (X1, X2) ∈ R2 un vecteur aléatoire Gaussien de densité par rapport à la mesure deLebesgue sur R2 :

∀(x1, x2) ∈ R2, f(x1, x2) =exp −(x2

1+x22)

22π

Soit g : R\(0, 0) → R∗+ × [0, 2π[ inversible telle que

g−1(r, θ) = (r cos θ, r sin θ) et g(X1, X2) = (R,Θ)

Montrons tout d’abord que g−1 est un C1-difféomorphisme.

|Jac(g−1)| =∣∣∣∣ cosθ −r sin θ

sin θ r cos θ

∣∣∣∣ = r

Or r>0 donc |Jac(g−1)| 6= 0. De plus g−1 est injective, donc par théoréme d’inversion global, g−1

est bien un C1-difféomorphisme.Déterminons la loi de (R,Θ) :

f(r,θ) = fg(X1,X2)(r cos θ, r sin θ)|Jac(g−1)| = (r exp(−r2

2 ))(1θ∈[0,2π[2π )

Identifions la loi en faisant un changement de variable :pour u ∈]0, 1], u = exp −r

2

2 donc r =√−2 ln u

∂r

∂u= 1

2−2√−2 ln u

1u

= −1u√−2 ln u

6= 0

∀u ∈]0, 1], fu(u) = fr(√−2 ln u)× −1

u√−2 ln u

= u√−2 ln u× 1

u√−2 ln u

= 1

Finalement, f(r,θ) = 1θ∈[0,2π[2π donc u suit une loi uniforme sur [0, 1[ et θ suit la loi uniforme sur

[0, 2π[.

Exercice 2.21. Soit φ : R2+ → R

∗+ × [0, 1[ inversible telle que

φ−1(u, v) = (uv, u(1− v)) et φ(x, y) = (x+ y,x

x+ y)

Montrons tout d’abord que g−1 est un C1-difféomorphisme.

|Jac(φ−1)| =∣∣∣∣ v u

1− v −u

∣∣∣∣ = | − u|

5

Page 6: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Or u>0 donc |Jac(φ−1)| 6= 0. De plus φ−1 est injective, donc par théoréme d’inversion global, φ estbien un C1-difféomorphisme.

Donc,

fφ(X,Y )(u, v) = fX,Y (uv, u(1− v))= fX(uv)fY (u(1− v))|Jac(φ−1(u, v))|

= θp+q

Γ(p)Γ(q)up+q−1 exp(−θu)1u>0v

p−1(1− v)q−11v∈]0,1[

Donc X + Y suit une loi γ(p+ q, θ)Et X

X+Y β(p, q) et ils sont indépendants car la densité jointe est égale au produit des deux densités

Exprimons le coefficient B(p, q) à l’aide de la fonction gamma :

Γ(p)Γ(q) = (∫ +∞

0tp−1 exp(−t)dt)(

∫ +∞

0tq−1 exp(−u)du))

=∫ +∞

0

∫ +∞

0tp−1 exp(−t)uq−1exp(−u)dtdu

=∫ +∞

0

∫ 1

0(xy)p−1 exp(−xy)xq(1− y)q−1 exp(−x(1− y))dxdy

=∫ +∞

0xp+q−1 exp(−x)dx

∫ 1

0yp−1(1− y)q−1dy

= γ(p+ q)B(p, q)

D’où : B(p, q) = Γ(p)Γ(q)Γ(p+q)

2. Soit ψ : R2+,∗ → R2

+,∗ inversible telle que ψ(x, y) = (x, xy ) et ψ−1(u, v) = (u, uv )

|Jac(ψ−1)| =∣∣∣∣ 1 0

1v

−uv2

∣∣∣∣ = | uv2 |

Donc ψ est un C1 difféomorphismeEt, fψ(X,Y )(u, v) = fX(u)fY (uv ) uv2 par indépendanceDonc,

fXY

(v) =∫ +∞

0

θp+q

Γ(p)Γ(q)up−1 exp(−θu)(u

v)q−1 exp(−θu

v) uv2 du

= θp+q

Γ(p)Γ(q)1

vq+11v>0

∫ +∞

0up+q−1exp(−θu(1 + 1

v)du

Or,

up+q−1 exp(−θu(1 + 1v

)) ∼ Cste.Γ(p+ q, θ(1 + 1v

))

D’où, ∫ +∞

0up+q−1exp(−θu(1 + 1

v))θp+qdu = Γ(p+ q)

(1 + 1v )p+q

6

Page 7: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Finalement,

fXY

(v) = vp−1

(1 + v)p+q 1v>01

vp+qΓp+q

Γ(p)Γ(q)

= 1B(p, q)

vp−1

(1 + v)p+q 1v>0

7

Page 8: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Chapitre 3Exercice 3.1 : lois du Chi-2 et de Student

1. Au rang 1 :fY (y) = 2 1√

2π1

2√y exp(−y2)

(Remarque : on multiplie par 2 puisque le changement de variable oblige à se restreindre à R+∗)

On procède ensuite par récurrence. Supposons le résultat vrai pour un n ∈ N. Montrons qu’il estvrai pour n+ 1 :

On a Yn+1 = Yn +X2n+1 et de plus Yn

∐X2n+1 donc fYn+1 = fYn ∗ fX2

n+1.

donc

fYn+1(y) =∫R

1R+(s) ∗ 12n2 Γ(n2 )

e−x2 ∗ xn2−1 ∗ 1R+(y − x) 1√

2π1

2√y − x

dx

= 1y≥0e− y2 y

n+12 −1 2

−(n+1)2

Γ(n+12 )

On utilise en effet le résultat :

B(n2 ,12 )

√2π2n2 Γ(n2 )

=B(n2 ,

12 )

2n+12 Γ(n+1

2 )B(n2 ,12 )

2. On a

E(Y1) = E(X21 ) = 1

d’où

E(Yn) = E(∑

X2i ) =

∑E(X2

i ) = n

De même

V ar(Yn) = V ar(∑

X2i )

=∑

V ar(X2i ) par indépendance

=∑

(E(X4i )−E(X2

i )2)= 2n

Par I.P.P, on montre que :

E(X4i ) = 3

3. Loi de Student.Soit ψ : RxR+∗ → RxR+,∗ inversible telle que

ψ(t, s) = ( x√y, y)

etψ−1(x, y) = (t

√s, s)

8

Page 9: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

|Jac(ψ−1)| =∣∣∣∣ √s t

2√s

0 1

∣∣∣∣ =√s

Donc ψ est un C1 difféomorphisme

fT ′n(t) =∫R+∗

1√2π

12n2 Γ(n2 )

exp(−s2(1 + t2))sn+1

2 −1ds

= 1√π

Γ(n+12 )

Γ(n2 ) (1 + t2)−n+1

2

Puis par changement de variable simple Tn =√nT ′n, on a directement :

fT ′n(y) = 1√nπ

Γ(n+12 )

Γ(n2 ) (1 + y2

n)−

n+12

4. ∫R|y|αfTn(y)dy = 1√

Γ(n+12 )

Γ(n2 )

∫R|y|α(1 + y2

n)−(n+1)

2 dy

en +∞ :

|y|α(1 + y2

n)−

n+12 ∼∞ |y|α

|y|−(n+1)

n−(n+1)

2

Pour α = 1 (moment d’ordre 1) :

|y|α(1 + y2

n)−

n+12 ∼∞ Cste.|y|−n

Donc c’est intégrable pour n > 1.

Pour α = 2 (moment d’ordre 2) :

|y|α(1 + y2

n)−

n+12 ∼∞ Cste.|y|−(n−1)

Donc c’est intégrable pour n > 2.

Exercice 3.2

Fz(z) = P [Z ≤ z] = P [−2n∑i=1

logF (Xi) ≤ z] = P [n∑i=1

logF (Xi) ≥ −z

2 ]

par propriétés de log :

= P [log(n∏i=1

F (Xi)) ≥ −z

2 ] = P [n∏i=1

F (Xi) ≥ e−z2 ]

par équivalence des Xi :

= P [F (X1)n ≥ e− z2 ] = P [F (X1) ≥ e− z2n ] = P [X1 ≥ F−1(e− z

2n )]

= 1− P [X1 ≤ F−1(e− z2n )]

= 1− F (F−1(e− z2n ))

= 1− e− z2n

Z suit la loi exponentielle

9

Page 10: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Exercice 3.31. La proposition est vraie pour p=1. On suppose qu’elle est aussi vraie pour un certain p fixé dans N.

càd :

Z =p∑i=1

Xi ∼ P(p∑i=0

λi = λz)

On cherche la loi de Z +Xp+1

P [Z +Xp+1 = K] =K∑i=0

(e−z zi

i! )(e−λp+1λk−ip+1

(k − i)! )

= e−(z+λp+1)

k!

k∑i=0

k!i!(k − i)!z

iλk−ip+1︸ ︷︷ ︸formule du binome

= e−(z+λp+1)

k! (z + λp+1)k

ce qui démontre la proposition.2.

Nn =n∑i=1

1Xi=0

P [Xi = 0] = e−λi . Alors si λ1 = λ2 = ... = λi = ... = λn = λ :

Nn ∼ B(n, eλ)

sinon :

E(Nn) =n∑i=1

e−λi V ar(Nn) =n∑i=1

e−λi(1− eλi)

Exercice 3.4Soit (X)n∈N une suite de variables aléatoires réelles indépendantes.1. Mq

P (supnXn < +∞) = 1⇔ ∃A > 0, t.q.

+∞∑n=1

P (Xn > A) < +∞

(⇐)on pose An = (Xn > A), n ∈ N. On a

∑n∈N P (An) < +∞ : Donc par B.C. :

P (lim supn

(An)) = 0

il est donc impossible, qu’une infinité de An soient réalisées. Donc ∃k ∈ N et I ⊂ N de cardinal k,t.q. ∀i ∈ I,Xi > A et ∀i /∈ I,Xi ≤ A On a alors :

sup((Xn)n∈N) = sup((Xi)i∈I , A)

⇒ ( supN∈N

Xn < +∞) = (supi∈I

Xi < +∞)

Or P (supi∈I(Xi) < +∞) = 1 car I est fini et @Xi = +∞.

(⇒)On suppose que P (supn∈NXn < +∞) = 1 (∗). Raisonnement par l’absurde :Si ∀A ∈ R+,

∑n∈N P (Xn > A) diverge. Càd

∑n∈N P (Xn > A) = +∞, on peut appliquer B.C. car

les (Xn > A) sont indépendantes (puisque les Xn le sont). On obtient :

P (lim supn

An) = 1, ∀A ∈ R

Ce qui montre que supn∈NXn = +∞ : Contradiction avec (∗).

10

Page 11: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

2. On suppose de plus que les Xn suivent la même lois. Mq :

P (Xn

n→ 0) = 1⇔

∫Ω|X1|dP < +∞

(⇒)On suppose que P (Xnn → 0) = 1. (Xnn )n∈N converge p.s. et donc elle est bornée p.s. Alors∃M > 0,∀n ∈ N t.q. |Xnn | ≤M donc |Xn| ≤M · n pour n = 1 : |X1| ≤M et on a bien :∫

Ω|X1|dP < +∞

(⇐)On utilise la loi forte des grands nombres (Kolmogorow, 1929) :

Si (Xn)n∈N est une suite de v. a. i.i.d. on a équivalence entre :i E(|X1|) < +∞ii la suite X1+...+Xn

n converge p.s.De plus, si l’une de ces deux conditions équivalentes est remplie, alors la suite X1+...+Xn

n convergep.s. vers la constante E(X1)

On suppose∫

Ω |X1|dP < +∞ donc Snn = X1+...+Xn

n

n→+∞−−−−−→p.s.

E(X1). On a Xnn = Sn

n −Sn−1n = Sn

n −n−1n

Sn−1n−1

n→+∞−−−−−→p.s.

E(X1)−(limn→+∞n−1n )E(X1) = (limn→+∞

1n )E(X1). Et puisque E(|X1|) < +∞

on a bien :Xn

n

n→+∞−−−−−→p.s.

0

Càd :P (Xn

n→ 0) = 1

Remarques concernant le dernier TDOn montre d’abord les implications suivantes :

P( limn→∞

Xn = X) = 1 ⇒ P(∀ε ≥ 0,∃n ≥ 0,∀k ≥ n, | Xk −X |≤ ε) = 1

⇒ P(∀p ∈ N∗,∃n ≥ 0,∀k ≥ n, | Xk −X |≤1p

) = 1

⇒ P(∩p≥1 ∪n≥0 ∩k≥n | Xk −X |≤1p

) = 1

⇒ ∀p ≥ 1,P(∪n≥0∩k≥n | Xk −X |≤1p

) = 1

⇒ ∀ε ≥ 0,P(∪n≥0∩k≥n | Xk −X |≤ ε) = 1⇒ ∀ε ≥ 0,P(∪n≥0 | Xk −X |≤ ε)n→∞ 1

⇒∑n

P(| Xk −X |≥ ε) ≤ ∞

On obtient l’équivalence en ajoutant l’hypothèse d’indépendance des Xn.

Exercice 3.5Soit X une variable aléatoire de densité h1. On a alors λX une variable aléatoire de densité hλ, où

λ ∈ R. Soit g une fonction bornée presque partout. Cela équivaut à

∃B/µ(B) = 1,∃c ∈ R/∀x ∈ B, | g(x) |≤ c

11

Page 12: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

On a alors :limλ→0

(g ∗ hλ)(x0) = limλ→0

∫R

g(x0 − y)hλ(y)dy

On applique le lemme de transport. On obtient alors :

limλ→0

(g ∗ hλ)(x0) = limλ→0

∫R

g(x0 − λx)hλ(λx)︸ ︷︷ ︸h1(x)

dx

On applique alors le théorème de convergence dominée en posant :

φ : (λ, x)→ g(x0 + λx)h(x)

Les hypothèses suivantes sont vérifiées :

– ∀x ∈ B, | φ(λ, x) |≤ c h(x)– φ(λ, .)→C.S

λ→0 g(x0)h1(x)– φ est continue par rapport à λOn obtient alors :

limλ→0

(g ∗ hλ)(x0) =∫R

limλ→0

g(x0 − λx)h1(x)dx

= E( limλ→0

g(x0 − λx)) = g(x0)

D’où le résultat.

12

Page 13: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Chapitre 4Exercice 4.1

1. On a (Xn)N ∼ B(1, pn), où les Xi sont indépendantes.On rappelle qu’on a :

∀n ∈ N

P(Xn = 0) = 1− pnP(Xn = 1) = pn

On a :

(∀ε > 0,P(| Xn |> ε)→n→∞ 0)⇒ pn → 0

car :

P(| Xn |> ε) =

pn si ε ∈]0; 1]0 si ε > 1

Réciproquement, supposons que pn →n→∞ 0. Puisque on a :

P(| Xn |≥ ε) = pn ou 0 selon que pn > ou < 0

On a clairement que :

∀ε ≥ 0, limn→∞

P(| Xn |≥ ε) = 0

D’où le résultat.D’où l’équivalence.

2. Montrons que :

Xn →PSn→0= X ⇔

∑n∈N

pn <∞

En considérant que les Xn sont indépendants, on a :

Xn →PSn→0= X ⇔ ∀ε > 0,

∑n∈N

P(| Xn |≥ ε) <∞ d’après le cours.

Donc :

Xn →PSn→0= X ⇔ ∀ε > 0,

∑n∈N

pn <∞ toujours d’après le cours.

Exercice 4.21. cf. ce qui précède2. (a) On pose :

Xn = Ynns

On a :

P(| Xn |≥ ε) = P(| Yn |≥ εns)= P((Yn ≥ εns) ∪ (Yn ≤ −εns))= P(Yn ≥ εns) +P(Yn ≤ −εns)≥ P(Yn ≥ εns)

13

Page 14: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Or :

P(Yn ≥ εns) = 1− F0(nsε)

Et :

F0(nsε)→n→∞ 1

car F0 ∈ C0.

On obtient alors que :

P(| Xn |) ≥ ε→n→∞ 0,∀ε ≥ 0

D’où la convergence en proba.(b) On a :

Xn →ps 0 ⇔∑n

P(| Xn |≥ ε) <∞

⇔∑

(P(Yn ≥ εns) +P(Yn ≤ −εns)) <∞

⇔∑

(1− F0(εns) + F0(εns) <∞

(c) Si Y ∼ eθ. On a F0(y) = 1− e−θy et :

(1− F0(εns) + F0(εns)︸ ︷︷ ︸=0

= 1− (1− e−θεns

)

Donc le terme principal de la série vaut :

e−θεns

On a de plus :

e−θεns

= ∞( 1n2 )

D’où la convergence de la série, et d’après ce qui précède, d’où la convergence presque sûre dela suite (Xn)N.

3. On rappelle que :Xn →loi⇔ ∀f ∈M,E(f(Xn))→ E(f(X))

Montrons la convergence en proba. On a :

P(| Xn |≥ ε) = E(1|Xn|≥ε)= E(1|Yn|≥nsε)

Soit N > 0. ∀n ≥ N , on a :P(| Yn |≥ nsε) ≤ E(1Yn≥Nsε)

car :Yn ≥ nsε ⊂ Yn ≥ Nsε

On a alors, en utilisant l’hypothèse de convergence en loi :

E(1Yn≥Nsε)→n→∞ E(1|Y |≥Nsε) = P(| Xn |≥ Nsε)

14

Page 15: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Or :

P(| Xn |≥ Nsε)→N→∞ 0

Donc :

P(| Xn |≥ ε)→n→∞ 0

D’où le résultat.

Exercice 4.3Soit Un une suite de variables aléatoires indépendantes de même loi.

∀n ∈ N, Un ∼ N (0, 1)

On pose :

Vn =n∑k=1

k−βUk, β > 0

∀n ∈ N la variance de Vn vaut∑nk=1 k

−2β . La variance converge donc si, et seulement si, β > 12 .

En outre, on a :

P(| Vn − V |≥ ε) ≤ V ar(Vn − Vε2

≤ 1ε2

∞∑k=n+1

k−2β

≤ 1ε2

∫ ∞n+1

dt

t2β

Or : ∫ ∞n+1

dtt2β

= − 12β + 1

[1

t2β−1

]∞n+1

donc :

P(| Vn − V |≥ ε) ≤1

2β − 11

n2β−1

Or si β > 1, on a la convergence de la série de terme général 1n2β−1 . Donc finalement, on a aussi la

convergence presque sûre de la suite Vn.En résumé, si β < 1

2 , on n’a pas la convergence. Pour β > 1, on a par contre la convergence. Examinonsle dernier cas :

Soit β < 1. On va utiliser le fait que

P(Vn CV )⇔ P(Vn de Cauchy )On a ∀k, n ∈ N :

(Vn+k − Vn) ∼ N (0,p=n+k−1∑p=n

1p2β

)

donc :

P(| Vn+k − Vn |≥ ε) = P(| U1 |≥ εp=n+k−1∑p=n

1p2β

)

15

Page 16: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Exercice 4.5

P(Mn ≤c.ln(n)) =P(n⋂k=1

[Xk≤c.ln(n)]) =n∏k=1

P[Xk≤c.ln(n)]

= (1-exp(-cln(n)))n =(1- 1nc )

n

An= Mn

ln(n)≤c

P(An)=(1- 1nc )n =exp(n.ln(1- 1

nc ))

Or n.ln(1- 1nc ) ∼-

1n(c−1)

(1- 1nc )n ∼ exp( 1

n(c−1) ) qui converge pour c<1 (cf 4.2)

Soit c=1-a, avec a>0

∑nn=1P(An)<+∞ donc P(limsupAn)=0 limsup(An)=

∞⋂n

⋃∞p=nAp

P(∞⋂n

⋃∞p=n(w tq Mn(w)

ln(p) − 1 > −a)) = 1

P(∞⋂n

(w tq infp≥nMn(w)ln(p) − 1 > −a)

P(w tq supn infp≥nMn(w)ln(p) − 1 > −a)

P(w tq liminf Mn(w)ln(p) − 1 > −a) =1

P( Mn

ln(n) ≥ 1 + a)=1-P( Mn

ln(n) ≤ 1 + a)=1-(1- 1na )

P( Mn

ln(n) ≥ 1 + a) ∼ exp(- 1na )

P( Mnbln(nb) ≥ 1 + a) ∼ 1

k(a.b) converge si b > 1a (c’est le cas)∑∞

n=1 P( Mnbln(nb) ≥ 1 + a) < + ∞

Par Borel Cantelli

P(∞⋂n

⋃∞p=n

Mnpln(np) > 1 + a) =0

P(∞⋂n

⋃∞p=n

Mnpln(np) − 1 ≤ a) = 1

P(∞⋂n

(w tq supp≥nMn(w)ln(p) − 1 ≤ a) = 1

P(w tq infn supp≥n Mn(w)ln(p) − 1 ≤ a) = 1

P(w tq limsup Mn(w)ln(p) − 1 ≤ a) =1

Conclusion

limsup Mnbln(nb)

p.s.−→ 1

liminf Mnbln(nb)

p.s.−→ 1

Ainsi, par encadrement,

16

Page 17: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

lim Mnbln(nb)

p.s.−→ 1

Exercice 4.6Xn suite de variables indépendantes, identiquement distribuées.

E(X1) = E(Xk) = µ

Sn =n∑k=1

Xk

1. P (Sn ≥ n.a) avec a > µ quand n → +∞

Loi faible des grands nombres

Snn

P−→ µ < a

P(|Snn − µ| > ε

)→ 0

µ < a

P (Snn > a) = P(Snn − µ > a− µ

)→ 0

or a−µε > 0

2. ∃ k > 0/E(exp(θn.X1)) < +∞

E(exp(θ.X1)) < +∞ ∀θ ∈]θ1, θ0]

∀θ < θ0, θ1 < θ0

exp (θ.X1) < 1 si X1 < 0

exp (θ.X1) < exp (θ0.X1) si X1 > 0

E(exp(θ.X1)) < P (X1 < 0) + P (exp (θ0.X1)) < +∞

3. φ(0) = E(exp (θ0.X1)

On veut que P (Sn ≥ n.a) ≤ exp (−n.(aθ − ln(φ(θ))))

Inégalité de Markov avec f = exp θ avec θ > 0

f croissante P (X ≥ a) ≤ E(f(X))f(a)

P (Sn ≥ n.a) ≤ E(exp(θ.Sn)) = exp(−θn.a)

17

Page 18: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

E(exp(θ.Sn)) = E(exp(θ.n∑k=1

Xk))

= E(n∏k=1

exp(θ.Xk))

=n∏k=1

E(exp(θ.Xk))

= E (exp(θ.Xk))n

= [φ(θ)]n

donc P (Sn ≥ n.a) ≤ exp(ln[φ(θ)]n). exp(−nθ.a)

18

Page 19: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Chapitre 5Exercice 5.2

Pour X variable aléatoire réelle ayant une fonction caractéristique de la forme

Φx(t) = eAt2+Bt+C

On aΦx(0) = E(1) = 1

etΦx(0) = eC

D’oùC = 0

Φ′x(t) = (At2 +Bt)′eAt2+Bt+C = (2At+B)eAt

2+Bt+C

DoncΦ′x(0) = B

OrΦ′x(0) = iµ

D’oùiµ = B

On aσ2 = E(X2)− E(X)2

OrE(X2) = −Φ′′x(0)

Et ici :Φ′′x(0) = 2A+B2

Doncσ2 = −2A−B2 − µ2 = −2A−B2 +B2 = −2A

Or on sait que si (et seulement si) X → N (µ, σ2) alors sa fonction caractéristique est de la forme

Φx(t) = e−σ2t2

2 +µit

19

Page 20: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Exercice 5.61. Pour Xn de moyenne m et de variance σ2, on pose :

X ′n = Xn −mσ

Y ′ =∑

X ′ = Y − nmσ

Z ′ =∑

(X ′n −∑X ′nn

)2

Alors on a :

Z ′ =∑

(Xn −mσ

∑Xn

σ

n+ m

σ)2

Z ′ =∑

(Xn −m)2

σ2

donc :

Z ′ = Z

σ2

Y ′ = Y − nmσ

donc Y et Z sont indépendants si et seulement si Y’ et Z’ le sontFinalement : Y et Z sont gaussiens si et seulement si Y’ et Z’ le sont.

2.

Z =n∑i=1

(X2i − 2Xi

∑nj=1Xj

n+

(∑nj=1Xj)2

n2

Z = (n∑i=1

X2i )− 2

∑ni=1∑nj=1XiXj

n+

(∑nj=1Xj)2

n+ 2

∑i<j XiXj

n2

Z = (n∑i=1

X2i )−

(∑ni=1Xi)2

n− 4

∑i<j XiXj

n+ 2

∑i<j XiXj

n

Z = (1− 1n

)n∑i=1

X2i − 2

∑i<j XiXj

n

d’ou, puisque E(X2i ) = 1 et E(Xi) = 0 (Xi centree reduite) :

E(Z) = (1− 1n

)n∑i=1

1− 2∑i<j E(Xi)E(Xj)

n

E(Z) = n− 1

3. Par independance de Y et de Z :

E(ZeiuY ) = E(Z)E(eiuY )

E(ZeiuY ) = E(Z)E(n∏k=1

eiuXk)

E(ZeiuY ) = E(Z)Φ(u)n

20

Page 21: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

4.

E(ZeiuY ) = (1− 1n

)n∑j=1

E(X2j eiuY )− 2

∑j<k E(XjXke

iuY

n

E(ZeiuY ) = (1− 1n

)n∑j=1

E(X2j

n∏k=1

eiuXk)− 2∑j<k E(XjXk

∏nl=1 e

iuXl)n

or :

E(X2j

n∏k=1

eiuXk) = E(X2j eiuXj )(E(eiuX1))n−1

E(XjXk

n∏l=1

eiuXl) = E(XjeiuXj )E(Xke

iuXk)(E(eiuX1))n−2

De plus :Φ(u) = E(eiuX)

Φ′(u) = iE(XeiuX)

Φ”(u) = −E(X2eiuX)

donc :

E(ZeiuY ) = (1− 1n

)n∑i=1−Φ”(u)(Φ(u))n−1 − 2

∑j<k −(Φ′(u))2(Φ(u))n−2

n

E(ZeiuY ) = −(n− 1)(Φ(u))n−1Φ”(u) + 2(Φ′(u))2(Φ(u))n−2

n

n(n− 1)2

d’ou, finalement :E(ZeiuY ) = (n− 1)Φ(u))n−1((Φ

′(u))2 − Φ(u)Φ”(u))

5. Prouvons que Φ n’est jamais nulle : Supposons, par l’absurde, que Φ s’annule en u0. Alors Φ′(u0) = 0.D’apres le théorème de Cauchy-Lipschitz, Φ est la fonction nulle. C’est absurde.Donc Φ n’est jamais nulle. En divisant par Φ(u))n−1, on obtient l’équation différentielle suivante :

Φ”(u)Φ(u)− (Φ′(u))2 = (Φ(u))2

Donc(Φ′

Φ )′

= −1

Finalement :(ln Φ(u))

′= −u+B

avec B constante réelle

Φ(u) = e−u22 +Bu+C

avec C constante réelleor B = C = 0 d’apres l’exercice 5.2 donc

Φ(u) = e−u22

donc X suit une loi normale centree reduite.

21

Page 22: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Exercice 5.9X et Y sont des variables aleatoires iid et suivent la loi U[0,1], D = X − Y1. (a) Produit de convolution → fX+Y = fX ∗ fY

donc fX−Y = fX ∗ f−Y ou f−Y (y) = fY (−y)fX−Y =

∫s∈R fX(u− s)fY (−s)ds

=∫s∈R 1[0,1](u− s)1[0,1](−s)ds,−1 ≤ s ≤ 0, u− 1 ≤ s ≤ u

s ∈ [0, 1]⇒ u ∈ [−1, 1]fX−Y (u) =

∫ 0−1 1[0,1](u− s)ds

– u ≤ 0,−1 ≤ s ≤ u, fX−Y (u) =∫ u−1 ds = 1− u

– u ≥ 0, u− 1 ≤ s ≤ 0, fX−Y (u) =∫ 0u−1 ds = 1− u

Donc fX−Y (u) = (1− |u|)1u∈[−1,1](b) Loi de aD, a ≥ 0

φ : u→ au φ−1 : s→ s

a(φ−1)′ = 1

a

fas(t) = 1a

(1− |t|a

1t∈[−a,a])← πa

(a)

πa(t) =∫R

exp(−itx)πa(x)dx

=∫ a

−aexp(−itx) 1

a(1− |x|

a)dx

= 1a

∫ 0

−a(1 + x

a) exp(−itx)dx+ 1

a

∫ a

0(1− x

a) exp(−itx)dx

= 2a2t2

(1−Re(exp(ita)))

(b) x 7→ 1π

1−cos(ax)ax2 (≥ 0) π−1

a (t) = 12π∫w

exp(iwt)πa(w)dw = πa(t)π−1a = πa(0) = 1

a donc∫f(x)dx = aπa(0) = 1

de plus f(x) ≥ 0∀xDonc f est une densite de probabilite.

(c)

La(w) = 12π

∫exp(−iwt)La(t)dt

= 12π

∫exp(−iwt)πaπa(t)dt

= πaπa(−w)

C’est des lois complementaires.

Exercice 5.10P1 proba sur (R,BR)← φ1, f1

P2 proba sur (R,BR)← φ2,φ1‖φ1‖

Soit t ∈ R

φ2(t) = E[exp(itf2)]

=∫R

exp(ity)f2(y)dy

= 1‖φ1‖

∫R

exp(ity)φ1(y)dy

= 2π‖φ1‖

12π

∫R

exp(ity)φ1(y)dy

22

Page 23: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Doncφ2(t) = 2π

‖φ1‖1φ1(−t),∀t ∈ R

23

Page 24: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Chapitre 6Exercice 6.1

On considere 2n+1 points repartis independamment et uniformement sur [0,1].Soit Vn+1 le (n+1)-eme dans l’ordre croissant. Calculer la densite de Vn+1 et en deduire celle de

Xn = 2√

2n(Vn+1 −12) (1)

On note les points Ai. Ils suivent une loi normale centree reduite.Soient A ∈ [0, 1], m ∈ 1, ..., n+ 1 et Nn+1 l’evenement "au moins n+ 1 points sont inferieurs a A".

P(Nn+1) = P(n+1⋃i=1

(n+ i)points ≤ A)

=n+1∑i=1

P((n+ i)points ≤ A)

Puisque les evenements sont disjoints.

F (A) =n+1∑i=1

Cn+i2n+1A

n+i(1−A)n+1−i

D’ou :

f(A) =n+1∑k=1

Cn+k2n+1((n+ k)An+k−1(1−A)n+1−k − (n+ 1− k)An+k(1−A)n−k−1

=n∑k=1

(2n+ 1)Cn+k−12n An+k−1(1−A)n+1−k −

n∑k=1

(2n+ 1)Cn+k2n An+k(1−A)n−k−1

= (2n+ 1)[n∑k=1

Cn+k−12n An+k−1(1−A)n+1−k −

n+1∑k=2

Cn+k−12n An+k−1(1−A)n+1−k]

= (2n+ 1)[Cn2n(A(1−A))n − C2n+12n (A(1−A))2n]

= (2n+ 1)Cn2n(A(1−A))n

Soit T : Vn+1 7→ Xn = 2√

2n(Vn+1 − 12 )

Alors T−1(x) = x2√

2n + 12

Calculons la densite de Xn :

fXn(x) = fVn+1(T−1(x))|(T−1)′(x)|

= 2n+ 12√

2nCn2n( x

2√

2n+ 1

2)n(12 −

x

2√

2n)n

= 2n+ 12√

2nCn2n(1

4)n(1− x2

2n )n

etudier la convergence en loi de Xn quand n tend vers +∞

E[Vn+1] = 12 et V (Vn+1) = 1

2√

2nOn s’attend donc a ce que Xn →L N (0, 1) (TCL)

24

Page 25: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

Theoreme de Schelle :Si fn →CS f0 Alors Xn →L X0 et f0 densite de X0

Formule de Stirling :n! ∼n→+∞ (ne )n

√2πn

fn(X) = 2n+ 12√

2n(2n)!(n!)2

14n︸ ︷︷ ︸ exp(n ln(1− X2

2n ))

On note cette constante α

(2n)!(n!)2 ∼n→+∞

22n√πn

α ∼n→+∞2n+1

2n√

2π ∼n→+∞1√2π

ln(1− X2

2n ) = −X2

2n + σ(X2)

Exercice 6.41. demonstration par l’absurde : Sq ∃ (Xf(n), Yf(n)) une sous-suite de (Xn, Yn) tq Xf(n) ⊥⊥ Yf(n).

Pour les fonctions caractéristique il vaut :

ϕXf(n),Yf(n) = ϕXf(n)ϕYf(n)

Xf(n)L−→ N (0, 1) et Yf(n)

L−→ N (0, 1), donc ϕXf(n)(t)→ e−t22 et ϕYf(n)(s)→ e−

s22 et alors :

ϕXf(n),Yf(n)(t, s) −→ e−s2+t2

2

et e− s2+t2

2 = exp(−(t s

)(1 pp 1

)(ts

))⇒ p = 0. ABSURDE !

2. (a) on veut :V (X,Y ∗) = I2

V (X,Y ∗) = V (X, aX + bY ) = V (A(XY

)) = E(A

(XY

)(X Y

)At) = AE(

(XY

)(X Y

))At

=(

1 0a b

)(1 pp 1

)(1 a0 b

)=(

1 a+ bpa+ bp a2 + 2abp+ b2

)on cherche a et b tq (i) a+ bp = 0 et (ii) a2 + 2abp+ b2 = 1 et on obtient :

b = ε1√

1− p2, a = −ε p√

1− p2; ε = ±1

pour ces valeurs on a :(Xn, Y

∗n )→ N (0, I2)

(b) on afZ∗n(x) = f Y ∗n

Xn

par changement de variable avec T (x, y) = (x, xy );T−1(u, v) = (u, uv) :

fXn,Z∗n(u, v) = fXn,Y ∗n (u, uv)|u| L−→ 12π e

−u22 e−

(uv)22 |u|

fZ∗(v) =∫ 1

2π e−u2

2 e−(uv)2

2 |u|du

25

Page 26: Théorie des probabilités Corrigéai.stanford.edu/~ajoulin/cours/corr_1011.pdfThéorie des probabilités Corrigé Armand Joulin 2010-2011 Contributeurs: –Karl-FriedrichIsrael(ex1.2,1.4,3.2,3.4,6.4)

=∫R

u

2π e−u

2(1+v2)2 du−

∫R−

u

2π e−u

2(1+v2)2 du...

... = 1π(1 + v2)

loi de Cauchy(c) Zn = Z∗n−a

b donc fZn −→ fZ∗n−ab

. soit x = z−ab ⇒ z = xb+ a. alors :

fZ∗−ab

(z) = fZ∗(xb+ a)|b| = |b|π(1 + (bx+ a)2)

3. cas particulier : a=b=14. p = 0 i.e. les lois de X et Y sont ind.

Exercice 6.6Xn est une suite de variables aléatoires indépendantes, de loi N(m,σ2).

∀i ∈ N∗, Yi =| Xi |∀n ∈ N∗, Tn = mini∈Nn(Yi)

Tn → 0 p.s.?

La convergence presque sûre équivaut à avoir : P (supn≤pTn > ε)→ 0, p→∞En plus, on a supn≤pTn ≤ Tp, car les Tn sont décroissants avec n, les ensembles i ∈ Nn(Yi) étant croissantsau sens de l’inclusion. Il s’agit donc là de montrer que :

P (Tp ≥ ε)→ 0 lorsque p→∞.P (Tp > ε) = P (minYi > ε)= P (∀i ∈ Np, Yi > ε)= P (∀i ∈ Np, |Xi| > ε)= P (∀i ∈ Np, Xi > ε ou Xi < −ε)= [1− P (−ε < Xi < ε)]p les (Xi) étant i.i.dComme 1− P (−ε < Xi < ε) < 1, alors [1− P (−ε < Xi < ε)]p → 0, p→∞ ;Donc Tn → 0 p.s.

α > 0 et on suppose m > 0

P (Zn > ε) = P (Tn > εnα )

On a : 2εnα . exp(− 1

2σ2 .( εnα +m)2) ≤ P (Zn > ε) ≤ 2ε

nα . exp(− 12σ2 .( ε

nα −m)2)or P (Zn > ε) = [1− P (− ε

nα < Xi <εnα )]n

Pour α = 1, loi limiteP (Zn > ε)→ exp ( −2ε√

2πσ2 . exp−m2

2σ2 )Convergence de la f.d.r → Convergence en loi

Donc, en conclusion, on a que : Zn → exp(−2 exp(− m22σ2 )

√2πσ2 ) en loi.

Exercice 6.7X et Y variables aléatoires i.i.d On suppose σ2 ≤ ∞. On suppose également que X+Y

2 v X,Y . Posons :X = 1

n .∑

1≤i≤nXi

D’après le T.C.L,√nX → N (m,σ2) en loi.

Soient X1, X2, X3, X4X1+X2

2 v µX3+X4

2 v µ

X1+X22 +X3+X4

22 v µ

Donc par récurrence,1√2k∑

1≤i≤2k Xi v µ ∀k ∈ N∗

donc si k ←∞, 1√2k∑

1≤i≤2k Xi v N (mσ2)donc par unicité de la limite : µ = N (mσ2).

26