m206icp : introduction au calcul des probabilités · universitédessciencesettechnologiesdelille...
Post on 16-Sep-2018
214 Views
Preview:
TRANSCRIPT
Université des Sciences et Technologies de LilleU.F.R. de Mathématiques Pures et Appliquées
M206ICP : Introduction au calcul desprobabilités
Notes de cours par Clément Boulonne
L2 Mathématiques 2007 - 2008
Table des matières
1 Espaces probabilisés 41.1 Evenements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2 La probabilité comme fonction d’ensembles . . . . . . . . . . . . . . . . . . . . . 51.3 Probabilités classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.4 Propriétés générales des probabilités . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Conditionnement et indépendance 102.1 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102.1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.2.1 Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . 132.2.2 Indépendance mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3 Variables aléatoires 153.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153.2 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173.3 Lois discrètes classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3.1 Loi de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183.3.2 Loi uniforme sur un ensemble fini de réels . . . . . . . . . . . . . . . . . 183.3.3 Lois binomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183.3.4 Lois hypergéométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193.3.5 Lois géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203.3.6 Lois de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.4 Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203.4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203.4.2 Loi pour les variables aléatoires continues . . . . . . . . . . . . . . . . . . 213.4.3 Analogie entre variable aléatoire continue et discrète . . . . . . . . . . . 21
3.5 Indépendance des variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . 223.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223.5.2 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.6 Epreuves de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4 Espérance mathématique 254.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.1.1 Aspect discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254.1.2 Aspect continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274.1.3 Retour à l’aspect discret . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2
3
4.3 Inégalité de Markov et Tchebychev . . . . . . . . . . . . . . . . . . . . . . . . . 30
5 Loi des grands nombres 315.1 Loi des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Références
Certaines parties du cours ont été recopiées du polycopié de cours suivant :1) Ch. Suquet, Introduction au Calcul des Probabilités, 2007-2008
Les cours sont téléchargeables sur le site IPEIS (Intégration, Probabilités Elémentaires etInitiation à la Statistique) de l’Université Lille 1.
4
Chapitre 1
Espaces probabilisés
1.1 EvenementsDéfinition 1.1.1. On note Ω un ensemble non vide dont les éléments représentent tous lesrésultats possibles ou événements élémentaire d’une expérience alétoire. Ω = ω, on dira queω, élément de Ω est un événement élémentaire.
Exemple 1.1.1. On lance une pièce symétrique et on regarde à sa tombée sur le sol, la piècetombe sur pile ou face. On aura alors :
Ω = P, F
On pioche sur un jeu de 52 cartes, une carte. On aura alors :
Ω = A♣, A♠, A♦, A♥, ..., K♣, K♠, K♦, K♥
Dans un intervalle [0, 1], on choisit un point au hasard sur le segment :
Ω = x ∈ [0, 1]
On peut aussi mesurer une température à n’importe quel point du globe :
Ω = −273C,∞
Définition 1.1.2. F = A, A ⊂ Ω et est appelé événement et F est la famille des événementspossibles.
Exemple 1.1.2. Si on jette un dé, l’évément A peut être “obtention d’un chiffre paire” et doncA = 2, 4, 6 composé de trois événements élémentaires ω1 = 2, ω2 = 4, ω3 = 6.
Définition 1.1.3. On note AC , un événement qui se réalise si A ne se réalise pas. On l’appelleévénement contraie ou complémentaire de A.
Définition 1.1.4. A ∩B est la réalisation de A et B en même temps.
Définition 1.1.5. A ∪B est la réalisation de A ou la réalisation de B.
5
6 Chapitre 1. Espaces probabilisés
1.2 La probabilité comme fonction d’ensemblesPropriété 1.2.1. F a les propriétés suivantes :
1. Ω ∈ F2. A ∈ F ⇒ AC ∈ F3. F est stable par opérations de réunion et d’intersection sur les suites d’événements. C’est-
à-dire, si (Ak) est un ensemble d’évenement fini et dénombrable alors :⋃k
Ak ∈ F et⋂k
Ak ∈ F
Démonstration. On démontre la propriété 3 sur les opérations d’intersection.(⋂k
Ak
)C=⋃K
ACk ∈ F
Définition 1.2.1. La famille qui vérifie les trois propriétés s’appelle une tribu (ou σ-algébre).
Exemple 1.2.1 (Plus grande et plus petite tribu possible). Soit Ω fixé. F = ∅,Ω est la pluspetite tribu possible. F = P(Ω) = A|A ⊂ Ω est la plus grande tribu possible.
Définition 1.2.2 (Parties de Ω). On appelle parties de Ω et on note P(Ω) :
P(Ω) = A|A ⊂ Ω
Exemple 1.2.2. Si Ω = P, F alors P(Ω) = Ω, ∅, P, F.
Définition 1.2.3. Si card(Ω) = n alors card(P(Ω)) = 2n.
Définition 1.2.4. Soit Ω un ensemble et F une famille d’événement observables sur Ω. Onappelle P (A) la probabilité d’un événement, c’est-à-dire : P : F → R tel que nA
n→ P (A) la
fréquence où l’événement est réalisé. Concrétement, P doit vérifié :1. P (Ω) = 12. 0 ≤ P (Ω) ≤ 1, ∀A ∈ F3. (Ak), (Ak ∈ F), si Ak ∩ Aj = ∅ (avec k 6= j) alors :
P
(⋃k
Ak
)=∑k
P (Ak)
La troisième propriété s’appelle σ-additivité.
Définition 1.2.5. Soit Ω 6= 0, F tribu et P une probabilité alors (Ω,F , P ) est un espaceprobabilisé.
Exemple 1.2.3. Ω = P, F, F = P(Ω) = ∅,Ω, F, P1. cas symétrique :
P (∅) = 0, P (Ω) = 1, P (P ) = 12 , P (F ) = 1
22. cas non-symétrique :
P (∅) = 0, P (Ω) = 1, P (P ) = p, P (F ) = 1− p
Chapitre 1. Espaces probabilisés 7
1.3 Probabilités classiquesProposition 1.3.1. Soit card(Ω) <∞, P (ωi) = P (ωj), ∀ωi, ωj ∈ Ω et F = P(Ω). Alors :
P (A) = cardAcard Ω (Définition classique des probabilités)
Démonstration. ∃p tel que p = P (ωi = P (ωj). On a : A =⋃ω∈Aω. D’après la σ-additivité.
P (A) =∑ω∈A
P (ω) = p(cardA)
et si A = Ω alors P (Ω) = 1 = p(card(Ω)).
Exemple 1.3.1. Les probabilités classiques peuvent être considéré par le lancer d’une piècedans le cas symétrique.
Exemple 1.3.2. On effectue une partie de pile ou face en trois coups. Quelle est la probabilitéd’obtenir pile aux premier et troisième lancers ? On peut modéliser cette expérience en prenantΩ = P, F3 et pour famille d’événement observables F = P(Ω) l’ensemble de toutes les partiesde Ω. La pièce étant supposée symétrique, nous n’avous a priori pas de raison de supposer quel’un des 8 triplets de résultats possibles soit favorisé ou dévaforisé par rapport aux autres. Onchoisit donc P de sorte que tous les événements élémentaires aient même probabilité (hypothèsed’équiprobabilité ou probabilité classique) soit :
∀ω ∈ Ω, P (ω) = 1card Ω = 1
23
L’événement B dnt on veut calculer la probabilité s’écrit :
B = (P, F, P ), (P, P, P )
D’où :P (B) = 1
8 + 18 = 1
4Exemple 1.3.3. Dans une urne, on a mls n boules blanches et n boules noirs indiscernable autoucher. On a donc n+m boules. On choisit k boules et on veut calculer P (Al) tel que :
Al = on a pioché l boules blanches
Donc :P (Al) = card(Al)
card ΩOn a alors :
card(Ω) = Ckn+m
et :card(Al) = C l
m × Ck−ln
Donc :P (Al) = C l
m × Ck−ln
Ckn+m
8 Chapitre 1. Espaces probabilisés
Pour un exemple concret, on peut prendre celui du Loto. n = 6, n+m = 49, l = 6 et k = 6.
P (A6) = 1C6
49= 7.15112384202e− 08
Pour n = m et k = n, on a :
P (Al) = C lnC
k−ln
C2nn
=
(C ln
)2
Cn2n
On a : l = 0, ..., n. Soit A0, ..., An alors :
Ak ∩ Al = ∅, k 6= l⋃k
Ak k Ω
On a aussi :1 = P (Ω) = P
(⋃l
Al
)=
n∑l=0
P (Al)
Donc :n∑l=0
(C ln
)2
Cn2n
= 1⇒ Cn2n =
n∑l=0
(C ln
)2
Définition 1.3.1. On dit que Ω est un espace discret si card(Ω) <∞.
Proposition 1.3.2. Soit F = P(Ω) et soit P une probabilité sur F . Il existe une famille(pk)k≥0 tel que :
1. pk ≥ 02.∑k
pk = 1
3. ∀A, P (A) =∑
k|ωk∈Apk
Démonstration. On a P (wk) = pk. La propriété 1 est évidente. On démontre la propriété 3avant la 2.
A =⋃
k|ωk∈Aωk
P (A) =∑
k|ωk∈AP (ωk) =
∑k|ωk∈A
pk
Exemple 1.3.4. Soit Ω = N, pk = λke−λ
k! pour λ > 0, k = 0... On appelle loi de Poisson P(λ)la probabilité qui vérifie pk = λke−λ
k! .
1.4 Propriétés générales des probabilitésSoit P une probabilité :
Propriété 1.4.1. P (AC) = 1− P (A), P (A) = 1− P (AC).
Propriété 1.4.2. A ⊂ B ⇒ P (A) ≤ P (B)
Chapitre 1. Espaces probabilisés 9
Démonstration. On a : B = A ∪ (B\A). Or A et B\A sont disjoints alors :
P (B) = P (A) + P (B\B) ≥ P (A)
Propriété 1.4.3. Soit A et B deux ensembles alors :
P (A ∪B) = P (A) + P (B)− P (A ∩B)
Démonstration. A ∪B = A ∪ (B\A) alors :
P (A ∪B) = P (A) + P (B\A)
et B = (A ∩B) ∪B\AP (B) = P (A ∩B) + P (B\A)
Propriété 1.4.4. P (A ∪B) ≤ P (A) + P (B)
Démonstration. Conséquence de la Propriété 1.4.3.
Propriété 1.4.5. Soient (A1, ..., An) alors :
P
(n⋃k=1
Ak
)≤
n∑k=1
P (Ak)
Démonstration. Par réccurence. Initialisation évidente car c’est la Propriété 1.4.3.
P
(n+1⋃k=1
Ak
)= P
n⋃k+1
Ak ∪ Ak+1
≤ P
(n⋃k=1
Ak
)+ P (An+1)
Remarque. Si (Ak) infini alors la Propriété 1.4.5. est vérifiée.
Propriété 1.4.6 (Propriété de continuité de P ). a) (An) croissante (∀n,An ⊂ An+1) alorsP (An) est croissante. On a alors :
limn→+∞
P (An) = P
(⋃k
Ak
)
b) (An) décroissate (∀n,An+1 ⊂ An) alors P (An) converge vars P(⋂
k
Ak
).
10 Chapitre 1. Espaces probabilisés
Démonstration. a) ⇒ b) : soit (An) décroissante. Si on prend Bn = ACn , on a (Bn) croissante.
Alors P (Bn) −−−→n→∞
P
(⋃k
Bk
). Mais P (Bn) = 1−P (An). Donc : P (An)→ 1−P
(⋃k
Bk
)Or :
1− P(⋃
k
Bk
)C = P
(⋂k
(Bk)C)
= P
(⋂k
(AK)).
Propriété 1.4.7. La Remarque précédente peut constitué une propriété. On rappelle : soit (Ak)infini alors :
P
( ∞⋃k=0
Ak
)≤∞∑k=1
P (Ak)
Démonstration. Bn =n⋃k=1
Ak avec (Bn) croissante. On a :
P (Bn) −−−→n→∞
P
( ∞⋃k=1
Bn
)
et : ∞⋃k=1
Bk =∞⋃k=1
Ak
alors :P (Bn)
(→ P
( ∞⋃k=1
Ak
))= P
(n⋃k=1
Ak
)≤
n∑k=1
P (Ak) ≤ P (An)
Chapitre 2
Conditionnement et indépendance
2.1 Probabilités conditionnelles
2.1.1 IntroductionComment doit-on modifier la probabilité que l’on attribue à un évenement lorsque l’on
dispose d’une information supplémentaire ? Le concept de probabilité conditionnelle permet derépondre à cette question.
Exemple 2.1.1. Soit card(Ω) <∞ alors :
P (A) = card(A)card(Ω)
et B une partie de Ω avec B ∩ A 6= ∅. Alors :
PA(B) = card(A ∩B)card(A) = P (A ∩B)
P (A)
Définition 2.1.1. PA : F → R+ alors :
PA(B) = P (A ∩B)P (A) , B ∈ F , P (A) > 0
PA(B) s’appelle la probabilité conditionelle sachant A.
Démonstration. On vérifie que la Définition 2.1.1. est une relation de probabilité.
1) PA(Ω) = P (A ∩ Ω)P (A) = P (A)
P (A) = 1
2) 0 ≤ PA(B) ≤ 1 car P (A ∩B) ≤ P (A).3) (Bk), Bk ∩Bl = ∅, k 6= l :
PA
(⋃k
(Bk))
=P
(A ∩
(⋃k
Bk
))P (A) =
P
(⋃k
A ∩Bk
)P (A) =
∑k
P (A ∩Bk)
P (A) =∑k
PA(Bk)
11
12 Chapitre 2. Conditionnement et indépendance
Exemple 2.1.2. Supposons qu’on a deux urnes. Dans l’urne 1, on a : m boules blanches et nnoires et dans l’urne 2, m boules blanches et n boules noires. On transpose une boule au hasard(sans regarder sa couleur) de la urne 1 vers la urne 2. Ensuite, on tire au hasard une boule dansl’urne 2 et on regarde sa couleur.
Soit B = la deuxième boule tirée est blanche. On simplifie l’expérience en utilisant :• A1 = Première blanche• A2 = Première noire
alors on a :PA1(B) = m+ 1
m+ n+ 1 PA2(B) = m
m+ n+ 1
2.1.2 PropriétésProposition 2.1.1 (Conditionnement successifs). Soit B = A1 ∩A2 ∩ ...∩An avec P (Ai) > 0alors :
P (B) = P (A1)PA1(A2)PA1∩A2(A3)...PA1∩A2∩...∩An−1(An)
Démonstration.
P (A1)P (A1 ∩ A2
P (A1)P (A3 ∩ (A2 ∩ A1))
P (A1 ∩ A2)× ...× P (An ∩ (An−1 ∩ ... ∩ A1)
P (An−1 ∩ ... ∩ A1)
= P (A1 ∩ A2)P (A3 ∩ (A2 ∩ A1))
P (A1 ∩ A2)× ...× P (An ∩ (An−1 ∩ ... ∩ A1)
P (An−1 ∩ ... ∩ A1)
= ... = P (A1 ∩ A2 ∩ ... ∩ An) = P (B)
Exemple 2.1.3. Soit une urne avec 2n boule avec 2 boules identiques (même couleur) 2 à 2.On choisit 2 boules à la fois et on répete l’expérience jusqu’à tant qu’il n’y a plus de boules.
Soit B = chaque sorte de boules donne une paire de même couleur. On introduite desévénements :• A1 = les 2 premières sont de même couleurs• A2 = les 2 boules suivant A1 sont de même couleurs• · · ·• An = les 2 boules suivant An−1 sont de même couleurs
On a alors : B = A1 ∩ ... ∩ An.
P(A1) = nC2
2nPA1(A2) = n−1
C22n−2...
etP (B) = n
C22n
n− 1C2
2n−1...
1C2
2= n!×2n
2n(2n−1)(2n−2)...1 = n!2n(2n)! = 1∏
2k+1
Proposition 2.1.2 (Probabilité totale). Soit (Ak) qui forme une partition de Ω.1. disjoints2.⋃k
Ak = Ω
Soit B un événement. Alors :P (B) =
∑k
P (Ak)PAk(B)
Chapitre 2. Conditionnement et indépendance 13
Démonstration. On a : B = B ∩ Ω = B ∩(⋃
k
Ak
)=⋃k
(B ∩ Ak). Alors :
P (B) = P
(⋃k
(B ∩ Ak))
=∑k
P (B ∩ Ak)
Exemple 2.1.4 (Retour sur l’Exemple 2.1.2). On a alors :
P (B) = P (A1)PA1(B) + P (A2)PA2(B)
et :P (A1) = m
m+ net P (A2) = n
m+ n
Donc :P (B) = m
m+ n× m+ 1m+ n+ 1 + n
m+ n× m
m+ n+ 1
Exemple 2.1.5. On considère un echequier de 64 cases. On choisit deux cases de l’échequieret on y place deux fois. On dit que deux fois sont en position d’attaque si ils sont sur la mêmediagonale. Soit B = les deux fous sont en position d’attaque. On introduit des événements.• A1 = le premier fou est à l’extrémité de l’échequier• A2 = le premier fou est à une case de l’extrémité de l’échequier• A3 = le premier fou est à deux cases de l’extrémité de l’échequier• A4 = le premier fou est à trois cases de l’extrémité de l’échequier
En A1, le premier fou a 7 possibilités d’être en position d’attaque avec le deuxième fou. En A2,il en a 9. En A3, il en a 11 et en A4, 13. On a alors :
P (A1) = 2864 , P (A2) = 20
64 , P (A3) = 1264 , P (A4) = 4
64
PA1(B) = 763 , PA2(B) = 9
63 , PA3(B) = 1163 , PA4(B) = 13
63Alors :
P (B) = 2864 ×
763 + 20
64 ×963 = 12
64× 63 + 4× 1364× 63
Proposition 2.1.3 (Formule de Bayes). Soit A un événement de proabilité non nulle. Si lesévénements Hi (1 ≤ i ≤ n) forment une partition de Ω et aucun P (Hi) n’est nul, on a pourtout j = 1, ..., n :
PA(Hj) =PHj(A)P (Hj)n∑i=1
PHi(A)P (Hi)
Démonstration. Par définition des probabilités conditionnelles on a :
PA(Hj) = P (A ∩Hj)P (A) =
PHj(A)P (Hj)P (A)
Et il ne reste plus qu’à dévelpper P (A) en conditionnant par la partition (Hi, 1 ≤ i ≤ n).
14 Chapitre 2. Conditionnement et indépendance
2.2 Indépendance2.2.1 Indépendance de deux événements
Soit A,B ∈ Ω. On suppose que A est réalisé alors P (B) = PA(B) et P (A) = PB(A). Onaura donc :
P (A ∩B) = P (A)× P (B)
si P (A) > 0 et P (B) > 0.
Définition 2.2.1. Deux événements A et B sont indépendants si :
P (A ∩B) = P (A)× P (B)
Exemple 2.2.1. Soit un jeu de 36 cartes. On considère :
A = ♣
B = D
Alors :P (A) = 9
36 P (B) = 436
et :A ∩B = D♣
P (A ∩B) = 9× 436× 36 = 36
362 = 136
Proposition 2.2.1. Si A et B sont indépendants alors AC et B sont indépendants.
Démonstration.
P (AC)P (B) = (1− P (A))P (B) = P (A)− P (A)P (B)= P (A)− P (A ∩B) = P (A ∩BC)
Conséquence. 1. Si A et B sont indépendants alors A et BC sont indépendants et AC et BC
sont indépendants.2. On a aussi Ω et A sont indépendants et ∅ et A sont indépendants.
2.2.2 Indépendance mutuelleDéfinition 2.2.2 (Fausse définition pour l’indépendance de plusieurs éléments). Soit A1, ..., Anun ensemble d’événements. On dit que A1, ..., An sont tous indépendants si Ai, Aj sont indé-pendants pour i 6= j.
Mais on va voir quette définition n’est pas vraie.
Exemple 2.2.2. Soit Ω = ω1, ω2, ω3, ω4, pωi = 14
A1 = ω1, ω2
A2 = ω1, ω3
Chapitre 2. Conditionnement et indépendance 15
A3 = ω1, ω3
On a :P (Ai) = 1
2Mais pour i 6= j, Ai, Aj sont indépendants car :
P (Ai ∩ Aj) = Pω=1 = 1
4 = 12 ×
12
Mais B = A2 ∩ A3 et A1. On vérifie si oui ou non on a P (B ∩ A1) = P (B) ∩ P (A1).
P (B) = 14 P (A1) = 1
2
P (B ∩ A1) = Pω1 = 14 6=
14 ×
12
Définition 2.2.3. Soient A1, ..., An des événements. Ils sont indépendants si :
P (Ai ∩ Aj) = P (Ai)P (Aj) i 6= j
P (Ai ∩ Aj ∩ Ak) = P (Ai)P (Aj)P (Ak) i 6= j 6= k
· · · · · · · · ·
P
(n⋂i=1
Ai
)=
n∏i=1
P (Ai)
Proposition 2.2.2. Soient A1, ..., An des événements indépendants et T1, ..., Tk tel que :
Ti ∩ Tj = ∅
T1 ∪ ... ∪ Tk = 1, ..., n
Supposons que B1 soit une combinaison de Ai avec i ∈ T1, B2 soit une combinaison de Ai aveci ∈ T2,...,Bk soit une combinaison de Ai, i ∈ Tk alors B1, B2, ..., Bk sont indépendants.
Corollaire. On suppose Bj = Aj ou Bj = ACj . Si A1, ..., An sont indépendants alors B1, ..., Bn
sont indépendants.
Chapitre 3
Variables aléatoires
3.1 GénéralitésDéfinition 3.1.1. Soit (Ω,F , P ) est une espace probabilisée. On appelle variable aléatoirediscrète sur (Ω,F , P ) toute application X :
X : Ω → Rω 7→ X(ω)
vérifiant :1. ω |X(ω) ∈ Ω est une partie au plus dénombrable de R.2. Pour tout x ∈ X(Ω), A = ω ∈ Ω, X(ω) = x fait partie de la famille F d’événements
auxquels on peut attribuer une probabilité sur P .Un cas simple est que Ω soit fini et dénombrable alors F = P(Ω).
Exemple 3.1.1. On suppose qu’on lance 2 dés en même temps :
Ω = (i, j), i, j = 1...6
F = P(Ω)X(i, j) = i+ j. Les valeurs possibles sont 2, ..., 12. Quelle est la valeur de PX = k ?
PX = 2 = 136 PX = 10 = 3
36PX = 3 = 2
36 PX = 11 = 236
PX = 4 = 336 PX = 12 = 1
36
Définition 3.1.2 (Répartition ou loi). Soit F une fonction :
F (x) = PX ≤ x, x ∈ R
On l’appelle fonction de répartition de X avec X =]a, b]
PX ∈]a, b] = F (b)− F (a)
Démonstration. Soit A = X ≤ a, B = X ≤ b et C = X ∈]a, b[ alors :
A ∩ C = ∅
A ∪ C = B
PX ≤ b = P (A ∪ C) = P (A) + P (C) = PX ≤ a+ PX ∈]a, b]
16
Chapitre 3. Variables aléatoires 17
Propriétés de la fonction de répartition
Propriété 3.1.1. On a : 0 ≤ F (x) ≤ 1.
Propriété 3.1.2. Si x < y alors F (x) ≤ F (y).
Propriété 3.1.3. F est continue à droite.
Propriété 3.1.4. limx→−∞
F (x) = 0 et limx→+∞
F (x) = 1
Propriété 3.1.5. PX ∈]a, b] = F (b)− F (a)
Démonstration. On vérifie d’abord la croissance de F sur R. Soient s et t deux réels quelconquestel que s ≤ t. Tout ω vérifiant X(ω) ≤ s vérifie a fortiori X(ω) ≤ t. Cette implication se traduitpar l’inclusion d’événements X ≤ s ⊂ X ≤ t d’où P (X ≤ s) ≤ P (X ≤ t), autrement ditF (s) ≤ F (t). Ainsi F est croisate. Il en résulte qu’elle possède une limite à gauche et une limiteà droite en tout point de x de R.
Le reste de la preuve repose sur la propriété de continuité monotone séquentielle de laprobabilité qu’on rappelle :Rappel. Soit P une probabilité sur l’espace (Ω,F).(i) Si (An)n≥N∗ est une suite croissante d’événements (c’est-à-dire ∀n ∈ N∗, An ⊂ An+1) alors :
limn→+∞
P (An) = P (A) où A =⋃n∈N∗
An
.(ii) Si (Bn)n∈N∗ est une suite décroissante d’événements (c’est-à-dire ∀n ∈ N∗Bn+1 ⊂ Bn)
alors :lim
n→+∞P (Bn) = P (B) où B =
⋂n∈N∗
Bn
Soit x ∈ R fixé. Comme on est assuré de l’existence de la limite à droite de F en ce point,pour montrer que cette limite vaut F (x) et établir la continuité à droite F en x, il suffit devérifier que : F (x) = lim
n→+∞F(x+ 1
n
). Comme F (x + 1
n) = P (X ≤ x + 1
n), ceci résulte de la
propriété (ii) ci dessus appliquée aux événements Bn = X ≤ x+ 1n, en remarquant que :
⋂n∈N∗
X ≤ x+ 1
n
= X ≤ x (3.1)
En effet, pour tout ω ∈ X ≤ x, on a X(ω) ≤ x ≤ x+ 1npour tout n ∈ N∗ et donc ω ∈
⋂n∈N∗
Bn
d’où X ≤ x est inclus dans l’intersection des Bn (n ∈ N∗). Réciproquement, tout ω de cetteintersection vérifie : ∀n ∈ N∗, X(ω) ≤ x + 1
n. Le passage à la limite quand n tend vers l’infini
conservant l’intersection des Bn (n ∈ N∗) est incluse dans X ∈ x, ce qui achève la vérificationde (3.1).
Comme F est croissante, elle admet des limites en −∞ et +∞. Si X(Ω) est borné inférieu-rement 1, il est clair que F (x) = 0 pour tout x assz petit et donc lim
n→−∞F (x) = 0. Dans le cas
général, on identifie la limite en −∞ (dont on connait l’existence) grâce à une suite particulière :
limx→−∞
F (n) = limn→+∞
F (−n) = limn→+∞
P (X ≤ −n)
1Attention, dans le cas général x0 n’est pas nécessairement le plus petit élément de X(Ω), on peut très bienavoir par exemple X(Ω) = Z.
18 Chapitre 3. Variables aléatoires
On utilise à nouveau la propriété (ii) avec Bn = X ≤ −n en montrant que :
⋂n∈N∗X ≤ −n = ∅ (3.2)
En effet, soit ω un élément de cette intersection. Alors X(ω) ≤ −n pour tout n ∈ N∗ doncen passant à la limite, X(ω) = −∞ ce qui est impossible puisque X ne prend que des valeursfinies2. Donc cette intersection est vide et par (ii), lim
n→+∞P (X ≤ −n) = P (∅) = 0. La preuve
de limx→+∞
F (x) = 1 est analogue.
3.2 Variables aléatoires discrètes
Définition 3.2.1. X est une variable aléatoire discrète si ∃V = x1, x2, ..., xn, V ⊂ R tel quePX ∈ V = 1. On a :
1) X = xk ∩ X = xn = ∅, k 6= n
2)⋃k
X = xk = X ∈ V
Proposition 3.2.1. Soit pk = PX = xk, ∀A ⊂ R
PX ∈ A =∑
k|xk∈Apk
Démonstration. On a que :
PX ∈ A = X ∈ A ∩ X ∈ V = P
X ∈ A ∩
⋃k
X = xk
= P
⋃k
X ∈ A ∩ X = xk
= P
⋃k|xk∈A
X = xk
=∑
k|xk∈Apk
Exemple 3.2.1. A = R, X ∈ A = Ω. On a alors :
1 =∑k
pk
Exemple 3.2.2. Soit xkk=1,...,n, x1 < x2 < ... < xn, pk = X = xk, F (x) = PX ∈ A =∑k|xk∈]−∞,x]
pk
2Ce qui signifie que X(Ω) soit borné...
Chapitre 3. Variables aléatoires 19
3.3 Lois discrètes classiques3.3.1 Loi de BernouilliDéfinition 3.3.1. La variable aléatoire X suit la loit de Bernoulli de paramètre p (p ∈ [0, 1])si elle ne prend que deux valeurs 0 et 1 avec :
P (X = 1) = p P (X = 0) = 1− p = q
On notera X ∼ B(p).
Si A est un événements de probabilité p, son indicatrice définie par :
1A(ω) =
1 si ω ∈ A0 si ω 6∈ A
=
1 si A est réalisé0 si A n’est pas réalisé
est une variable aléatoire suivant la loi de Bernouilli de paramètre p. Réciproquement, si X estun variable aléatoire de Bernouilli, on peut toujours écrire X = 1A en définissant A = ω ∈Ω, X(ω) = 1.
3.3.2 Loi uniforme sur un ensemble fini de réelsDéfinition 3.3.2. La variable aléatoire X suit la uniforme sur l’ensemble des réels x1, ..., xnsi PX est l’équiprobabilité sur cet ensemble.
Autrement dit, l’ensemble des valeurs possibles de X est X(Ω) = x1, ..., xn et :
∀k ∈ 1, ..., n P (X = xk) = 1n
Par exemple, le nombre de points indiqué par un dé suit la loi uniforme sur 1, 2, 3, 4, 5, 6.
3.3.3 Lois binomialesDéfinition 3.3.3. La variable aléatoire X suit la loi binomiale de paramètres n et p (n ∈ N∗et p ∈ [0, 1]) si l’ensemble des valeurs possibles est X(Ω) = 0, 1, ..., n et :
∀k ∈ 0, 1, ..., n P (X = k) = Cknp
k(1− p)n−k
20 Chapitre 3. Variables aléatoires
Notation. X ∼ B(n, p)La forme ci-dessus définit bien une loi de probabilité puisuqe les Ck
npk(1−p)n−k sont positifs
et :n∑k=0
Cknp
k(1− p)n−k = (p+ (1− p))n = 1n = 1
en appliquant la formule du binôme de Newton (d’où le nom de la loi). La loi binomiale B(n, p)est la loi du nombre de succès obtenus en une suite de n épreuves répétées indépendantes avecpour chaque épreuve une probabilité de succès p.
De même, soit A1, ..., An une famille de n événements mutuellement indépendants ayanttous même probabilité p et notons Xi la variable de Bernouilli indicatrice de Ai :
Xi(ω) =
1 si ω ∈ Ai0 si ω ∈ ACi
Alors la variable aléatoire Sn = ∑ni=1Xi suit la loi binomiale B(n, p).
3.3.4 Lois hypergéométriquesAlors que la loi binomiale intervient dans les tirages avec remise, la loi hypergéométrique
correspond aux tirages sans remise.
Exemple 3.3.1. Dans une production totale de N objets dont M sont défectueux, on prélèveau hasard un échantillon de n objets (tirage sans remise). Soit X le nombre aléatoire d’objetsdéfectueux dans l’échantillon. Quelle est sa loi ?
On peut prendre comme espace Ω l’ensemble de tous les échantillons possibles (toutes lesparties à n éléments d’un ensemble de cardinalN) muni de l’équiprobabilité. Chaque échantillona ainsi une probabilité 1/Cn
N d’être choisi. Les échantillons (événements élémentaires) réalisentl’événement X = k sont ceux qui contiennent k objets défectueux et n−k objets défectueux.Ceci n’est réalisable que si 0 ≤ k ≤M et 0 ≤ n−k ≤ N−M . On dénombre ces échantillons. Onles forme en choisissant k objets défectueux dans une sous-population de M et en complétantpar n−k objets non défectueux chosis dans une population deN−M . Il y en a donc Ck
M×Cn−kN−M .
Finalement :
P (X = k) = CkM × Cn−k
N−MCnN
si
0 ≤ k ≤M
0 ≤ n− k ≤ N −M
Définition 3.3.4. La loi définie par l’équation suivante :
P (X = k) = CkM × Cn−k
N−MCnN
si
0 ≤ k ≤M
0 ≤ n− k ≤ N −M
s’appelle la loi hypergéométrique de paramètres N , M et n. Notation : X ∼ H(N,M, n). Leparamètre N est l’effectif de la population totale, M celui de la sous-population à laquelle ons’interesse et n la taille de l’échantillon observé.
Pour une taille d’échantillon n fixée, plus N et M sont grands, moins les tirages sans remisediffèrent des tirages avec remise. Plus précisement, la loi hypergéométrique converge vers la loibinomiale au sens suivant :
Chapitre 3. Variables aléatoires 21
Theorème 3.3.1. On suppose que quand N tend vers +∞, M = M(N) tend vers +∞ envérifiant la condition :
limN→+∞
M
N= p avec 0 < p < 1
Alors, n restant fixé, la loi hypergéométrique H(N,M, n) converge la loi binomiale B(n, p), cequi signifie que si (XN)N≥1 est une suite de variable aléatoire avec XN ∼ H(N,M, n) et Y estune variable de loi binomiale B(n, p) alors :
∀k ∈ 0, 1, ..., n limN→+∞
P (XN = k) = P (Y = k)
autrement dit :
∀k ∈ 0, 1, ..., n limN→+∞
CkM × Cn−k
N−MCnN
= Cknp
k(1− p)n−k
3.3.5 Lois géométriquesExemple 3.3.2. Une variable aléatoire X suit la loi géométrique de paramètre p ∈]0, 1[, siX(Ω) = N∗ et :
∀k ∈ N∗, P (X = k) = (1− p)k−1p
Notation. X ∼ G(p)G(p) est la loi du nombre de tentatives en n épreuves indépendantes.
3.3.6 Lois de PoissonDéfinition 3.3.5. On dit que la variable aléatoire discrèteX suit la loi de Poisson de paramètreλ > 0, si l’ensemble des valeurs possibles est X(Ω) = N et :
∀k ∈ N P (X = k) = e−λλk
k!Notation. X ∼ P(λ)
3.4 Variables aléatoires continues3.4.1 GénéralitésDéfinition 3.4.1. Soit X une variable aléatoire à valeurs dans R et fX une densité de pro-babilité sur R. On dit que X est une variable aléatoire continue de densité fX si pour toutintervalle A de R on a :
P (X ∈ A) =∫AfX(x)dx
La loi de la variable aléatoire X est la loi continue sur R de densité fX .
Pour déterminer la loi d’une variable aléatoire continue, il faut donc calculer sa densité.De manière équivalente, on déterminer la loi d’une variable continue en donnant la probabilitéqu’elle appartienne à un intervalle I quelconque.
Une variable aléatoire continue X, de densité fX , tombe entre a et b avec une probabilitéégale à :
P (a < X < b) =∫ b
afX(x)dx
22 Chapitre 3. Variables aléatoires
Plus la densité fX est élevée au dessus d’un segment, plus les chances que X a d’atteindre cesegment sont élevées, ce qui justifie le terme "densité".
On a :P (X ∈ [a, b]) = P (X ∈ [a, b[) = P (X ∈]a, b[) = P (X ∈]a, b[)
3.4.2 Loi pour les variables aléatoires continuesLoi uniforme
X ∼ U [a, b] alors :fX(x) = 1
b− a1[a,b]
Loi gausienne (loi normale)
X ∼ N (a, σ2), a ∈ R2, σ ≥ 0, si :
fX(x) = 1√2πσ
exp(−(x− a)2
2σ2
)
3.4.3 Analogie entre variable aléatoire continue et discrète
F (x) = PX ≤ x = PX ∈]−∞, x] =∫]−∞,x]
fX(t)dt =∫ t
−∞fX(t)dt
Chapitre 3. Variables aléatoires 23
3.5 Indépendance des variables aléatoires
3.5.1 IntroductionSoient X et Y deux variables aléatoires. On a :
X ∈ B Y ∈ C
On va dire que X et Y sont indépendants si les événements X ∈ B et Y ∈ C sontindépendants.
3.5.2 GénéralitésDéfinition 3.5.1. Soient X1, ..., Xn variables aléatoires. On dit qu’ils sont indépendants si lesévénements X1 ∈ B1,...,Xn ∈ Bn sont indépendants, ∀B1, ..., Bn ⊂ R.
Theorème 3.5.1. X1, ..., Xn variables aléatoires discrètes et aj alors :
X1, ..., Xn indépendants⇔ PX1 = aj1 , ..., Xn = ajn =n∏k=1
PXk = ajk
pour chaque j1, ..., jn.
Démonstration. (⇒) Bk = ajk alors X1 = aj1,...,Xn = ajn sont indépendants. On aalors :
PX1 = aj1 , ..., Xn = ajn =n∏k=1
PXk = ajk
(⇐)PX1 ∈ B1, ..., Xn ∈ Bn =
∏PXk ∈ Bk
On remarquera que :
X1 ∈ B1, ..., Xn ∈ Bn =⋂(∗)X1 ∈ aj1 , ..., Xn ∈ ajn
avec (∗) = (j1, ..., jn) | ajk ∈ Bk pour k = 1, ..., n.
PX1 ∈ B1, ..., Xn ∈ Bn =∑(∗)PX = aj1 , ..., Xn = ajn
=∑(∗)
n∏k=1
PXk = ajk
=∏∑
PXk = ajk
=n∏k=1
PXk ∈ Bk → indépendants
car :
PAi∩Aj∩Ak = PXi ∈ Bi, Xj ∈ Bj, Xk ∈ Bk = PX1 ∈ R, ..., Xi−1 ∈ R, Xi ∈ Bi, Xi+1 ∈ R, ...
24 Chapitre 3. Variables aléatoires
3.6 Epreuves de BernouilliDéfinition 3.6.1. Soit k un événement et εk sa variable aléatoire dont les valeurs de εk sont 0et 1 (de probabilités respectives q = 1− p et p). On considère la suite (ε1, ..., εn) avec ε1, ..., εnindépendants. On appelle la suite de n épreuves de Bernouilli l’ensemble des εk, ∀k = 1, ..., n.Les événements εk suivent la loi de Bernouilli de paramètre p.
Soit νn le nombre de succès de ces n événements alors :
νn =n∑k=1
εk
Proposition 3.6.1. νn ∼ B(n, p) c’est-à-dire :
pn(k) = Pνn = k = Cknp
k(1− p)n−k, ∀k ∈ 1, ..., n
Démonstration.
Pνk = k =∑(∗)Pε1 = a1, ε2 = a2, ..., εn = an (N)
avec (∗) = (a1, ..., an) | ai = 0, 1 etn∑i=1
ai = k.
νk = k =⋂(∗)ε1 = a1, ε2 = a2, ..., εn = an
Pε1 = a1, ..., εn = an =∏Pεk = ak = pk(1− p)n−k
(N) = pk(1− p)n−k card(A)avec :
A =
(a1, ..., an)∣∣∣∣ai =
01
etn∑i=1
ai = k
et card(A) = Cn
k .
Theorème 3.6.2 (Poisson). Soit pn(k) et p = pn tel que npn → λ. Alors ∀k, pn(k)→ λk
k! e−λ.
Démonstration.pn(k) = n!
k!(n−k)!pk(1− p)n−k
= 1k!n(n− 1)...(n− k + 1)pk(1− p)n−k
= 1k!
(n−1)...(n−k+1)nk−1 (np)k(1− p)n−k
= 1k
(n− 1n
...n− k + 1
n
)︸ ︷︷ ︸
An
(np)k︸ ︷︷ ︸Bn
(1− p)n−k︸ ︷︷ ︸Cn
On alors :
An = n− 1n
n− 2n
...n− k + 1
n=(1− 1
n
)(1− 2
n
)...
(1− k − 1
n
)→ 1
Bn = (np)k = (npn)k → λk
Cn = (1− p)n−k =(1 + xn
n
)n 1(1 + xn
n)n
avec xn = npn → −λ→ e−λ. D’où la formule.
Chapitre 3. Variables aléatoires 25
Theorème 3.6.3 (Théorème local de Moivre-Laplace). Soit Sn une variable aléatoire qui suitune loi binomiale de paramètre p alors pour n suffisamment grand la variable :
Zn = Sn − np√npq
converge en loi vers une loi normale centrée N (0, 1).
pn(x) = 1npq
1√2πe−x
2nk/2
c’est-à-dire :maxk∈In
∣∣∣∣∣pn(k)fn(k)− 1
∣∣∣∣∣→ 0
avec In = k | |xnk ≤ C et xnk = k−np√npq
.
Chapitre 4
Espérance mathématique
4.1 Généralités4.1.1 Aspect discretDéfinition 4.1.1. Soit X une variable aléatoire vérifiant :∑
xk∈X(Ω)|xk|P (X = xk) <∞
On appelle espérance mathématique de X le réel EX défini par :
EX =∑
xk∈X(Ω)xkP (X = xk)
L’espérance de X apparaît ainsi comme le barycentre des valeurs possibles de X pondérées parleurs probabilités de réalisation.
Propriété 4.1.1. 1) Si X = c alors EX = c
2) Si X > 0 alors EX ≥ 03) E(aX) = aEX (Linéarité de l’espérance)
Démonstration du 3). X = aj ⇔ aX = aaj
E(aX) =∑j
aajpj = a∑j
ajpj = aEX
4) E(X + Y ) = EX + EY
Démonstration du 4). Soit X = ai, pi = PX = ai et Y = bj, qj = PY = bj. Soit :
A =⋃j
(A ∩ y = bj)
On a :pi = PX = ai =
∑j
PX = ai, Y = bj
qj = pY = bj =∑i
PX = ai, Y = bj
26
Chapitre 4. Espérance mathématique 27
EX + EY =∑i
aipi +∑j
bjaj
=∑i
ai
∑j
PX = ai, Y = bj
+∑j
bj
(∑i
PX = ai, Y = bj)
=∑i
∑j
aiPX = ai, Y = bj+∑j
∑i
bjPX = ai, Y = bj
=∑i
∑j
(ai + bj)PX = ai, Y = bj = E(X + Y )
Remarque. Si∑i
|ai|pi =∞ alors X n’a pas d’espérance mathématiques.
5) X ≥ Y ⇒ EX ≥ EY
Démonstration du 5).
X − Y ≥ 0⇒ E(X − Y ) ≥ 0⇒ EX − EY = 0
6) |EX| = E|X|
Démonstration du 6).−|X| ≤ X ≤ |X|
−E|X| ≤ EX ≤ E|X| ⇔ |EX| ≤ E|X|
Exemple 4.1.1. 1) X =
0, 1− p1, p
, Bernouilli :
EX = 0(1− p) + p = p
2) X ∼ B(n, p), k = 0, 1, ..., n :Pn(k) = Ck
npk(1− p)n−k
EX =n∑k=0
kCknp
k(1− p)n−k
Remarque. Si X suit la même loi que Y alors EX = EY .Soit νn ∼ B(n, p), E(X) = E(νn). On a que νn = ε1 + ...+ εn :
EX = Eνn = E(ε1 + ...+ εn)
= Eε1 + ...+ Eεn = np =n∑k=0
kCknp
k(1− p)n−k
28 Chapitre 4. Espérance mathématique
3) Soit X suivant une loi de Poisson, k = 0, 1, 2, ...
PX = k = λk
k! e−λ
On a :EX =
∞∑k=0
kλk
k! e−λ = e−λ
∞∑k=1
kλk
k!
= λe−λ∞∑k=1
λk−1
(k − 1)! = λe−λeλ = λ
4.1.2 Aspect continuDéfinition 4.1.2. Soit X une variable aléatoire continue de densité p(x) ≥ 0. On a :
PX ∈ I =∫Ip(x) = 0
On note Xh = hk si X ∈ [kh, (k + 1)h[. On a alors que :
E(Xh) =∑k∈Z
khXh = kh =∑k∈Z
kh∫ kh+h
khp(x)dx =
∑k∈Z
∫ kh+h
khkhp(x)dx
=∑k∈Z
∫ +∞
−∞1∆k
(x)p(x)dx =∫ ∞−∞
∑k∈Z
1∆k(x)p(x)dx
=∫ ∞−∞
gh(x)p(x)dx =∫ ∞−∞
xp(x)dx
Elle existe si : ∫ ∞−∞|x|p(x)dx <∞
4.1.3 Retour à l’aspect discretProposition 4.1.2. X, Y deux variables discrètes et indépendantes. Alors :
E(XY ) = EXEY
Démonstration. Soit X de valeurs ai et de probabilité pi et Y de valeurs bj et de probabilité qjalors :
EXEY =∑i
aipi∑j
bjqj =∑i
∑j
aibjpiqj
=∑i
∑j
aibjPX = aiPY = bj =∑i
∑j
PX = ai, Y = bj = E(XY )
Proposition 4.1.3. Soit X de valeurs ai et de probabilité pi. Soit f : R → R tel que pourY = f(X), EY existe. Alors :
EY = Ef(X) =∑i
f(ai)pi
Chapitre 4. Espérance mathématique 29
Démonstration. Soit Y de valeurs bj et de probabilités qj :
EY =∑j
bjPY = bj (∗)
On a :PY = bj = Pf(X) = bj (∗′)
On pose :Tj = k|f(ak) = bj
Alors :(∗′) =
∑k∈Tj
pk
et :
(∗) =∑j
bj
∑k∈Tj
pk
=∑j
∑k∈Tj
f(ak)pk
=∑i
f(ai)pi
Exemple 4.1.2. 1) Si X suit la loi uniforme sur l’ensemble fini x1, ..., xn, EX est égale à lamoyenne arithmétique des xi.
2) Si X suit la loi géométrique de paramétre p > 0 alors :
EX = 1p
3) Si X suit la loi hypergéométrique H(N,M, n) alors :
EX = nM
N
Des exemples sont données dans le polycopié de cours.
Exemple 4.1.3. 1) X ∼ U([a, b])
p(x) = 1b− a
1[a,b](x)
EX =∫ ∞−∞
xp(x)dx =∫ b
ax
1b− a
dx = 1b− a
[x2
2
]ba= a+ b
22) X ∼ N (a, σ2) alors EX = a.
4.2 MomentsDéfinition 4.2.1. Les expressions EXn, E|X|p, E|X − EX|p sont des moments.• EXn est le moment de X d’ordre n.• E|X|p est le moment absolu de X d’ordre p.• E|X − EX|p est le moment absolu centré d’ordre p.
Définition 4.2.2. On appelle variance de X :
VarX = E|X − EX|2
30 Chapitre 4. Espérance mathématique
Propriété 4.2.1. VarX = E(X)2 − (EX)2
Démonstration.
VarX = E|X − EX|2 = E(X2 − 2XEX + (EX)2) = E(X2)− 2EXEX + (EX)2
Exemple 4.2.1.
ε =
0 1− p1 p
, Eε = p
Var ε = E(ε2)− p2 = p− p2 = p(1− p)
Propriété 4.2.2. VarX ≥ 0 et VarX = 0⇔ X = c
Propriété 4.2.3. Var(cX) = c2 VarX
Démonstration.
E(cX − E(cX)|2 = E|c− (X − EX)|2 = c2E|X − EX|2
Propriété 4.2.4. Var(X + a) = VarX
Propriété 4.2.5. X, Y indépendantes alors : Var(X + Y ) = VarX + VarY
Démonstration. Soit a = EX et b = EY
Var(X + Y ) = Var(X + Y − (a+ b)) = Var(X − a+ Y − b) (∗)
On note X1 = X − a et Y1 = Y − b.
(∗) = E(X1 + Y1)2 = EX21 + EY 2
1 + 2E|X1Y1|
= EX21 + EY 2
1 = VarX + VarY
Exemple 4.2.2. X ∼ B(n, p), EX = np
VarX =n∑k=0|k − np|2Ck
npk(1− p)n−k
On a que X ∼ νn
VarX = Var(νn) = Var(ε1 + ...+ εn) = Var ε1 + ...+ Var εn = np(1− p)
Chapitre 4. Espérance mathématique 31
4.3 Inégalité de Markov et TchebychevProposition 4.3.1 (Inégalité de Markov). Soit X ≥ 0, alors ∀t ≥ 0
PX ≤ t ≤ EXt
Démonstration dans le cas discret. Soit X de valeurs ai et de probabilité pi. On a que ai ≥ 0
PX ≤ t =∑i|ai≥t
pi ≤∑i|ai≥t
aitpi ≤
1t
∑i
aipi = EXt
Proposition 4.3.2 (Inégalité de Tchebychev). Soit X une variable alétaoire tel que EX etVarX existent alors ∀t ≥ 0 :
P|X − EX| ≥ t = VarXt2
Démonstration.
P|X − EX| ≥ t = P|X − EX|2︸ ︷︷ ︸Y
≥ t2︸︷︷︸s
= EYs
= E|X − EX|2t2
= VarXt2
Chapitre 5
Loi des grands nombres
5.1 Loi des grands nombresTheorème 5.1.1 (Loi des grands nombres). Soit (Xn) variables aléatoires de même loi, EXk =a, VarXk = σ2 <∞. Alors :
Snn
P−→ a
Notation.n∑k=1
Xk = Sn
Définition 5.1.1. Yn P−→ Y si ∀ε > 0 :
P|Yn − Y | > ε −−−−→n→+∞
0
Démonstration. Soit ε > 0
P∣∣∣∣Snn − a
∣∣∣∣ < ε≤ E
(Snn− a
)≤
Var(Snn− a
)ε2 =
1n2 VarSn
ε2 = 1ε2
1n2
n∑i=1
Var(Xi)
= 1ε2nσ2
n= σ2
ε21n−−−−→n→+∞
0
Exemple 5.1.1. Soit A de valeurs εi de probabilité p :
εi =
1 si A à la i-ème épreuve0 si AC à la i-ème épreuve
nAn
= ε1 + ...+ εnn
P−→ Eε1 = p = P (A)
32
top related