probas-master1-gsi.pdf

86
MESURES ET ANALYSES STATISTIQUES DE DONNÉES Probabilités Master Génie des Systèmes Industriels, mentions ACCIE et RIM Université du Littoral - Côte d’Opale, La Citadelle Laurent SMOCH ([email protected]) Septembre 2012 Laboratoire de Mathématiques Pures et Appliquées Joseph Liouville Université du Littoral, zone universitaire de la Mi-Voix, bâtiment H. Poincarré 50, rue F. Buisson, BP 699, F-62228 Calais cedex

Upload: el-golli-mahdi

Post on 11-Dec-2015

2 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: probas-Master1-GSI.pdf

MESURES ET ANALYSES STATISTIQUES DE DONNÉESProbabilités

Master Génie des Systèmes Industriels, mentions ACCIE et RIM

Université du Littoral - Côte d’Opale, La Citadelle

Laurent SMOCH

([email protected])

Septembre 2012

Laboratoire de Mathématiques Pures et Appliquées Joseph LiouvilleUniversité du Littoral, zone universitaire de la Mi-Voix, bâtiment H. Poincarré

50, rue F. Buisson, BP 699, F-62228 Calais cedex

Page 2: probas-Master1-GSI.pdf

Table des matières

1 Le dénombrement 11.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1.2 Ensemble produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1.3 Notation factorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2 Le dénombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2.1 Ensemble produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2.2 Nombre d’applications d’un ensemble E de cardinal p dans un ensemble F de cardinal n 21.2.3 Parties d’un ensemble et cardinaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2.4 Arrangements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2.5 Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2.6 Combinaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.2.7 Combinaisons avec répétition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2.8 Modèle fondamental : schéma d’urne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2 La probabilité 132.1 Le vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.1.1 Expérience aléatoire et univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.1.2 Evénements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.1.3 Propriétés de P(Ω) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.1.4 Opérations sur les événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.2 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.2.1 Axiome de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.2.2 Conséquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2.3 Ensembles probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.3.1 Ensembles finis probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.3.2 Ensembles infinis dénombrables probabilisés . . . . . . . . . . . . . . . . . . . . . . . . 16

2.4 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.4.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.4.3 Indépendance en probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.4.4 La formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

3 Les variables aléatoires réelles 233.1 Introduction - Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233.2 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243.3 Types de variables aléatoires réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253.4 Fonction de répartition d’une variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . 26

3.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263.4.2 Représentation graphique - Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

I

Page 3: probas-Master1-GSI.pdf

II TABLE DES MATIÈRES

3.4.3 Représentation graphique - Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . 283.5 Fonction de répartition d’une variable aléatoire continue - Densité de probabilité . . . . . . . 29

3.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293.5.2 Interprétation graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293.5.3 Propriétés de la fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . 303.5.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3.6 Moments d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.6.1 Espérance mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.6.2 Variable centrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.6.3 Moments d’ordre k . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.6.4 Moments centrés d’ordre k . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.6.5 Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.6.6 Moments factoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

3.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

4 Lois de probabilités discrètes usuelles 414.1 Loi et variable de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414.1.2 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4.2 Loi et variable binomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424.2.2 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424.2.3 Somme de deux variables binomiales indépendantes . . . . . . . . . . . . . . . . . . . . 434.2.4 Loi et variable fréquences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

4.3 Loi et variable multinomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444.3.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444.3.2 Loi trinomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444.3.3 Loi multinomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

4.4 Loi et variables hypergéométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454.4.2 Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464.4.3 Limite d’une variable hypergéométrique . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4.5 Loi et variable de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474.5.2 Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474.5.3 Somme de deux variables de Poisson indépendantes . . . . . . . . . . . . . . . . . . . . 484.5.4 Limite d’une variable binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

4.6 Loi et variable géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 484.6.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 484.6.2 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

4.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

5 Lois de probabilités continues usuelles 555.1 Loi et variable uniformes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

5.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 555.1.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 555.1.3 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

5.2 La loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575.2.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575.2.3 Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

5.3 La loi de Laplace-Gauss ou loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

Page 4: probas-Master1-GSI.pdf

TABLE DES MATIÈRES III

5.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 585.3.2 Représentation graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 585.3.3 Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 595.3.4 Variable normale centrée réduite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 595.3.5 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605.3.6 Table de l’écart réduit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 625.3.7 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 635.3.8 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 645.3.9 Relation entre la fonction de répartition et la densité de probabilité des loi normale et

loi normale centrée réduite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 645.3.10 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 645.3.11 Somme de deux variables normales indépendantes . . . . . . . . . . . . . . . . . . . . . 645.3.12 Approximation d’une loi binomiale par une loi normale . . . . . . . . . . . . . . . . . . 655.3.13 Résumé sur les approximations de lois . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

5.4 Loi et variable du χ2 (Khi-deux) de Pearson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 665.4.1 La distribution du χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 665.4.2 Les données du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 675.4.3 Ajustement d’une distribution observée à une distribution théorique . . . . . . . . . . 67

5.5 Loi de Student-Fischer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 735.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 735.5.2 Les courbes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 745.5.3 Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 745.5.4 Les tables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

5.6 Loi de Fischer-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 755.6.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 755.6.2 Les courbes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 765.6.3 Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 765.6.4 Les tables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

5.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

Page 5: probas-Master1-GSI.pdf

IV TABLE DES MATIÈRES

Page 6: probas-Master1-GSI.pdf

Chapitre 1

Le dénombrement

1.1 Notations

1.1.1 Préliminaires

• Soit E un ensemble fini, le cardinal de E, noté Card(E) ou |E|, désigne le nombre de ses éléments.• P(E) désigne l’ensemble des parties de E (y compris l’ensemble E lui-même et l’ensemble vide noté∅).Exemple 1.1.1 Si on se donne E = 0, 1, 2, l’ensemble des parties de E est donné par

P(E) = ∅; 0; 1; 2; 0, 1; 0, 2; 1, 2;E• Soient A et B deux parties de E alors• A ∩B = x ∈ E/x ∈ A et x ∈ B définit l’intersection de A et de B,

• A ∪B = x ∈ E/x ∈ A ou x ∈ B définit la réunion de A et de B,

• A = x ∈ E/x /∈ A définit le complémentaire de A dans E,

• A−B = x ∈ E/x ∈ A et x /∈ B = A ∩B définit “A privé de B” (on écrit également A/B),

• A4B = (A−B) ∪ (B −A) = (A ∩B) ∪ (A ∩B) définit la différence symétrique de A et de B.On a par conséquent A4B = x ∈ E/(x ∈ A et x /∈ B) ou (x /∈ A et x ∈ B) .

Exemple 1.1.2 Si on se donne les ensembles E = 0, 1, 2, 3, 4, 5, 6, A = 0, 1, 2, B = 2, 3, 4 alors• A ∩B = 2,• A ∪B = 0, 1, 2, 3, 4,• A = 3, 4, 5, 6,• B = 0, 1, 5, 6,• A−B = A ∩B = 0, 1,• B −A = B ∩A = 3, 4,• A4B = 0, 1, 3, 4.

1.1.2 Ensemble produit

Soient deux ensembles finis E et F .1. On appelle ensemble produit ou produit cartésien de E par F , l’ensemble noté

E × F = (x, y)/x ∈ E, y ∈ F

Exemple 1.1.3 Soient les ensembles E = 0, 1, 2 et F = a, b. On a alors

E × F = (0, a); (0, b); (1, a); (1, b); (2, a); (2, b).

1

Page 7: probas-Master1-GSI.pdf

2 CHAPITRE 1. LE DÉNOMBREMENT

2. E2 est le produit cartésien de E.

E2 = (x, y)/x ∈ E, y ∈ E

Dans l’exemple précédent, on a E2 = (0, 0), (0, 1), (0, 2), (1, 0), (1, 1), (1, 2), (2, 0), (2, 1), (2, 2) etF 2 = (a, a), (a, b), (b, a), (b, b).

3. On peut généraliser la définition du produit cartésien. Soient p ensembles finis E1,E2,. . .,Ep alors

E1 × E2 × . . .× Ep = (x1, x2, . . . , xp)/x1 ∈ E1, x2 ∈ E2, . . . , xp ∈ Ep

1.1.3 Notation factorielle

Soit n un entier naturel non nul (n ∈ N∗), on définit n! = 1× 2× 3× . . .× n qui se lit “factorielle n”.

Exemple 1.1.4 5! = 5× 4× 3× 2× 1 = 120.

Par convention, on pose 0! = 1 . Exercice 1 Simplifiez a =n!

(n− 1)!n ∈ N∗, b =

n!

(n− 2)!avec n ∈ N− 0; 1. Exercice 2 Écrire à l’aide de deux factorielles le produit 5× 6× 7× 8.

1.2 Le dénombrement

1.2.1 Ensemble produit

1. Soient deux ensembles finis E et F de cardinaux respectifs n et p. Le cardinal du produit cartésien deE par F est donné par

Card(E × F ) = Card(E)× Card(F )

En effet, E×F = (x, y)/x ∈ E, y ∈ F. Comme x et y peuvent prendre respectivement n et p valeurs,il y a n× p couples (x, y) possibles.

Exemple 1.2.1 Soient les ensembles E = 0, 1, 2 et F = a, b. On a Card(E × F ) = 3× 2 = 6.

2. Lorsque F = E,

Card(E2) = Card(E × E) = Card(E)× Card(E) = (Card(E))2

Exemple 1.2.2 Dans l’exemple précédent, on a Card(E2) = 32 = 9 et Card(F 2) = 22 = 4.

3. On peut généraliser la définition du cardinal. Soient p ensembles finis E1,E2,. . .,Ep alors

Card(E1 × E2 × . . .× Ep) = Card(E1)× Card(E2)× . . .× Card(Ep)

1.2.2 Nombre d’applications d’un ensemble E de cardinal p dans un ensemble F decardinal n

1. Le nombre d’applications de E dans F est

np = (Card(F ))Card(E)

Exemple 1.2.3 Soient E = 0, 1 et F = a, b, c. Le nombre d’applications de E dans F est 32 = 9.

– Considérons une application de E dans F , représentée par la Figure 1.1. Cette application estcaractérisée par le couple (a, a) avec la convention “0 a pour image a” et “1 a pour image a”.

– Considérons maintenant une nouvelle application, représentée par la Figure 1.2. Cette application

est caractérisée par le couple (a, c) tel que

0 → a1 → c

.

Page 8: probas-Master1-GSI.pdf

1.2. LE DÉNOMBREMENT 3

Figure 1.1

Figure 1.2

– Les neuf applications de E dans F sont donc caractérisées par les 9 couples (a, a), (b, b), (c, c), (a, b),(b, a), (a, c), (c, a), (b, c) et (c, b). Un couple (x, y) caractérise l’application

0→ x1→ y

x et y pouvant prendre les valeurs a, b, c. Exercice 3 Soit un ensemble de 5 éprouvettes que l’on veut répartir dans trois rangements. Chaquerangement pouvant contenir 0, 1 ou plusieurs éprouvettes, quel est le nombre de répartitions distinctes ? Exercice 4 À l’intérieur d’un laboratoire, un numéro de téléphone fixe est composé d’un indica-tif (2 numéros) et d’une suite ordonnée de 8 numéros. Pour un indicatif donné, combien y a-t-il denuméros possibles ?

2. p-listes ordonnées avec remiseSoit un ensemble F = e1, e2, . . . , en de cardinal n. On appelle p-liste d’éléments de F , une listeordonnée de p éléments de F (appelée encore p-uplet) de la forme (x1, x2, . . . , xp), les xi étant deuxéléments distincts ou non de F . Ces p-uplets sont au nombre de np puisqu’il y a n choix possibles pourles p éléments.

Exemple 1.2.4 Soit F = e1, e2, e3.– Les 2-listes ordonnées avec remise (ce qui signifie que les éléments peuvent se répéter) ou 2-uplets

sont au nombre de 32 = 9 c’est-à-dire qu’il existe 9 couples (x, y) formés par deux éléments distinctsou non de F . Ces éléments sont (e1, e1), (e1, e2), (e2, e1), (e1, e3), (e3, e1), (e2, e2), (e2, e3), (e3, e2),(e3, e3).

– Les 3-listes ordonnées avec remise (ou 3-uplets, ou triplets) sont au nombre de 33 = 27, on peut citerentre-autres (e1, e1, e1), (e2, e1, e3), (e3, e2, e3).

Exercice 5 Combien peut-on former de sigles d’entreprises de deux lettres ? de trois lettres ? dequatre lettres ?

Page 9: probas-Master1-GSI.pdf

4 CHAPITRE 1. LE DÉNOMBREMENT

Exercice 6 On extrait à l’aveugle 3 pièces métalliques d’un conteneur qui en compte 9 : 4 piècesde type A, 3 pièces de type B, 1 pièce de type C et 1 pièce de type D. Combien y a-t-il de résultatspermettant d’obtenir successivement avec remise(a) 3 pièces de type A ?(b) aucune pièce de type B ?(c) 3 pièces de type C ?(d) dans cet ordre : 2 pièces de type A et 1 pièce de type B ?(e) 2 pièces de type A et 1 pièce de type B ?(f) 1 pièce de type A, 1 pièce de type B et 1 pièce de type C ?

1.2.3 Parties d’un ensemble et cardinaux

1. Le nombre de parties d’un ensemble E de cardinal n est 2n.

Card(E) = n⇒ Card(P(E)) = 2n.

Exemple 1.2.5 On a vu dans un exemple précédent que P(E) = ∅; 0; 1; 2; 0, 1; 0, 2; 1, 2;Esi E = 0, 1, 2, ce qui confirme bien que Card(P(E)) = 23 = 8.

2. Si A et B sont deux parties de E,

Card(A ∪B) = Card(A) + Card(B)− Card(A ∩B) Exercice 7 Parmi les 20 employés d’une entreprise, 8 connaissent l’anglais, 5 l’allemand, 3 les deuxlangues. Dénombrez ceux qui connaissent au moins une langue.

3. Le complémentaire d’une partie A de E est défini par

A = AE avec Card(A) = Card(E)− Card(A) .

Exemple 1.2.6 Soient E = 0, 1, 2, 3, 4 et A = 2, 4 alors A = 0, 1, 3 et Card(A) = 5− 2 = 3.

Exercice 8 Un sondage d’opinion, relatif à l’ambiance d’un cours de “Mesures et analyses statis-tiques de données”, a été réalisé parmi 83 étudiants de Master 1 GSI en 2012 et donne les résultatssuivants :

Très Assez Assez Trèssatisfaits satisfaits déçus déçus

Filles de9 6 2 2

moins de 23 ans

Filles de7 9 4 2

23 ans et plus

Garçons de6 6 4 3

moins de 23 ans

Garçons de2 4 6 11

23 ans et plus

On pose : F les femmes, P les étudiants de 23 ans et plus, D les étudiants assez déçus ou très déçus,A les étudiants assez déçus ou assez satisfaits. On note F , A, D les ensembles complémentaires de F ,A et D. Déterminez le nombre d’éléments des ensembles suivants en précisant ce qu’il représente :(a) F , P , D et A,(b) F ∩ P ∩D ∩A,(c) (F ∩D) ∪ (P ∩A),(d) F ∩ (P ∩D ∩A).

Page 10: probas-Master1-GSI.pdf

1.2. LE DÉNOMBREMENT 5

1.2.4 Arrangements

1. Soient un ensemble F de cardinal n et p un entier naturel tel que 1 ≤ p ≤ n. On appelle arrangement,d’ordre p, des éléments de F , un p-uplet (x1, x2, . . . , xp) où les éléments xi sont des éléments dis-tincts de F .

Déterminons le nombre d’arrangements d’ordre p, noté Apn :– si p > n : Apn = 0– si p ≤ n : pour x1, il y a n choix possibles. x1 étant choisi, il y a n − 1 choix possibles pour x2 et

ainsi de suite. Enfin, x1, x2, . . . , xp−1 étant choisis, il reste n − (p − 1) = n − p + 1 choix possiblespour xp. Le nombre d’arrangements d’ordre p est donc

Apn = n(n− 1)(n− 2) . . . (n− p+ 1)

Cette égalité peut se réécrire Apn = n(n− 1)(n− 2) . . . (n− p+ 1)× (n− p)(n− p− 1) . . . 2× 1

(n− p)(n− p− 1) . . . 2× 1,

ce qui signifie que

Apn =n!

(n− p)!

2. Cas particuliers : Avec la convention 0! = 1 le résultat précédent implique

A0n = 1 et Ann = 1

Exercice 9 L’équipe de direction d’un laboratoire de chimie de 20 membres est constituée d’undirecteur, d’un directeur technique et d’un directeur Recherche et Développement. Combien d’équipesde direction peut-on constituer, sachant qu’une même personne ne peut cumuler les postes ? Exercice 10 Soit le mot FIABILITE. À l’aide de ce mot, combien d’anagrammes et combien demots - au sens large - de 5 lettres distinctes peut-on former ?

1.2.5 Permutations

1. On appelle permutation d’un ensemble F de cardinal n, un arrangement d’ordre n de F . Le nombrede ces permutations est donné par Pn = Ann = n!.

2. Permutation avec répétition

Exemple 1.2.7 Déterminons le nombre d’anagrammes du mot FINI.Si on considère les deux I comme différents, I1 et I2, les 4 lettres de FI1NI2 étant distinctes, il existe4! = 24 anagrammes. Dans ces 24 mots, les mots FI1NI2 et FI2NI1 apparaissent. Chaque mot est

comptabilisé deux fois. Le nombre d’anagrammes de FINI est donc4!

2!= 12.

Exemple 1.2.8 Déterminons le nombre d’anagrammes du mot ENSEMBLE.Si on numérote les trois E, on obtient E1NSE2MBLE3. Les huit lettres étant distinctes, il existe8! anagrammes de E1NSE2MBLE3. Dans ces 8! mots, le mot ENSEMBLE apparaît 3! = 6 fois,

chaque mot est donc comptabilisé 3! fois. Le nombre d’anagrammes de ENSEMBLE est donc8!

3!.

Exemple 1.2.9 Déterminons le nombre d’anagrammes du mot MATHEMATIQUES.

En procédant comme précédemment, on obtient13!

2!2!2!2!anagrammes.

3. Cas généralSoit une famille E de cardinal n, définie par E = a1, a2, . . . , ak, la lettre a1 étant répétée r1 fois, lalettre a2 r2 fois, la lettre ak rk fois avec r1 + r2 + . . .+ rk = n. Le nombre de permutations est alors

Page 11: probas-Master1-GSI.pdf

6 CHAPITRE 1. LE DÉNOMBREMENT

n!

r1!r2! . . . rk! Exercice 11 Supposons qu’un protocole d’expérimentation soit constitué de 10 étapes.

(a) Si on considère que toutes les étapes sont différentes, combien de protocoles distincts peut-onréaliser ?

(b) Si 4 et 6 de ces étapes sont identiques, combien de protocoles distincts peut-on obtenir ?

1.2.6 Combinaisons

1. Soit un ensemble F ayant n éléments distincts. On appelle combinaison d’ordre p de F toute partieà p éléments (0 ≤ p ≤ n).

Remarque 1.2.1 Deux combinaisons distinctes d’ordre p diffèrent par la nature de leurs éléments etnon pas par l’ordre.

Exemple 1.2.10 Soit F = a, b, c, d. Les combinaisons d’ordre 3 de F sont a, b, c, a, b, d, a, c, d,b, c, d.

Exemple 1.2.11 Avec les éléments a, b, c, on peut constituer– une combinaison de 3 éléments : a, b, c,– six arrangements de 3 éléments : (a, b, c), (a, c, b), (b, a, c), (b, c, a), (c, a, b) et (c, b, a).

Le nombre de combinaisons d’ordre p est noté Cpn ou(np

)et est défini par

Cpn =Apnp!

=n!

p!(n− p)!=n(n− 1)(n− 2) . . . (n− p+ 1)

p!

Les Cpn sont encore appelés coefficients binomiaux. Exercice 12 Un support de tubes à essais contient 2 tubes de 20 mL, 4 tubes de 10 mL, 4 tubes de5 mL et 6 tubes de 2 mL. On prend au hasard 5 tubes sur le support. De combien de façons différentespeut-on obtenir un total de 40 mL?

2. Propriétés des nombres Cpn– On a le résultat

Cpn = Cn−pn pour n ≥ 0 et 0 ≤ p ≤ n.

En particulier, C0n = Cnn = 1 et C1

n = Cn−1n = n.

– On a égalementCpn = Cpn−1 + Cp−1n−1 pour n ≥ 1 et 1 ≤ p ≤ n.

3. Binôme de NewtonOn a la formule

(x+ y)n =

n∑p=0

Cpnxpyn−p pour n ≥ 0.

Exemple 1.2.12 (x+ y)5 = C05x

0y5 + C15x

1y4 + C25x

2y3 + C35x

3y2 + C45x

4y1 + C55x

5y0

= y5 + 5y4x+ 10y3x2 + 10y2x3 + 5yx4 + x5.

Exercice 13 Développez à l’aide de la formule du binôme les expressions suivantes où a est unnombre réel quelconque

Page 12: probas-Master1-GSI.pdf

1.2. LE DÉNOMBREMENT 7

(a) E = (a+ 1)4

(b) F = (a− 3)5

4. Le triangle de PascalCe triangle permet par simple addition de récupérer les coefficients Cpn à partir des Cpn−1.

HHHHHnp

0 1 2 3 4 5 · · · p− 1 p

0 11 1 12 1 2 13 1 3 3 14 1 4 6 4 15 1 5 10 10 5 1...

.... . .

n− 1 Cp−1n−1 Cp

n−1

n Cpn

1.2.7 Combinaisons avec répétition

Soit un ensemble F de cardinal n. On nomme combinaison d’ordre p, avec répétition des élémentsde E, une liste de p éléments tous extraits de E, les répétitions étant autorisées mais l’ordre dans la listen’intervient pas.

Le nombre de combinaisons avec répétition, d’ordre p, est noté

Γpn = Cpn+p−1 = Cn−1n+p−1 =(n+ p− 1)!

p!(n− 1)!

Exemple 1.2.13 5 clients vous commandent 5 composants électroniques parmi les 8 que vous fabriquez.Quel est le nombre de commandes globales distinctes dans les cas suivants ?

– Les composants sont tous différents : C58 =

8!

5!3!= 56.

– Les composants sont tous quelconques : C58+5−1 = C5

12 = 792.

1.2.8 Modèle fondamental : schéma d’urne

Il est très pratique dans les exercices de considérer l’ensemble E impliqué comme une urne contenant nboules numérotées de 1 à n, chacune des boules s’interprétant comme un élément de E, et de laquelle on tirep boules. On aura très souvent les cas suivants :

– Tirages successifs avec remise : On tire au hasard une boule dans l’urne puis on la remet dans l’urneavant d’effectuer le tirage suivant. Si on effectue ainsi p tirages avec remise, le résultat global s’interprètecomme une p-liste. Il y a donc np tirages avec remise (de p éléments) possibles.

– Tirages successifs et sans remise : On tire au hasard une boule dans l’urne que l’on conserve, la boulen’est donc pas remise dans l’urne qui contient ainsi après chaque tirage une boule de moins. Si oneffectue ainsi p tirages sans remise (p ≤ n), le résultat global s’interprète comme une p-liste d’éléments2 à 2 distincts ou encore comme un arrangement de p éléments de E. Il y a donc Apn tirages sans remise(de p éléments) possibles.

– Tirages simultanés : On tire simultanément p boules de l’urne (et non plus successivement, cela revientà dire que l’ordre du tirage des boules est sans importance). Un tel tirage s’interprète comme un sous-ensemble de E et donc comme une combinaison de p éléments de E. Il y a donc Cpn tirages simultanés(de p éléments) possibles.

Page 13: probas-Master1-GSI.pdf

8 CHAPITRE 1. LE DÉNOMBREMENT

1.3 Exercices

Exercice 14 Soit Ω un ensemble. On note P l’ensemble de ses parties.

1. Considérons l’ensemble Ω1 = 1. Déterminez l’ensemble P(Ω1).

2. Considérons l’ensemble Ω2 = 1, 2. Déterminez l’ensemble P(Ω2).

3. Considérons l’ensemble Ω3 = 1, 2, 3. Déterminez l’ensemble P(Ω3). Exercice 15 Une classe de Master 1 se compose de 20 garçons et 8 filles.

1. De combien de façons peut-on désigner trois garçons pour tenir les rôles des 3 premiers de la promotion ?

2. De combien de façons peut-on désigner trois garçons et deux filles pour tenir les 5 premiers rôles de lapromotion ?

Exercice 16 Afin de tester leur résistance, 4 appareils électriques d’un même type sont mis et laissés enfonctionnement pendant un laps de temps conséquent. Chaque appareil peut subir une défaillance complète(appelée défaillance catalectique, un court-circuit en est un exemple), une défaillance partielle n’entraînantpas d’arrêt, ou aucune défaillance.

1. De combien de manières dictinctes les 4 appareils peuvent-ils se comporter ?

2. Parmi toutes les réponses possibles, quelles sont celles qui imposeront de revoir la fabrication desappareils, c’est-à-dire 3 “défaillances catalectiques” ou plus ?

Exercice 17 Un programme informatique génère de manière aléatoire des nombres compris entre 1 à20. On lance le programme.

1. Calculez les cardinaux des événements suivants :A : “obtenir un nombre pair”,B : “obtenir un nombre impair”,C : “obtenir un nombre divisible par 3”,D : “obtenir un nombre au moins égal à 2”.

2. Déterminez B ∩ C et en déduire Card(B ∪ C).

Exercice 18 Les 8 analytes (de type I ou II) de 4 échantillons différents ont été soumis à une spectro-photométrie d’absorption atomique permettant de mesurer leur teneur en plomb. On suppose que les 32mesures sont distinctes, elles sont ensuite ordonnées au sein de leur échantillon, de la plus grande teneur à laplus petite (par exemple, T2,4 désigne la 2e plus forte teneur en plomb d’un analyte provenant de l’échantillon4). On récupère alors 3 mesures au hasard.

1. Combien y a-t-il de résultats possibles ?

2. Calculez les cardinaux des événements suivants :A : “une seule 2e plus forte teneur en plomb”,B : “une seule 2e plus forte teneur en plomb provenant de l’échantillon 1 ou 2”,C : “uniquement les 3e plus fortes teneurs en plomb”,D : “au moins une plus forte teneur en plomb”,E : “une 4e plus forte teneur en plomb et une 3e plus forte teneur provenant de l’échantillon 3 ou 4”,F : “une seule 2e plus forte teneur en plomb et deux teneurs provenant du 3e échantillon”.

Exercice 19 3 lots P1, P2, P3 de Streptomycine ont été titrés par dosage au maltol. Les résultats sontclassés dans 6 intervalles numérotés de 1 à 6. On note la classe d’appartenance de chacun des lots P1, P2,P3 dans cet ordre et on forme un nombre de 3 chiffres, P1 indiquant le chiffre des centaines, P2 celui desdizaines et P3 celui des unités.

Page 14: probas-Master1-GSI.pdf

1.3. EXERCICES 11

1. Combien y a-t-il de nombres possibles ?

2. Calculez les cardinaux des événements suivants :A : “les trois chiffres du nombre sont égaux”,B : “les trois chiffres du nombre sont différents”,C : “deux des trois chiffres au moins sont égaux”,D : “le nombre formé est pair”,E : “le nombre formé commence par 3”,F : “le nombre formé est divisible par 9”.

Exercice 20 Un consultant en maintenance industrielle doit visiter 5 entreprises dans les villes suivantes :Arras, Boulogne, Cherbourg, Digne et Epernay.

1. Combien de circuits différents peut-il réaliser ?

2. Il commence son voyage par Arras. Combien de circuits différents peut-il réaliser ?

3. Il commence son voyage par Arras et doit terminer par Epernay. Combien de circuits différents peut-ilréaliser ?

Exercice 21 Résoudre dans l’ensemble des entiers naturels les équations suivantes :

1. A3n = 210n

2. C2n = 6

3. C1n + C2

n + C3n = 5n

Exercice 22 On effectue 20 fois une même expérience qui n’a que deux issues possibles : soit elle réussit,soit elle échoue.

1. Combien y a-t-il de suites d’observations des réussites et échecs ?

2. Combien y a -t-il de suites d’observations comptant 5 réussites ?

Page 15: probas-Master1-GSI.pdf

12 CHAPITRE 1. LE DÉNOMBREMENT

Page 16: probas-Master1-GSI.pdf

Chapitre 2

La probabilité

2.1 Le vocabulaire

2.1.1 Expérience aléatoire et univers

La théorie des probabilités fournit des modèles mathématiques permettant l’étude d’expériences dont onne peut prévoir le résultat avec certitude. Une telle expérience est appelée expérience aléatoire.On appelle univers, noté Ω, tout ensemble dont les éléments représentent tous les résultats possibles d’uneexpérience aléatoire. L’ensemble des résultats possibles est connu.

2.1.2 Evénements

Soit Ω un univers correspondant à une certaine expérience aléatoire. Il sera noté généralement

Ω = w1, w2, . . . , wp

Les wi, éléments de Ω, sont des éventualités. Le singleton wi est appelé événement élémentaire. Unepartie de Ω est appelée événement, c’est un élément de P(Ω) (qui on le rappelle, définit l’ensemble desparties de Ω).

Exemple 2.1.1 Dans le cas du “lancer d’un dé à 6 faces ”, les éventualités sont 1, 2, 3, 4, 5, 6, les événementsélémentaires 1, 2, 3, 4, 5 et 6. Les événements sont les parties de Ω, par exemple, l’événement“obtenir un nombre pair ” peut s’écrire A = 2, 4, 6.

On a également les définitions suivantes : soit A un événement de Ω,– on dit que A se réalise si le résultat obtenu à l’issue de l’expérience aléatoire est un élément de A.– Soit A un événement de Ω. On appelle événement contraire de A (ou complémentaire), noté A,

l’ensemble des éléments de Ω qui n’appartiennent pas à A. Autrement dit, l’événement A se réaliselorsque l’événement A ne se réalise pas.

– Soient A et B deux événements de Ω. On appelle intersection de A et B le sous-ensemble des élémentsde Ω qui appartiennent à la fois à A et à B et on le note A ∩B. Autrement dit, l’événement A ∩B seréalise lorsque les événements A et B se réalisent.

– Soient A et B deux événements de Ω. On appelle réunion de A et B le sous-ensemble des élémentsde Ω qui appartiennent à A ou à B et on le note A ∪ B. Autrement dit, l’événement A ∪ B se réaliselorsque au moins l’un des événements A et B se réalise.

2.1.3 Propriétés de P(Ω)

1. Ω ∈ P(Ω), Ω est appelé événement certain.

2. ∀A ∈ P(Ω)⇒ A ∈ P(Ω)En particulier Ω ∈ P(Ω)⇒ Ω = ∅ ∈ P(Ω). L’ensemble vide est appelé événement impossible.

13

Page 17: probas-Master1-GSI.pdf

14 CHAPITRE 2. LA PROBABILITÉ

3.A ∈ P(Ω)B ∈ P(Ω)

⇒A ∪B ∈ P(Ω)A ∩B ∈ P(Ω)

4. A ∩B = A ∪B5. A ∪B = A ∩B6. A ∩ (B ∪ C) = (A ∩B) ∪ (A ∩ C), A ∪ (B ∩ C) = (A ∪B) ∩ (A ∪ C)

2.1.4 Opérations sur les événements

Les opérations sur les ensembles ont une interprétation en matière d’événements.1. A ⊂ B : la réalisation de A implique celle de B.2. A ∪B désigne l’événement “A ou B”, il se produit si au moins un des événements est réalisé.3. A ∩B désigne l’événement “A et B”, il se produit si A et B sont tous les deux réalisés.4. Soient deux parties disjointes A et B, c’est-à-dire telles que A ∩ B = ∅. Les événements A et B sont

dits incompatibles.5. Soit un système d’événements Ai, i ∈ I. Les événements Ai sont dits globalement incompatibles

si⋂i∈I

Ai = ∅.

Remarque 2.1.1 Si les Ai sont deux à deux incompatibles alors ils sont globalement incompatibles,par contre la réciproque est fausse.

Exemple 2.1.2 Avec 3 événements A1, A2 et A3 :

Figure 2.1

on a donc bien A1 ∩A2 ∩A3 = ∅ mais A1 ∩A2 6= ∅, ce qui illustre la remarque précédente.

2.2 Probabilité

2.2.1 Axiome de probabilité

Soient une expérience aléatoire et Ω l’univers associé, P(Ω) l’ensemble des événements. On définit uneprobabilité comme une application qui à un événement associe un nombre qui mesure les chances de réalisationde cet événement. Mathématiquement parlant, une probabilité est une application

p : P(Ω) → R+

A 7→ p(A) ∈ [0; 1]

On dit que p(A) est la probabilité de l’événement A. L’application p vérifie les axiomes suivants1. p(Ω) = 1

2. si A ∩B = ∅ (les événements sont incompatibles) alors p(A ∪B) = p(A) + p(B).

Remarque 2.2.1 Le couple (Ω,P(Ω)) est probabilisé par la définition de la probabilité p. Pour probabiliser(Ω,P(Ω)), il existe une infinité de probabilités possibles. Le choix de la probabilité résulte d’hypothèses faitessur l’épreuve aléatoire.

Page 18: probas-Master1-GSI.pdf

2.3. ENSEMBLES PROBABILISÉS 15

2.2.2 Conséquences

1. p(∅) = 0

Preuve : On a ∅ ∪ ∅ = ∅ et ∅ ∩ ∅ = ∅ donc p(∅) = p(∅) + p(∅)⇒ p(∅) = 0.

2. p(A) + p(A) = 1

Preuve :A ∩A = ∅A ∪A = Ω

⇒ p(Ω) = 1 = p(A) + p(A).

3. A ⊂ B ⇒ p(A) ≤ p(B)

Preuve :A ∪ (B −A) = bA ∩ (B −A) = ∅

⇒ p(B) = p(A) + p(B −A). Comme p(B −A) ∈ R+ on a p(A) ≤ p(B).

4. A ⊂ Ω⇒ 0 ≤ p(A) ≤ 1

Preuve : ∅ ⊂ A ⊂ Ω⇒ p(∅) ≤ p(A) ≤ p(Ω) donc 0 ≤ p(A) ≤ 1.

5. p(A ∪B) = p(A) + p(B)− p(A ∩B)

Preuve :A ∪B = B ∪ (A/B)B ∩ (A/B) = ∅

⇒ p(A ∪B) = p(B) + p(A/B) d’après le deuxième axiome de la probabilité,

(A/B) ∪ (A ∩B) = A(A/B) ∩ (A ∩B) = ∅

⇒ p(A) = p(A ∩B) + p(A/B),

p(A ∪B)− p(B) = p(A/B) = p(A)− p(A ∩B) donc p(A ∪B) = p(A) + p(B)− p(A ∩B).

6. p(A ∪B ∪ C) = p(A) + p(B) + p(C)− p(A ∩B)− p(A ∩ C)− p(B ∩ C) + p(A ∩B ∩ C)

Preuve : En posant B∪C = X on obtient p(A∪B∪C) = p(A∪X) = p(A)+p(X)−p(A∩X) d’après le ré-sultat précédent. Or p(X) = p(B∪C) = p(B)+p(C)−p(B∩C) et A∩X = A∩(B∪C) = (A∩B)∪(A∩C).Par conséquent, p(A∩X) = p(A∩B)+p(A∩C)−p(A∩B∩A∩C) = p(A∩B)+p(A∩C)−p(A∩B∩C).En remplaçant cette expression dans p(A ∪B ∪ C) on obtient l’égalité.

Remarque 2.2.2– Dans le cas où les événements A, B et C sont incompatibles deux à deux, on obtient

p(A ∪B ∪ C) = p(A) + p(B) + p(C)

– On peut généraliser cette propriété à n événements incompatibles deux à deux

p

(⋃i∈I

Ai

)=∑i∈I

p(Ai) avec Ai ∩Aj = ∅ pour i 6= j

2.3 Ensembles probabilisés

2.3.1 Ensembles finis probabilisés

1. Soit Ω un ensemble fini de cardinal n ∈ N? donné par :

Page 19: probas-Master1-GSI.pdf

16 CHAPITRE 2. LA PROBABILITÉ

Ω = w1, w2, . . . , wn

On définit une probabilité de la façon suivante

• pi = p (wi) ≥ 0

•n∑i=1

pi = 1

Remarque 2.3.1 Si A est une partie de Ω, p(A) =∑wi∈A

p (wi).

2. On dit qu’on a équiprobabilité sur Ω si tous les événements élémentaires ont la même probabilité,autrement dit si

p(ω1) = p(ω2) = . . . = p(ωn).

Remarque 2.3.2 Si on a équiprobabilité sur Ω alors, d’après la définition d’une probabilité, on a

p(ω1) = p(ω2) = . . . = p(ωn) =1

n.

et, pour tout événement A,

p(A) =k

n=

Card(A)

Card(Ω)

où, on le rappelle, Card(A) désigne le nombre d’éléments contenus dans l’ensemble A.

Remarque 2.3.3 Considérons l’expérience aléatoire qui consiste à lancer un dé cubique. Supposonsque le dé soit équilibré (ou non truqué ou non pipé), dans ce cas, si pi est la probabilité d’obtenir la

face i avec i ∈ 1, 2, . . . , 6, p1 = p2 = p3 = p4 = p5 = p6 =1

6.

Soit A l’événement “le numéro de la face supérieure du dé est pair”. Alors p(A) =3

6de par l’équipro-

babilité des événements élémentaires. En effet, p(A) = p(2 ∪ 4 ∪ 6) = p(2) + p(4) + p(6)car les événements (élémentaires) 2, 4 et 6 sont incompatibles deux à deux.

2.3.2 Ensembles infinis dénombrables probabilisés

Un ensemble Ω est un ensemble dénombrable infini s’il existe une bijection de N ou de N∗ dans Ω. Ilpeut s’écrire sous la forme :

Ω = w1, w2, w3, . . . , wn, . . . . . .

On définit une probabilité p sur (Ω,P(Ω)) en attribuant à chaque wi une probabilité pi = p(wi) ≥ 0 telleque

∑i∈N∗

pi = 1.

Exemple 2.3.1 On réalise une expérience qui n’a que deux issues possibles (l’échec ou la réussite) jusqu’àce qu’elle réussisse. On s’intéresse au nombre de réalisations nécessaires à la réussite. Ce nombre est variable,Ω = N∗ donc Ω est un ensemble infini dénombrable.• p1 = p (1) =

1

2, la “réussite” apparaît lors de la première réalisation,

• p2 = p (2) =1

2× 1

2=

1

4, la “réussite” apparaît lors de la deuxième réalisation,

...

• pn = p (n) =

(1

2

)n−1(1

2

)=

(1

2

)n, la “réussite” apparaît lors de la n-ième réalisation

donc les(n− 1) premières réalisations ont donné un “échec”...

Page 20: probas-Master1-GSI.pdf

2.4. PROBABILITÉ CONDITIONNELLE 17

Ainsi,∑i∈N∗

pi =1

2+

(1

2

)2

+ . . .+

(1

2

)n+ . . ..

Pour déterminer cette somme, on rappelle la formule

n∑i=1

(1

2

)i=

1

2−(

1

2

)n+1

1− 1

2

.

En effet,n∑i=1

pi est la somme des n premiers termes d’une suite géométrique de raison1

2.

De plus, limn→∞

(1

2

)n+1

= 0 donc∑i∈N∗

pi = limn→+∞

n∑i=1

(1

2

)i=

1

2

1− 1

2

= 1.

2.4 Probabilité conditionnelle

2.4.1 Définition

1. Étant donné un espace probabilisé (Ω,P(Ω), p), A étant un événement de probabilité non nulle, consi-dérons l’application notée pA telle que

pA : P(Ω) → R+

X 7→ pA(X) =p(A ∩X)

p(A)

2. L’application pA est une probabilité. En effet,

• pA(Ω) =p(A ∩ Ω)

p(A)=p(A)

p(A)= 1

• Si X ∩ Y = ∅, pA(X ∪ Y ) =p(A ∩ (X ∪ Y ))

p(A)mais on peut remarquer que A∩ (X ∪ Y ) = (A∩X)∪

(A ∩ Y ) et (A ∩X) ∩ (A ∩ Y ) = A ∩X ∩ Y = X ∩ Y = ∅. Par conséquent,

pA(X ∪ Y ) =p(A ∩X) + p(A ∩ Y )

p(A)=p(A ∩X)

p(A)+p(A ∩ Y )

p(A).

Finalement, si X ∩ Y = ∅ alors pA(X ∪ Y ) = pA(X) + pA(Y ).

3. pA(X) =p(A ∩X)

p(A)est encore notée p(X/A) et est appelée probabilité conditionnelle de X sachant

A ou probabilité de X sachant A ou probabilité de X une fois A réalisé.

Remarque 2.4.1– L’application pA est une probabilité, elle vérifie donc les propriétés de la probabilité, en particulier• pA(∅) = 0

• pA(X) + pA(X) = 1

– Si p(A) 6= 0 et p(B) 6= 0 alors

pA(B) =p(A ∩B)

p(A)= p(B/A) et pB(A) =

p(A ∩B)

p(B)= p(A/B)

Doncp(A ∩B) = p(A)× p(B/A) = p(B)× p(A/B)

– Pour trois événements A, B et C, on a :

p(A)× p(B/A)× p(C/A ∩B) = p(A)× p(B ∩A)

p(A)× p(A ∩B ∩ C)

p(A ∩B)

Page 21: probas-Master1-GSI.pdf

18 CHAPITRE 2. LA PROBABILITÉ

doncp(A ∩B ∩ C) = p(A)× p(B/A)× p(C/A ∩B)

2.4.2 Exemple

Un technicien doit régler de toute urgence un problème électrique sur une machine. La partie défaillanteétant hors de vue mais pas hors d’atteinte, notre réparateur a la possibilité de déconnecter 3 fusibles noirs(numérotés N1, N2, N3) et 2 fusibles rouges (numérotés R1, R2), indiscernables au toucher malheureusementpour lui. Il doit déconnecter deux fusibles rouges successivement pour régler le problème.On a les éventualités suivantes :

(N1, R1) ; (N1, R2) ; (N2, R1) ; (N2, R2) ; (N3, R1) ; (N3, R2) ; (R1, N1) ; (R2, N1) ;(R1, N2) ; (R2, N2) ; (R1, N3) ; (R2, N3) ; (R1, R2) ; (N1, N2) ; (N1, N3) ; (N2, N3) ;(R2, R1) ; (N2, N1) ; (N3, N1) ; (N3, N2)

On dénombre donc 20 résultats possibles. On peut retrouver ce nombre en utilisant des techniques de dé-nombrement : notre problème peut être asssimilé à un arrangement d’ordre 2 des 5 fusibles. On en dénombre

A25 =

5!

3!= 5× 4 = 20.

• On considère les événements :– A : “déconnecter un fusible rouge au premier essai”.– B : “déconnecter un fusible rouge au second essai”.

On a p(A) =2

5, p(A ∩B) =

2

5× 1

4=

2

20=

1

10, p(B) =

8

20=

2

5. Ainsi, en utilisant la définition de la

probabilité conditionnelle, p(B/A) =p(A ∩B)

p(A)=

2

208

20

=1

4.

• Sans utiliser la définition de p(B/A), l’événement A étant réalisé (on a déconnecté un fusible rouge aupremier essai) dans les 8 cas suivants

(R1, N1) ; (R1, N2) ; (R1, N3) ; (R1, R2) ; (N1, R1) ; (N2, R1) ; (N3, R1) ; (R2, R1),

quelle est la probabilité de B ? p(B/A) =2

8=

1

4c’est-à-dire que sur les 8 cas de réalisation de A, 2 cas

donnent la réalisation de B, les cas (R1, R2) et (R2, R1).

2.4.3 Indépendance en probabilité

1. Étant donné un espace probabilisé (Ω,P(Ω), p), on dit que deux événements A et B sont indépendantssi et seulement si

p(A ∩B) = p(A)× p(B)

2. Propriétés équivalentes : Si p(A) 6= 0 et p(B) 6= 0,– les événements A et B sont indépendants si et seulement si p(A) = p(A/B)⇔ p(B) = p(B/A),– la réalisation de A n’influence pas B ; de même la réalisation de B n’influence pas A.

Remarque 2.4.2 On ne confondra pas “indépendance en probabilité” et“événements incompatibles”qui se traduisent respectivement par p(A ∩B) = p(A)p(B) et A ∩B = ∅.

3. Généralisation : Trois événements sont dits globalement indépendants en probabilité s’ils sont deuxà deux indépendants en probabilité c’est-à-dire si• p(A ∩B) = p(A)p(B)• p(B ∩B) = p(B)p(C)• p(A ∩ C) = p(A)p(C)

Page 22: probas-Master1-GSI.pdf

2.4. PROBABILITÉ CONDITIONNELLE 19

4. Soient A et B deux événements indépendants alors A et B sont indépendants.En effet p(A ∩ B) = p(B) × p(A/B) or p(A/B) = 1 − p(A/B) donc p(A ∩ B) = p(B)[1 − p(A/B)] =p(B)[1− p(A)] car A et B sont indépendants. Enfin, p(A ∩ B) = p(B)p(A) ce qui signifie que A et Bsont indépendants.

Remarque 2.4.3 Il en est de même pour A et B, A et B.

Exercice 23 Une formation en Master GSI compte 4 garçons et 6 filles en première année, 6 garçonsen seconde année. Combien doit-il y avoir de filles de seconde année si l’on veut que “sexe” et “année” soientdes facteurs indépendants lors du choix au hasard d’un étudiant ?

2.4.4 La formule de Bayes

1. Soient (Ω,P(Ω), p) un espace probabilisé et un système complet d’événements B1, B2, . . . , Bn deux àdeux incompatibles (Bi ∩Bj = ∅ pour i 6= j et

⋃i∈I

Bi = Ω), on dit que les (Bi)i∈I forment unepartition de Ω.

Soit A un événement de probabilité non nulle, on peut alors écrire la formule de Bayes donnant laprobabilité pour que Bi se réalise sachant A :

p(Bi/A) =p(Bi)× p(A/Bi)∑

j∈Ip(Bj)× p(A/Bj)

Preuve :A = A ∩ Ω = A ∩

(⋃i∈I

Bi

)=⋃i∈I

(A ∩Bi). De plus, (A ∩Bi) ∩ (A ∩Bj) = A ∩ (Bi ∩Bj) = A ∩ ∅ = ∅

pour i 6= j. Par conséquent, p(A) =∑i∈I

p(A ∩Bi) =∑i∈I

p(Bi)× p(A/Bi). Or on sait que p(Bi/A) peut

s’écrire sous la forme p(Bi/A) =p(A ∩Bi)p(A)

=p(Bi)× p(A/Bi)

p(A)d’où la formule de Bayes.

2. Dans le cas d’un système complet de deux événements B1 et B2 (B1 ∩B2 = ∅, B1 ∪B2 = Ω),

• p(B1/A) =p(B1)× p(A/B1)

p(B1)× p(A/B1) + p(B2)× p(A/B2)

• p(B2/A) =p(B2)× p(A/B2)

p(B2)× p(A/B2) + p(B1)× p(A/B1)

3. Dans le cas d’un système complet de trois événements B1, B2 et B3 (B1 ∩B2 = B2 ∩B3 = B1 ∩B3 =∅, B1 ∪B2 ∪B3 = Ω), on a par exemple

p(B1/A) =p(B1)× p(A/B1)

p(B1)× p(A/B1) + p(B2)× p(A/B2) + p(B3)× p(A/B3).

Exercice 24 On suppose que les essais d’un test médical sur une population ont conduit à admettrepour un individu les probabilités suivantes, le test servant à dépister une certaine maladie.

– Probabilité pour qu’un malade ait un test positif (donc probabilité pour que le test soit positif sachantque la personne est malade) : p(T/M) = 0, 95.

– Probabilité pour qu’un non-malade ait un test négatif (donc probabilité pour que le test soit négatifsachant que la personne est saine) : p(T/M) = 0, 95.

– Probabilité pour qu’un individu soit atteint de la maladie p(M) = 0, 01.Quelle est la probabilité pour qu’un individu qui a donné lieu à un test positif soit atteint de la maladie ?

Page 23: probas-Master1-GSI.pdf

20 CHAPITRE 2. LA PROBABILITÉ

2.5 Exercices

Exercice 25 On mesure les longueurs des boulons d’une certaine boîte de 100.On obtient les résultats suivants :

Longueur[4; 4, 2[ [4, 2; 4, 4[ [4, 4; 4, 6[ [4, 6; 5[

en cm

Effectifs 17 24 51 8

On tire au hasard un boulon. Calculez les probabilités des événements suivants :

1. Le boulon mesure moins de 4, 2 cm.

2. Le boulon mesure plus de 4, 4 cm.

Un boulon est utilisable si sa longueur est comprise entre 4, 2 et 4, 6 cm.

3. Quelle est la probabilité qu’un boulon soit utilisable ?

4. On achète 50 boîtes de 100 boulons. Combien peut-on espérer de boulons utilisables ?

Exercice 26 Deux ateliers, notés A et B, d’une même entreprise produisent chaque jour respectivement1000 et 800 puces électroniques d’un même modèle. 2% des pièces produites par l’atelier A et 3% des piècesproduites par l’atelier B sont défectueuses.

1. Complétez le tableau suivant qui décrit la production journalière .

Nombre Nombrede puces de puces non Total

défectueuses défectueuses

Nombre depuces produitespar l’atelier A

Nombre depuces produitespar l’atelier B

Total 1800

2. Un jour donné, on choisit au hasard une puce parmi les 1800 puces produites par les deux ateliers. Onest dans une situation d’équiprobabilité. On considère les événements suivants :A : “la puce choisie provient de l’atelier A”,B : “la puce choisie provient de l’atelier B”,D : “la puce choisie est défectueuse”,D : “la puce choisie n’est pas défectueuse”.

Déterminez exclusivement à l’aide du tableau précédent les probabilités suivantes :

(a) p(D), p(A ∩D), p(A/D).

(b) p(D), p(B ∩D), p(B/D).

3. Vérifiez que p(A ∩D) = p(A/D)× p(D) et que p(B ∩D) = p(B/D)× p(D).

Exercice 27 Dans un lot de pièces fabriquées, il y a 3% de pièces défectueuses. Le mécanisme de contrôledes pièces est aléatoire. Si la pièce est bonne, elle est acceptée avec une probabilité de 0, 96 et si elle estdéfectueuse elle est refusée avec une probabilité de 0, 98. Calculez les probabilités suivantes :

p0 : pour qu’une pièce soit mauvaise et acceptée,

Page 24: probas-Master1-GSI.pdf

2.5. EXERCICES 21

p1 : pour qu’il y ait une erreur dans le contrôle,p2 : pour qu’une pièce soit acceptée,p3 : pour qu’une pièce soit mauvaise, sachant qu’elle est acceptée. Exercice 28 Trois machines A, B et C produisent respectivement 60%, 30% et 10% de la production

des pièces d’une entreprise. La machine A (respectivement B et C) produit 2% (respectivement 3% et 4%)d’objets défectueux.

1. On choisit une pièce au hasard à la sortie de l’usine. Calculez la probabilité de l’événement : “La pièceest défectueuse”.

2. On choisit une pièce au hasard à la sortie de l’usine et on voit qu’elle est défectueuse. Calculez laprobabilité de l’événement : “Cette pièce a été fabriquée par la machine B”.

Exercice 29 Monsieur et Madame A ont quatre enfants. On suppose que la probabilité de naissance d’ungarçon est la même que celle d’une fille. Calculez la probabilité des événements suivants :

A : “Monsieur et Madame A ont quatre filles”,B : “Monsieur et Madame A ont trois filles et un garçon”,C : “Monsieur et Madame A ont deux filles et deux garçons”,D : “Monsieur et Madame A n’ont pas de fille”,E : “Monsieur et Madame A ont au moins une fille”,F : “Monsieur et Madame A ont au moins une fille et un garçon”. Exercice 30 Soit (Ω,A, p) un espace de probabilité et soient A ∈ A et B ∈ A tels que

p(A) =1

3, p(B) =

1

2, p(A ∩B) =

1

5.

Calculez p(A ∪B), p(A), p(B), p(A ∩B), p(A ∪B), p(A ∩B). Exercice 31 Une urne contient cinq boules, trois rouges, numérotées 1, 2, 3 et deux noires, numérotées 1et 2. On tire au hasard et simultanément deux boules de cette urne. Les tirages sont équiprobables.

1. Quelle est la probabilité de l’événement A : “les deux boules tirées sont de la même couleur ” ?

2. Quelle est la probabilité de l’événement B : “la somme des numéros portés sur chacune des deux boulestirées est égale à 3 ” ?

3. Quelle est la probabilité de B sachant que A est réalisé ?

Exercice 32 Une urne A contient 4 boules rouges et 2 boules bleues. Une urne B contient 5 boules rougeset 6 boules bleues et une urne C contient 1 boule rouge et 9 boules bleues. On jette un dé parfait numérotéde 1 à 6.

– Si le résultat est impair, on tire au hasard une boule de A.– Si le résultat est ’2’ ou ’4’, on tire au hasard une boule de B.– Si le résultat est ’6’, on tire au hasard une boule de C.

Sachant que la boule tirée est bleue, quelle est la probabilité qu’elle ait été tirée de l’urne C ? Exercice 33 Dans un jeu de 52 cartes, on choisit simultanément 3 cartes.

1. Déterminez le nombre de tirages possibles.

2. Calculez la probabilité des événements suivants :A : “le tirage contient le roi de coeur”,B : “le tirage contient un roi exactement”,C : “le tirage contient un coeur exactement”,D : “le tirage contient deux coeurs dont le roi”,E : “le tirage contient au moins un coeur” (pensez au complémentaire),

Page 25: probas-Master1-GSI.pdf

2.5. EXERCICES 21

F : “le tirage contient exactement deux coeurs et exactement un roi”.

Exercice 34 On tire 3 boules d’un sac contenant 9 boules : 4 vertes, 3 rouges, 1 blanche et 1 noire

1. successivement avec remise. Calculez la probabilité des événements suivants :A : “le tirage contient 3 boules vertes”,B : “le tirage ne contient aucune boule rouge”,C : “le tirage contient 3 boules blanches”,D : “le tirage contient dans cet ordre : 2 boules vertes et 1 boule rouge”,E : “le tirage contient 2 vertes et 1 rouge”,F : “le tirage contient 1 verte, 1 rouge et 1 noire”.

2. Mêmes questions si le tirage se fait successivement sans remise.

3. Mêmes questions si le tirage se fait simultanément.

Page 26: probas-Master1-GSI.pdf

22 CHAPITRE 2. LA PROBABILITÉ

Page 27: probas-Master1-GSI.pdf

Chapitre 3

Les variables aléatoires réelles

3.1 Introduction - Exemple

Une épreuve consiste à jeter deux dés discernables A et B. On considère la somme des numéros apparussur la face supérieure des dés. On peut symboliser les résultats à l’aide du tableau ci-dessous :

HHHH

HHAB

1 2 3 4 5 6

1 2 3 4 5 6 7

2 3 4 5 6 7 8

3 4 5 6 7 8 9

4 5 6 7 8 9 10

5 6 7 8 9 10 11

6 7 8 9 10 11 12

L’univers Ω correspondant à cette expérience aléatoire est défini par

Ω = (i, j), i = 1, 2, 3, 4, 5, 6 et j = 1, 2, 3, 4, 5, 6, avec Card(Ω) = 62 = 36

où chaque événement élémentaire est équiprobable. On dispose donc d’un espace probabilisé (Ω,P(Ω), p).Considérons l’application X : Ω → R

(i, j) 7→ i+ j

L’ensemble des valeurs prises par X est appelé univers image et vaut

X(Ω) = 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12.

On définit ainsi une fonction de probabilité pX associée à la variable X, déduite de p par

pX(x) = p(X = x) = p(X−1(x))

Par exemple, pX(3) = p(X = 3) = p((1, 2), (2, 1)) =2

36=

1

18.

X est une variable aléatoire réelle car associée à une épreuve aléatoire réelle (à valeurs dans R) et sa fonctionde probabilité pX est déduite de p.

xi 2 3 4 5 6 7 8 9 10 11 12 Total

p(X = xi)1

36

2

36

3

36

4

36

5

36

6

36

5

36

4

36

3

36

2

36

1

361

23

Page 28: probas-Master1-GSI.pdf

24 CHAPITRE 3. LES VARIABLES ALÉATOIRES RÉELLES

En notant pi = p(X = xi) on a∑i

pi = 1.

Remarque 3.1.1 À la même épreuve aléatoire on peut associer plusieurs variables aléatoires par exempleY (i, j) = i.j, Z(i, j) = sup(i, j), . . .

3.2 Définitions et propriétés

1. Une variable aléatoire réelle définie sur un espace probabilisé (Ω, p(Ω), p) est une application de Ωdans R définie par

X : Ω → Rωi 7→ X(ωi) = xi

L’ensemble des valeurs prises par la variable aléatoire X s’appelle l’univers image et est défini parX(Ω) = x1, x2, . . . , xn. ωi étant un des résultats possibles de l’expérience, X(ωi) est en quelque sortela caractéristique de ωi qui nous intéresse.Comme on ne peut pas prévoir avec certitude quel ωi on obtiendra à l’issue de l’expérience aléatoire,on ne peut pas non plus prévoir avec certitude quelle valeur prendra X(ωi). C’est pourquoi la fonctionX est souvent interprétée comme une “grandeur aléatoire”. On note

X = xi = ωi ∈ Ω/X(ωi) = xi

Chaque événement X = xi a une probabilité pi de se produire

p(X = xi) = pX(xi) = pi

2. On appelle loi de probabilité de la variable aléatoire X l’application

f : X(Ω) → [0; 1]xi 7→ f(xi) = p(X = xi)

Définir la loi de probabilité d’une variable aléatoire revient à déterminer la probabilité de chacun desévénements X = xi c’est-à-dire pi = p(X = xi). On vérifiera alors que∑

i

pi = 1

3. On peut citer les propriétés essentielles suivantes :

Si X et Y sont deux variables aléatoires définies sur un même espace probabilisé (Ω,P(Ω), p) alors

X.Y , X + Y , aX + bY , X + a, aX, X2

sont des variables aléatoires (a et b étant deux réels).

Exemple 3.2.1 Soit l’épreuve consistant à jeter un dé équilibré, Ω = 1, 2, 3, 4, 5, 6 est l’universassocié à cette expérience. La distribution de probabilité est équiprobable (puisque le dé est équilibré).Soient les variables aléatoires définies comme suit :• X : Ω → R

ωi 7→ X(ωi) =

1 si ωi ∈ 1, 2, 3, 50 si ωi ∈ 4, 6

.

L’univers image de la variable X est X(Ω) = 0, 1. Sa loi de probabilité est définie par

pX(1) = p(X = 1) = p(1, 2, 3, 5) =4

6=

2

3,

pX(0) = p(X = 0) = p(4, 6) =2

6=

1

3.

Page 29: probas-Master1-GSI.pdf

3.3. TYPES DE VARIABLES ALÉATOIRES RÉELLES 25

• Y : Ω → Rωi 7→ Y (ωi) = ω2

i.

L’univers image de la variable Y est Y (Ω) = 1, 4, 9, 16, 25, 36. Sa loi de probabilité est définiepar

Valeurs de Y : yi 1 4 9 16 25 36 Total

p(Y = yi) = pi1

6

1

6

1

6

1

6

1

6

1

61

Considérons la variable Z = X + 2. Cette variable a pour distribution de probabilité

Valeurs de Z : zi 2 3 Total

p(Z = zi) = pi1

3

2

31

Considérons la variable T = 2X. Cette variable a pour distribution de probabilité

Valeurs de T : ti 0 2 Total

pT = ti = pi1

3

2

31

Considérons les variables U = X + Y et V = X × Y . On a les résultats suivants :

ωi 1 2 3 4 5 6

p(ωi)1

6

1

6

1

6

1

6

1

6

1

6

X(ωi) 1 1 1 0 1 0

Y (ωi) 1 4 9 16 25 36

(X + Y )(ωi) 2 5 10 16 26 36

(X × Y )(ωi) 1 4 9 0 25 0

L’univers image de la variable U = X + Y est U(Ω) = 2, 5, 10, 16, 26, 36, celui de la variable V estV (Ω) = 0, 1, 4, 9, 25. Les distributions des variables aléatoires U et V sont :

U = X + Y 2 5 10 16 26 36 Total

pU1

6

1

6

1

6

1

6

1

6

1

61

V = X × Y 0 1 4 9 25 Total

pV2

6=

1

3

1

6

1

6

1

6

1

61

3.3 Types de variables aléatoires réelles

Soit X une variable aléatoire réelle, on envisage trois types de variables aléatoires réelles.

• discrète finie, si l’ensemble X(Ω) est fini. Les variables précédentes en sont des exemples.

• discrète infinie, si l’ensemble X(Ω) est infini dénombrable.Exemple 3.3.1 Soit l’expérience aléatoire qui consiste à lancer une pièce de monnaie, on considèrela variable aléatoire X qui désigne le rang d’apparition du premier “face” obtenu. L’univers image estN?. L’événement X = k est obtenu en lançant k fois la pièce, les k−1 premiers résultats étant “pile”,le k-ième face. D’où

Page 30: probas-Master1-GSI.pdf

26 CHAPITRE 3. LES VARIABLES ALÉATOIRES RÉELLES

p(X = k) =1

2× . . .× 1

2︸ ︷︷ ︸k−1 fois

×1

2=

(1

2

)k−1× 1

2=

(1

2

)k• continue, si X(Ω) est un intervalle de R ou une réunion d’intervalles.

Cette distinction est importante car les techniques développées pour étudier les variables aléatoires sont trèsdifférentes selon que les variables sont discrètes ou continues.

3.4 Fonction de répartition d’une variable aléatoire discrète

3.4.1 Définition

Soit une variable aléatoire X définie sur un espace probabilisé (Ω,P(Ω), p). La fonction de répartitionde X est définie par

F : R → [0; 1]a 7→ F (a) = p(X ≤ a)

3.4.2 Représentation graphique - Exemple

Une boîte contient 4 boules numérotées de 1 à 4. Une deuxième boîte contient 3 boules numérotées de1 à 3. On prélève au hasard une boule de la première boîte puis une boule de la seconde boîte. Soit X lavariable aléatoire représentant la valeur absolue de la différence des nombres indiqués sur les boules tirées.On se propose de

– déterminer la loi de probabilité de la variable X,– représenter graphiquement sa fonction de répartition.

1. Si B1 et B2 sont respectivement les boules tirées dans la première et dans la deuxième boîte, on a letableau ci-dessous :

HHHHHHB1

B2 1 2 3

1 0 1 2

2 1 0 1

3 2 1 0

4 3 2 1

L’univers associé à l’expérience décrite précédemment est défini par Ω = (i, j), i = 1, 2, 3, 4 et j =1, 2, 3. La variable aléatoire X est définie par

X : Ω → R(i, j) 7→ |i− j|

où i et j sont respectivement les numéros des boules des urnes B1 et B2. L’univers image de la variableX est X(Ω) = 0, 1, 2, 3.– L’événement X = 0 est obtenu de 3 façons :

• en tirant les boules no1 des boîtes 1 et 2 dont la probabilité est1

4× 1

3=

1

12, les événements liés

aux deux boîtes étant indépendants,

• en tirant les boules no2 des boîtes 1 et 2 dont la probabilité est aussi1

12,

• en tirant les boules no3 des boîtes 1 et 2 de probabilité1

12.

Par conséquent, p(X = 0) =1

12+

1

12+

1

12=

3

12=

1

4.

– L’événement X = 1 est obtenu avec les couples (1, 2), (2, 1), (3, 2), (2, 3) et (4, 3). Donc

Page 31: probas-Master1-GSI.pdf

3.4. FONCTION DE RÉPARTITION D’UNE VARIABLE ALÉATOIRE DISCRÈTE 27

p(X = 1) = 5× 1

4× 1

3=

5

12.

– L’événement X = 2 est obtenu avec les couples (3, 1), (1, 3) et (4, 2). Donc

p(X = 2) = 3× 1

4× 1

3=

3

12=

1

4.

– L’événement X = 3 est obtenu avec le couple (4, 1). Donc p(X = 3) =1

4× 1

3=

1

12.

On en déduit la distribution de probabilité de la variable X :

xi 0 1 2 3 Total

pi3

12

5

12

3

12

1

121

2. Représentation graphique de la fonction de répartition. On peut distinguer plusieurs cas selon la valeurprise par a :• a < 0,F (a) = p(X ≤ a) = p(X < 0) = p(∅) = 0

• 0 ≤ a < 1,

F (a) = p(X ≤ a) = p(0 ≤ X < 1) = p(X = 0) =3

12=

1

4• 1 ≤ a < 2,

F (a) = p(X ≤ a) = p(0 ≤ X < 2) = p(X = 0) + p(X = 1) =3

12+

5

12=

2

3• 2 ≤ a < 3,

F (a) = p(X ≤ a) = p(0 ≤ X < 3) = p(X = 0) + p(X = 1) + p(X = 2) =3

12+

5

12+

3

12=

11

12• a ≥ 3, F (a) = p(X ≤ a) = p(0 ≤ X ≤ 3) = p(Ω) = 1

d’où la représentation graphique

−1 0 1 2 3 4

0.0

0.2

0.4

0.6

0.8

1.0

Fonction de répartition F

x

F(x

)=p(

X<=

x)

Figure 3.1

où le symbole “” indique que la valeur en abscisse est exclue.

On donne ci-dessous le code sous R permettant de générer ce diagramme en escalier :

Page 32: probas-Master1-GSI.pdf

28 CHAPITRE 3. LES VARIABLES ALÉATOIRES RÉELLES

> x<-c(0,1,2,3)> probx<-c(3/12,5/12,3/12,1/12)> frepx<-cumsum(probx)> diagesc<-stepfun(x,c(0,frepx))> plot(diagesc,vertical=FALSE,main=”Fonction de répartition F”,ylab=”F(x)=p(X<=x)”)

La fonction stepfun retourne un objet de type function qui définit une fonction constante parmorceaux et continue à droite. La syntaxe est F=stepfun(x, z) où– le vecteur x contient les points de discontinuité de la fonction,– le vecteur z est de la forme c(a, y) où a est la valeur prise par F avant le premier point de discontinuité

et y les valeurs de la fonction aux points de discontinuité x.Pour représenter graphiquement la fonction F , on utilise plot ou lines (pour superposer), avecl’argument vertical=FALSE.

3.4.3 Représentation graphique - Cas général

Soit X une variable aléatoire définie sur (Ω,P(Ω), p) avec pi = p(X = xi) et X(Ω) = x1, x2, . . . , xnl’univers image de X, les xi étant rangés par ordre croissant. Comme F (a) = p(X ≤ a),• a < x1, F (a) = 0

• x1 ≤ a < x2, F (a) = p(X = x1) = p1

• x2 ≤ a < x3, F (a) = p(X = x1) + p(X = x2) = p1 + p2...

• xi ≤ a < xi+1, F (a) = p1 + p2 + . . .+ pi...

• a ≥ xn, F (a) = 1.

On en déduit la représentation graphique ci-dessous : On peut faire les remarques suivantes :

Figure 3.2

• la fonction de répartition est une fonction en escaliers (fonction constante par intervalles),• la fonction F est croissante au sens large,• la fonction F est continue sauf aux points xi où elle est continue à droite : lim

>x 7→xi

F (x) = 0,• limx 7→+∞

F (x) = 1, limx 7→−∞

F (x) = 0,

• p(a < X ≤ b) = F (b)− F (a),

• F (xi+1)− F (xi) = pi+1 = p(X = xi+1).

Page 33: probas-Master1-GSI.pdf

3.5. FONCTION DE RÉPARTITION D’UNE VARIABLE ALÉATOIRE CONTINUE - DENSITÉ DEPROBABILITÉ 29

3.5 Fonction de répartition d’une variable aléatoire continue - Densité deprobabilité

3.5.1 Définition

On dit que la variable aléatoire X, de fonction de répartition F , est absolument continue s’il existe unefonction f définie sur R et possédant les propriétés suivantes :• f est positive ou nulle : ∀x ∈ R, f(x) ≥ 0,• f est continue sauf peut-être en un nombre fini de points,

•∫ +∞

−∞f(t)dt = 1,

• F est définie par F (x) =

∫ x

−∞f(t)dt ou alors F ′(x) = f(x) en tout point où f est continue.

La fonction f , appelée densité de probabilité, définit la loi de probabilité de la variable X.

3.5.2 Interprétation graphique

Voici une représentation graphique possible de la fonction de densité f

0.00

0.05

0.10

0.15

0.20

0.25

N(mu,sig) ; mu = 1, sig = 1.5

t

f(t)

−4 −3 −2 −1 0 1 2 3 4 5 6

Figure 3.3

1. F (a) =

∫ a

−∞f(t)dt est la surface du domaine plan limité par la courbe, la droite des abscisses et la

droite d’équation x = a

0.00

0.05

0.10

0.15

0.20

0.25

N(mu,sig)

t

f(t)

0 a

F(a)

Figure 3.4

2. F (b)− F (a) =

∫ b

−∞f(t)dt−

∫ a

−∞f(t)dt =

∫ b

af(t)dt = p(a ≤ X ≤ b)

On donne le code sous R pour générer le graphique :

> x.c <- seq(from = -4, to = 6, length = 1000)> plot(x.c, dnorm(x.c, 1, 1.5), main =”N(mu,sig) ; mu = 1, sig = 1.5”,

Page 34: probas-Master1-GSI.pdf

30 CHAPITRE 3. LES VARIABLES ALÉATOIRES RÉELLES

0.00

0.05

0.10

0.15

0.20

0.25

N(mu,sig)

t

f(t)

0a b

F(b)−F(a)

Figure 3.5

+ xlab =”t”, ylab =”f(t)”, las = 1, xaxt =”n”, type =”l”)> polycurve <- function(x, y, base.y = min(y), ...) + polygon(x = c(min(x), x, max(x)), y = c(base.y, y, base.y),+ ...)+ > bons <- which(x.c >= -2 & x.c <= 1.5)> polycurve(x.c[bons], dnorm(x.c, mu, sd)[bons], base.y = 0, col =”yellow”)> abline(v=0)> abline(h=0)> axis(1, x, x)> text(-1.8,0.01,”a”)> text(1.2,0.01,”b”)> text(-0.2,0.08,”F(b)-F(a)”)

3.∫ +∞

−∞f(t)dt = 1, l’aire du domaine plan limité par la courbe et la droite des abscisses vaut 1.

4. p(X = a) =

∫ a

af(t)dt = 0. Il est très important de comprendre que cette condition n’implique pas

que les nombres p(a ≤ X ≤ b) sont nuls mais seulement les formules du type p(X ≤ a) = p(X <a) ou p(X ≥ a) = p(X > a) ou encore p(a ≤ X ≤ b) = p(a < X < b). . .

3.5.3 Propriétés de la fonction de répartition

• F est croissante au sens large• limx 7→−∞

F (x) = 0, limx 7→+∞

F (x) = 1

• F est dérivable sauf aux points où f n’est pas continue et F ′ = f .

3.5.4 Exemple

On considère la densité de probabilité définie par : f(x) =

3

x4si x ≥ 1

0 si x < 1.

• f est continue sur R/1.• ∀x ∈ R, f(x) ≥ 0

•∫ +∞

−∞f(t)dt =

∫ +∞

1

3

t4dt =

[− 1

t3

]+∞1

= 1 car limt7→+∞

1

t3= 0.

Page 35: probas-Master1-GSI.pdf

3.6. MOMENTS D’UNE VARIABLE ALÉATOIRE 31

• Lorsque x < 1, f(x) = 0⇒ F (x) = c mais limx 7→−∞

F (x) = 0 donc F (x) = 0.

Lorsque x ≥ 1, f(x) =3

x4⇒ F (x) = − 1

x3+ c mais lim

x 7→+∞F (x) = 1 donc F (x) = 1− 1

x3.

• p(X ≤ 2) = F (2) = 1− 1

23= 1− 1

8=

7

8,

p(2 < X ≤ 3) = F (3)− F (2) = (1− 1

33)− (1− 1

23) =

1

23− 1

33=

19

216.

3.6 Moments d’une variable aléatoire

3.6.1 Espérance mathématique

L’espérance mathématique (ou moment d’ordre 1, noté m1) d’une variable aléatoire réelle X estnotée E(X) avec

– si X est discrète, E(X) =∑i

pixi. L’espérance est dans ce cas la moyenne pondérée par les probabilités

des différentes valeurs possibles que peut prendre la variable X, elle représente la valeur moyenne dela variable aléatoire X.

– si X est absolument continue, E(X) =

∫ +∞

−∞tf(t)dt.

Exemple 3.6.1 1. Si X est discrète, on peut reprendre l’exemple de la section 3.4.2. avec les deux boîtescontenant 4 et 3 boules. On a les résultats suivants :

xi 0 1 2 3 Total

pi3

12

5

12

3

12

1

121

pixi 05

12

6

12

3

12

14

12

On en déduit que E(X) =∑i

pixi =14

12=

7

6

2. Si X est absolument continue, on peut considérer l’exemple de la section 3.5.4. :

f(x) =

3

x4si x ≥ 1

0 si x < 1

alors,E(X) =

∫ +∞

−∞tf(t)dt =

∫ +∞

1

3

t3dt =

[− 3

2t2

]+∞1

.

Or limt7→+∞

1

t2= 0 donc E(X) = 0−

(−3

2

)=

3

2.

L’espérance mathématique a les propriétés suivantes :– Si X est une variable aléatoire constante (X = k) de probabilité 1 alors E(X) = k.– Si X et Y sont deux variables aléatoires et a et b deux réels

E(aX + bY ) = aE(X) + bE(Y )

En particulier,E(aX + b) = aE(X) + b,

Page 36: probas-Master1-GSI.pdf

32 CHAPITRE 3. LES VARIABLES ALÉATOIRES RÉELLES

E(aX) = aE(X),E(X + Y ) = E(X) + E(Y ).

On peut généraliser ces résultats à n variables aléatoires X1, . . . , Xn. Soient a1 . . . , an n réels alors

E

(n∑i=1

aiXi

)=

n∑i=1

aiE(Xi)

Preuve : Dans le cas de deux variables aléatoires absolument continues dont les densités de probabilitésont f1 et f2 :

E(a1X1 + a2X2) =

∫ +∞

−∞t(a1f1 + a2f2)(t)dt = a1

∫ +∞

−∞tf1(t)dt+ a2

∫ +∞

−∞tf2(t)dt

= a1E(X1) + a2E(X2).

La démonstration est similaire lorsque les variables X1 et X2 sont discrètes.Le cas à n variables se traite de la même façon.

3.6.2 Variable centrée

Soit X une variable aléatoire réelle d’espérance mathématique E(X). La variable

Z = X − E(X)

est la variable aléatoire centrée associée à X. On peut alors vérifier que E(Z) = 0 .

Preuve : E(Z) = E(X − E(X)) = E(X)− E(X) = 0 car E(X) est une constante et si a ∈ R, E(X + a) =E(X) + a.

3.6.3 Moments d’ordre k

Soit X une variable aléatoire réelle. On nomme moment d’ordre k (k ∈ N?) l’espérance mathématiquede la variable Xk. On le note

mk = E(Xk)

– Dans le cas d’une variable discrète, mk =∑i

pixki .

– Dans le cas d’une variable aléatoire absolument continue de densité de probabilité f ,mk =

∫ +∞

−∞tkf(t)dt.

Remarque 3.6.1 On a en particulier m1 = E(X).

3.6.4 Moments centrés d’ordre k

On appelle moments centrés d’ordre k de la variable aléatoire réelle X, que l’on note δk, les momentsd’ordre k de la variable centrée Z = X − E(X).

– Dans le cas d’une variable discrète, δk = E(X − E(X))k =∑i

pi(xi − E(X))k.

– Dans le cas d’une variable absolument continue, δk =

∫ +∞

−∞[t− E(X)]kf(t)dt.

Remarque 3.6.2 On a en particulier δ1 = 0.

3.6.5 Variance et écart-type

1. On appelle variance de la variable aléatoire X le moment centré d’ordre 2 de cette variable.V (X) = δ2 = E(X − E(X))2

Page 37: probas-Master1-GSI.pdf

3.6. MOMENTS D’UNE VARIABLE ALÉATOIRE 33

On a la définition équivalente suivante :

V (X) = E(X2)− E(X)2

Preuve : E(X − E(X))2 = E(X2 − 2XE(X) + (E(X))2) or E(X) est une constante donc V (X) =E(X2)− 2E(X)E(X) + (E(X))2 = E(X2)− E(X)2.

– Si X est une variable discrète (admettant une espérance et telle que la série∑i

pix2i est convergente),

V (X) =∑i

pi(xi − E(X))2 =

(∑i

pix2i

)− (E(X))2.

– Si X est absolument continue, V (X) =

∫ +∞

−∞(t− E(X))2f(t)dt =

(∫ +∞

−∞t2f(t)dt

)− (E(X))2.

Exemple 3.6.2 (a) Si X est discrète, on peut reprendre l’exemple de la section 3.4.2. avec les deuxboîtes contenant 4 et 3 boules. On a les résultats suivants :

xi 0 1 2 3 Total

pi3

12

5

12

3

12

1

121

pixi 05

12

6

12

3

12E(X) =

14

12=

7

6

pix2i 0

5

12

12

12

9

12E(X2) =

26

12=

13

6

On trouve ainsi V (X) =13

6−(

7

6

)2

=29

36.

(b) Si X est absolument continue, on peut considérer l’exemple de la section 5.4. :

f(x) =

3

x4si x ≥ 1

0 si x < 1.

On a E(X) =3

2. Par conséquent, V (X) =

∫ +∞

1

3

t4t2dt−

(3

2

)2

=

[−3

t

]+∞1

− 9

4or lim

t7→+∞

3

t= 0

donc V (X) = 3− 9

4=

3

4.

2. La variance a les propriétés suivantes :– Si X est une variable aléatoire constante (X = k) de probabilité 1 alors V (X) = 0.

– V (aX) = a2V (X)

Preuve : V (aX) = E(aX − (E(aX)))2 = E(aX − a(E(X)))2 = a2E(X − E(X))2 = a2V (X)

– V (aX + b) = a2V (X)

Preuve : Démonstration identique

La variance n’a pas de propriété de linéarité et en général, V (X + Y ) 6= V (X) + V (Y ).

3. On a vu que si la variable aléatoire X est multipliée par un réel a, sa variance est multipliée par a2 alorsque son espérance est multipliée par a. Pour cette raison, lorsque l’on veut mesurer de façon homogènela moyenne et la dispersion, on utilise plutôt que la variance la notion d’écart-type.

Page 38: probas-Master1-GSI.pdf

34 CHAPITRE 3. LES VARIABLES ALÉATOIRES RÉELLES

L’écart-type de la variable X, noté σX , est la racine carrée de la variance de X :

σX =√V (X) = σ(X)

Remarque 3.6.3 En utilisant le dernier résultat sur la variance, on a l’égalité σ(aX + b) = |a|σ(X).

4. Soit X une variable aléatoire, d’espérance mathématique E(X) et d’écart-type σ(X). On appelle va-riable centrée réduite la variable

X? =X − E(X)

σ(X).

Cette variable vérifie les propriétés E(X?) = 0 et σ(X?) = 1

Preuve :

• E(X?) = E

(X − E(X)

σ(X)

)=

1

σ(X)E(X − E(X)) =

1

σ(X)(E(X)− E(X)) = 0,

• V (X?) =1

σ2(X)V (X − E(X)) =

1

σ2(X)V (X) =

σ2(X)

σ2(X)= 1.

3.6.6 Moments factoriels

On appelle moment factoriel d’ordre k ≥ 1, noté Γ[k], l’espérance mathématique de la variable X(X −1) . . . (X − k + 1) soit

Γ[k] = E[X(X − 1) . . . (X − k + 1)]

Remarque 3.6.4 On peut facilement vérifier que E(X) = m1 = Γ[1] et V (X) = m2 − (m1)2 = Γ[2].

3.7 Exercices

Exercice 35 Dans une grande surface, on a relevé sur une longue période le nombre d’articles de typeA vendus.L’étude statistique permet d’admettre que la variable aléatoire X qui associe à un jour ouvrable choisi auhasard pendant un mois le nombre d’articles de type A vendus ce jour là a une probabilité définie par letableau suivant.On donnera les valeurs approchées arrondies à 10−2 près des résultats.

Nombre xide pièces 0 1 2 3 4 5 6vendues

p(X = xi) 0, 10 0, 16 0, 25 0, 30 0, 13 0, 05 0, 01

1. Représentez graphiquement la fonction de répartition de la variable aléatoire X.

2. Calculez l’espérance mathématique E(X) de la variable aléatoire X. Que représente E(X) ?

3. Calculez la variance et l’écart-type de la variable aléatoire X

Exercice 36 Une partie de loterie consiste à lâcher une bille dans un appareil qui comporte six portesde sortie, numérotées de 1 à 6.Soit X la variable aléatoire qui à chaque partie associe le numéro de la porte de sortie franchie. Sa loi deprobabilité est définie par le tableau suivant :

Page 39: probas-Master1-GSI.pdf

3.7. EXERCICES 35

i 1 2 3 4 5 6

p(X = xi)1

32

5

32

10

32

10

32

5

32

1

32

La règle du jeu est la suivante : un joueur mise 2 euros : il reçoit 12 euros si la bille franchit les portes 1 ou6, 2 euros si elle franchit les portes 3 ou 4. Les portes 2 et 5 ne rapportent rien.Le gain d’un joueur est la différence entre ce qu’il reçoit à l’issue de la partie et sa mise. Le gain peut doncêtre éventuellement un nombre négatif ou nul.Soit Y la variable aléatoire qui à chaque partie effectuée par un joueur donné associe le gain.

1. Quelles sont les valeurs possibles de Y ?

2. Déterminer la loi de probabilité de Y ?

3. Un jeu est équitable si l’espérance mathématique du gain est nulle. Ce jeu est-il équitable ?

Exercice 37 Dans cet exercice, les tirages sont équiprobables.Un sac contient quatre jetons noirs et quatre jetons blancs. On tire quatre jetons du sac simultanément.Soit X la variable aléatoire qui à chaque tirage associe le nombre de jetons noirs tirés.Déterminez la loi de probabilité de X, son espérance mathématique et son écart-type. Exercice 38

1. Calculez l’espérance mathématique, la variance et l’écart-type de la variable aléatoire X dont la loi deprobabilité est donnée par le tableau :

xi 2 5 12

p(X = xi)1

6

1

2

1

3

2. Construisez la représentation graphique de la fonction de répartition de la variable aléatoire X.

Exercice 39 Soit X la variable aléatoire qui associe à un mois choisi au hasard le découvert des comptes enbanque d’une entreprise. Une étude statistique permet d’admettre que la loi de probabilité de X est donnéepar le tableau suivant.

xi 200000 150000 120000 90000 70000

p(X = xi)1

10

1

6

1

5

1

3

1

5

Calculez l’espérance mathématique E(X) de la variable aléatoire X. Que représente E(X) ? Exercice 40 On lance trois pièces de monnaie (non truquées), une de 50 centimes d’euros, une de 1 euro,une de 5 euros.Un résultat est donné sous la forme d’un triplet, par exemple (P, P, F ) où le premier élément est le résultatpour la pièce de 50 centimes d’euros, le deuxième le résultat pour la pièce d’un euro et le troisième pour lapièce de 5 euros.

1. Déterminez l’ensemble des résultats possibles.

2. On gagne 10 euros si on obtient 3 fois face, 2 euros si on obtient 2 fois face et on perd 2 euros si onobtient une seule fois face ou aucune fois face. On note X la variable aléatoire qui à tout lancer des 3pièces associe le gain obtenu, une perte étant considérée comme un gain négatif.

(a) Définissez la loi de probabilité de X en présentant les résultats à l’aide d’un tableau.

Page 40: probas-Master1-GSI.pdf

36 CHAPITRE 3. LES VARIABLES ALÉATOIRES RÉELLES

(b) Calculez l’espérance mathématique E(X) de la variable aléatoire X. Que représente E(X) ? Lejeu est-il équitable ?

Remarque 3.7.1 Un jeu est équitable lorsque les gains et les pertes s’équilibrent sur un trèsgrand nombre de parties.

Exercice 41 Dans une urne se trouvent 10 boules numérotées de 0 à 9 identiques au toucher. On tiresimultanément 2 boules dans l’urne sans remise et on considère l’aléa numérique X qui à chaque tirageassocie le plus petit des 2 nombres portés par les 2 boules.

1. Déterminez la distribution de probabilité de X.

2. Construisez la représentation graphique de la fonction de répartition de X dans un repère (O,~i,~j).

3. Calculez les probabilités des événements suivants :• A = X < 5,• B = X ≤ 3,• C = 1 ≤ X ≤ 6,• D = X ≥ 7,• E = |X − 5| > 2,• G = X2 − 5X + 4 < 0.

Exercice 42 Un dé cubique non truqué admet 3 faces portant un “1”, 2 faces portant un “2” et uneface portant un “3”. On le lance deux fois de suite et on considère la variable aléatoire X associant à chaquetirage la somme des points lus sur la face supérieure du dé obtenue à chacun des deux lancers. Donnez ladistribution de probabilité de X. Exercice 43 Soit X une variable aléatoire définie sur un espace probabilisé (Ω,P(Ω), p) avec la distri-bution de probabilité suivante :((

−6,2

10

),

(−3,

3

10

),

(0,

2

10

),

(3,

1

10

),

(4,

2

10

)).

Calculez E(X), V (X) et σ(X), en déduire la variable centrée réduite X ′ associée à X. Exercice 44 Une urne contient 5 boules dont 2 blanches et 3 noires. On tire une boule de l’urne, sansla remettre, 3 fois de suite. Calculez l’espérance mathématique, la variance et l’écart-type de la variablealéatoire X correspondant au nombre de boules blanches tirées. Exercice 45 On considère une expérience aléatoire consistant à jeter une boule sur la roulette d’un casino.On peut admettre que la boule se déplace sur un cercle de centre O et s’immobilise en un point M . Si A est

un point du cercle, la mesure en radians de l’angle ( ~OA, ~OM) est une variable aléatoire prenant ses valeursdans l’intervalle [0; 2π[. Si on suppose que la boule a “autant de chances” de s’arrêter sur un point que sur unautre, on montre que X est une variable aléatoire continue à densité et que la densité de X est une fonctionf définie sur R par :

f(x) =

1

2πsi x ∈ [0; 2π[

0 sinon.

1. Déterminez la fonction de répartition de X.

2. Calculez les probabilités pour que X soit compris entre 0 etπ

2et entre 0 et π.

Page 41: probas-Master1-GSI.pdf

3.7. EXERCICES 39

Exercice 46 On considère la fonction f définie par : f(x) =

0 si x < −1 ou x > 0x+ 1 si x ∈ [−1; 0]−x+ 1 si x ∈ [0; 1]

.

1. Montrez que f est une densité de probabilité d’une variable aléatoire X.

2. Déterminez la fonction de répartition de X, on la note F .

3. Écrivez en fonction de F puis calculer p(X < −0, 5), p(−0, 5 ≤ X ≤ 0, 5), p(X > 0, 25).4. Montrez que X admet une espérance et une variance que l’on déterminera.

Page 42: probas-Master1-GSI.pdf

40 CHAPITRE 3. LES VARIABLES ALÉATOIRES RÉELLES

Page 43: probas-Master1-GSI.pdf

Chapitre 4

Lois de probabilités discrètes usuelles

4.1 Loi et variable de Bernoulli

4.1.1 Définition

Soit une épreuve aléatoire comportant deux issues, deux événements élémentaires appelés souvent succèset échec dont les probabilités respectives sont p et q avec p+ q = 1.On définit alors

Ω = S,E

avec p(S) = p et p(E) = q. Soit la variable aléatoire X : Ω 7→ 0, 1 telle que

X(S) = 1 ; X(E) = 0

La variable X est appelée variable de Bernoulli dont la loi de probabilité est

xi 0 1 Total

pi q p 1

pixi 0 p E(X) = p

pix2i 0 p E(X2) = p

On note cette loiX B(p)

Remarque 4.1.1 Cette loi ne dépend que d’un paramètre p, la probabilité de succès.

4.1.2 Moments

1. Espérance : E(X) = p

2. Variance : V (X) = p− p2 = p(1− p) = pq

3. Écart-type : σ(X) =√pq

Exemple 4.1.1 Un entreprise possède 10 chaînes de fabrication C1, C2,. . . ,C10. Elle sait qu’une chaînepossède un problème mais elle ignore laquelle, elle choisit alors une chaîne au hasard. On considère la variablealéatoire X prenant la valeur 1 si la chaîne testée et la chaîne défaillante et 0 sinon. Dans ce cas X est une

variable de Bernoulli de paramètre1

10. L’espérance et la variance de cette variable valent respectivement

E(X) = 0, 1 et V (X) = 0, 09.

41

Page 44: probas-Master1-GSI.pdf

42 CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

4.2 Loi et variable binomiales

4.2.1 Définition

Soit une épreuve de Bernoulli. À n répétitions indépendantes de cette épreuve de Bernoulli sont associéesn variables aléatoires X1, X2,. . . ,Xn indépendantes.On considère la variable aléatoire X = X1 + X2 + . . . + Xn. Cette variable X désigne le nombre de succèslors de n épreuves. L’univers image de la variable X est 0, 1, 2, . . . , n. On a

p(X = k) = Cknpkqn−k .

Preuve : L’événement X = k est obtenu par le résultat de k succès et n − k échecs. On peut avoir parexemple

S . . . S︸ ︷︷ ︸k fois

E . . . E︸ ︷︷ ︸(n−k) fois

de probabilité pkqn−k, mais il existe Ckn événements comportant k succès et (n− k) échecs d’où le résultat.

La variable ainsi définie suit une loi binomiale et on note : X B(n, p)

On a bien défini une loi de probabilité puisque pour p ∈]0; 1[, Cknpk(1 − p)n−k ≥ 0, ∀k ∈ 0, 1, . . . , n etn∑k=1

pk(1− p)n−k = p+ (1− p) = 1 d’après la formule du binôme.

Remarque 4.2.1 Si une variable aléatoire X représente le nombre de succès dans une série de n expériencesde Bernoulli identiques et indépendantes alors X suit une loi binomiale de paramètres n et p où p représentela probabilité de succès lors d’une épreuve de Bernoulli.

4.2.2 Moments

1. Espérance :E

(n∑i=1

Xi

)=

n∑i=1

E(Xi) = np

2. Variance : les variables Xi étant indépendantes,

V

(n∑i=1

Xi

)=

n∑i=1

V (Xi) = npq

3. Écart-type : σ(X) =√npq

Remarque 4.2.2 On a le rapportp(X = k + 1)p(X = k)

=Ck+1n pk+1qn−k−1

Cknpkqn−k

=n− kk + 1

× p

qd’où

p(X = k + 1) =n− kk + 1

× p

q× p(X = k)

relation qui permet de disposer de p(X = k + 1) lorsqu’on a déja p(X = k).

Remarque 4.2.3 Dans une population très nombreuse, on estime que la probabilité pour qu’une personnesoit atteinte d’une maladie donnée est 0, 1. On choisit au hasard 1000 personnes de cette population (avecl’éventualité de choisir plusieurs fois la même personne). On note X la variable aléatoire représentant lenombre de personnes atteintes de la maladie parmi les 1000. X représente le nombre de succès (c’est-à-direêtre atteint par la maladie) dans une suite de 1000 épreuvess de Bernoulli (la personne est atteinte ou pas)identiques et indépendantes donc X B(1000; 0, 1).

Page 45: probas-Master1-GSI.pdf

4.2. LOI ET VARIABLE BINOMIALES 43

4.2.3 Somme de deux variables binomiales indépendantes

Soient X1 et X2 telles que X1 B(n1, p) et X2 B(n2, p), X1 et X2 étant supposées indépendantes.Alors, la variable Z = X1 +X2 suit une loi binomiale B(n1 + n2, p).

Preuve : L’univers image de la variable Z est 0, 1, 2, . . . , n1 + n2. L’événement X1 +X2 = k est obtenude la façon suivante :

X1 = 0 ∩ X2 = kX1 = 1 ∩ X2 = k − 1

...X1 = p ∩ X2 = k − p

...X1 = k ∩ X2 = 0

Ainsi, X1 +X2 = k =

k⋃i=1

(X1 = i ∩ X2 = k − i). Les variables X1 et X2 étant indépendantes, on a

p(X1 +X2 = k) = p

(k⋃i=1

(X1 = i ∩ X2 = k − i)

)=

k∑i=0

p(X1 = i)p(X2 = k − i).

Par conséquent,

p(X1 +X2 = k) =k∑i=0

Cin1piqn1−iCk−in2

pk−iqn2−k+i =k∑i=0

Cin1Ck−in2

pkqn1+n2−k = pkqn1+n2−kk∑i=0

Cin1Ck−in2

.

Il est très simple de montrer quek∑i=0

Cin1Ck−in2

= Ckn1+n2. En effet, choisir k éléments parmi ceux de deux

groupes contenant respectivement n1 et n2 éléments revient à choisir i éléments du premier groupe et k − iéléments du deuxième groupe, d’où p(Z = k) = p(X1 +X2 = k) = Ckn1+n2

pkqn1+n2−k. Par conséquent,Z = X1 +X2 B(n1 + n2, p).

Remarque 4.2.4 On peut généraliser cette propriété à l variables binomiales indépendantes.

4.2.4 Loi et variable fréquences

Soit X B(n, p). On définit la variable Fn =X

n.

X désigne le nombre de succès obtenus au cours des n épreuves, Fn le nombre de succès divisé par le nombred’épreuves soit la fréquence du succès. Fn est la variable fréquence associée à X :

Fn =X1 +X2 + . . .+Xn

n=

1

n

n∑i=1

Xi.

L’univers image de Fn est

0,1

n, . . . ,

k

n, . . . ,

n

n

. On a X = k =

Fn =

k

n

donc

p

(Fn =

k

n

)= Cknp

kqn−k

Concernant les moments de cette variable,

• E(Fn) = E

(X

n

)=

1

nE(X) =

np

n= p donc

E(Fn) = p

• V (Fn) =1

n2V (X) =

npq

n2=pq

ndonc

Page 46: probas-Master1-GSI.pdf

44 CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

V (Fn) =pq

net σ(Fn) =

√pq

n

Remarque 4.2.5 Soit X B(n, p), X désigne le nombre de succès et Y = n−X le nombre d’échecs. Parconséquent, p(X = k) = p(Y = n− k) = Cknp

kqn−k.

Exercice 47 Pour réaliser le montage d’un système électronique, on dispose de résistances issues d’uneproduction importante, où l’on sait que le pourcentage P de défectueuses est de 5%. On doit utiliser 4résistances.

1. Quelle est la probabilité d’en avoir 3 de mauvaises ?

2. Quelle est la probabilité d’en avoir un nombre inférieur ou‘égal à 3 de mauvaises ?

4.3 Loi et variable multinomiales

4.3.1 Exemple

On jette 50 fois une pièce de monnaie truquée. “Pile” apparaît avec une probabilité 0, 3, “face” avec uneprobabilité 0, 6, la pièce retombe sur la tranche avec une probabilité de 0, 1.Quelle est la probabilité d’obtenir 20 “pile”, 25 “face”, 5 tranches ?

Cet événement peut être obtenu de la façon suivante

P . . . P︸ ︷︷ ︸20 fois

F . . . F︸ ︷︷ ︸25 fois

T . . . T︸ ︷︷ ︸5 fois

et sa probabilité vaut (0, 3)20(0, 6)25(0, 1)5. Le nombre de ces 50-uplets est égal au nombre de façons dedisposer 20 fois la lettre P , 25 fois la lettre F et 5 fois la lettre T dans un mot de longueur 50. Ce nombreest C20

50C2530C

55 = C20

50C2530 , la probabilité de cet événement vaut par conséquent

C2050C

2530 (0, 3)20(0, 6)25(0, 1)5.

4.3.2 Loi trinomiale

Soit une épreuve aléatoire à 3 issues A de probabilité p, B de probabilité q et C de probabilité r avecp+ q + r = 1. Pour n répétitions indépendantes de cette épreuve, on cherche la probabilité d’obtenir k foisA, i fois B et donc n− k − i fois C. Cette probabilité vaut :

CknCin−kC

n−k−in−k−ip

kqirn−k−i

or Cn−k−in−k−i = 1 et CknCin−k =

n!

k!i!(n− k − i)!. Conclusion, cette probabilité vaut :

p =n!

k!i!(n− k − i)!pkqirn−k−i

Exemple 4.3.1 Une équipe de football gagne un match avec une probabilité de 0, 3, le perd avec uneprobabilité de 0, 4, fait match nul avec une probabilité de 0, 3. Sur les 36 matchs joués dans l’année, oncherche la probabilité d’obtenir 15 succès, 18 échecs et 3 nuls. Cette probabilité vaut

p = C1536C

1821C

33 (0, 3)15(0, 4)18(0, 3)3 =

36!(0, 3)15(0, 4)18(0, 3)3

15!18!3!.

Page 47: probas-Master1-GSI.pdf

4.4. LOI ET VARIABLES HYPERGÉOMÉTRIQUES 45

4.3.3 Loi multinomiale

Supposons qu’il y ait dans une urne N boules de r couleurs distinctes C1, C2,. . . ,Cr. Soit ni le nombrede boules de couleur Ci et pi =

niN

la proportion de boules de la couleur Ci dans l’urne. On a

N =

r∑i=1

ni = n1 + n2 + . . .+ nr etr∑i=1

pi = 1.

Supposons que l’on effectue un tirage de n boules, chaque boule étant remise dans l’urne avant le tirage dela boule suivante ; les tirages répétés des boules sont des épreuves indépendantes. On cherche la probabilitéd’obtenir l’événement A défini par

• m1 boules de la couleur C1

• m2 boules de la couleur C2

...• mi boules de la couleur Ci

...• mr boules de la couleur Cravec m1 +m2 + . . .+mr = n.

Cet événement est réalisé par exemple avec le n-uplet

C1 . . . C1︸ ︷︷ ︸m1 boules C1

C2 . . . C2︸ ︷︷ ︸m2 boules C2

. . . Cr . . . Cr︸ ︷︷ ︸mr boules Cr

de probabilité pm11 pm2

2 . . . pmrr . Le nombre de ces n-uplets est égal au nombre de façons de disposer m1 foisla lettre C1, m2 fois la lettre C2,. . . , mr fois la lettre Cr dans un mot de longueur n = m1 +m2 + . . .+mr

d’où la probabilité de l’événement A :

p(A) = Cm1n Cm2

n−m1. . . Cmrmr (p1)

m1(p2)m2 . . . (pr)

mr .

On a la relation Cm1n Cm2

n−m1. . . Cmrmr =

n!

m1!m2! . . .mr!, par conséquent,

p(A) =n!

m1!m2! . . .mr!(p1)

m1(p2)m2 . . . (pr)

mr

Exemple 4.3.2 Une urne est composée de 10% de boules rouges, 20% de boules blanches, 40% de boulesvertes, 30% de noires. Le nombre de boules de l’urne est N > 20. On effectue un tirage avec remise de 12boules. Quelle est la probabilité d’obtenir 3 boules rouges, 5 boules blanches, 3 boules vertes et une boulenoire ?

p =12!

3!5!3!1!(0, 1)3(0, 2)5(0, 4)3(0, 3)1.

4.4 Loi et variables hypergéométriques

4.4.1 Définition

Soit une urne contenant N boules dont a boules blanches et b boules noires avec a+ b = N . On effectuen tirages d’une boule sans remise (ou on prélève simultanément n boules) avec n ≤ N . Le tirage sans remiseest dit exhaustif. Soit X la variable aléatoire représentant le nombre de boules blanches obtenues.

La variable X est dite hypergéométrique. On utilise la notation

X H(N, a, n)

Page 48: probas-Master1-GSI.pdf

46 CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

Cette loi dépend de trois paramètres et

p(X = k) =CkaC

n−kb

CnN

En effet, X = k est l’ensemble des parties à k éléments parmi a donc Card(X = k) = CkaCn−kb .

Remarque 4.4.1 Si p est la proportion des boules blanches de l’urne, q celle des noires, on a p =a

Net q =

b

N

avec p+q = 1 donc a = pN , b = qN et p(X = k) =CkpNC

n−kqN

CnN=CkpNC

n−k(1−p)N

CnN. La loi est notée H(N, p, n).

4.4.2 Les moments

On admettra les propriétés suivantes :– L’espérance mathématique est donnée par :

E(X) = np

la formule est identique à celle de la loi binomiale.

– La variance est définie par :V (X) = npq

N − nN − 1

= npqρ

avec ρ =N − nN − 1

définissant le coefficient d’exhaustivité.

Remarque 4.4.2 Généralement n > 1 donc ρ < 1. La variance d’une variable hypergéométrique (tiragessans remise) est inférieure à la variance de la variable binomiale (tirages avec remise).

Exemple 4.4.1 Chaque matin, un professeur interroge 4 étudiants pour tester leur connaissance du cours.Une indiscrétion lui permet de savoir que dans la classe composée de 45 étudiants, 10 ne connaissent pas le

cours. On se trouve dans la situtation d’un ensemble E comprenant 45 éléments dont une proportion10

45est

de type 1 (les étudiants ne connaissent pas le cours), le professeur interroge 4 étudiants successivement, sansinterroger deux fois le même (ce qui correspond à 4 tirages successifs sans remise d’un élément de E) alorsla variable aléatoire X représentant le nombre d’éléments de type 1 obtenu suit une loi hypegéométrique

H(

45, 4,10

45

).

4.4.3 Limite d’une variable hypergéométrique

Soit X une variable hypergéométrique, X H(N, p, n). Lorsque N tend vers +∞,

H(N, p, n)→ B(n, p).

En effet, le nombre N de boules étant infiniment grand, la non-remise de la boule tirée ne modifie presquepas la proportion de boules blanches. Dans la pratique,

H(N, p, n)si N>10n−−−−−−−→ B(n, p).

4.5 Loi et variable de Poisson

On rappelle la formule

limn→+∞

n∑k=0

xk

k!=∑k∈N

xk

k!= ex

Page 49: probas-Master1-GSI.pdf

4.5. LOI ET VARIABLE DE POISSON 47

4.5.1 Définition

On dit que la variable aléatoire X suit une loi de Poisson de paramètre λ (λ ∈ R+∗) si et seulement sil’univers image de X est N et

p(X = k) =e−λλk

k!

On note cette variableX P(λ)

Puisque∑i∈N

pi =∑i∈N

e−λλi

i!= e−λ

∑i∈N

λi

i!= e−λeλ = 1 et ∀k ∈ N,

e−λλk

k!≥ 0, on a bien une loi de probabilité.

Remarque 4.5.1 La loi de Poisson est encore appelée loi des événements rares. On peut admettre que lenombre de pannes survenant sur une machine donnée au cours d’une période donnée suit une loi de Poisson,ou encore le nombre d’accidents qui se produisent à un carrefour donné pendant une période donnée.

4.5.2 Les moments

– Espérance : on a la relationE(X) = λ

Preuve : SoitX P(λ) alorsE(X) =∑k∈N

ke−λλk

k!= e−λ

∑k∈N

kλk

k!= e−λ

+∞∑k=1

λk

(k − 1)!= λe−λ

+∞∑k=1

λk−1

(k − 1)!.

En réalisant un changement d’indice, E(X) = λe−λ+∞∑i=0

λi

i!= λe−λeλ = λ.

– Variance et écart-type : on a les résultats suivants

V (X) = λ et σ(X) =√λ

Preuve : Déterminons E(X(X − 1)) = E(X2)− E(X).

E(X(X − 1)) =∑k∈N

k(k − 1)λke−λ

k!=

∑k∈N/0,1

λke−λ

(k − 2)!= e−λλ2

∑k∈N/0,1

λk−2

(k − 2)!. On effectue un chan-

gement d’indice dans la somme et E(X(X − 1)) = e−λλ2∑i∈N

λi

i!= e−λλ2eλ = λ2.

Ainsi E(X2) − E(X) = λ2 ⇔ E(X2) = λ2 + λ. Par conséquent, V (X) = λ2 + λ − λ2 = λ doncV (X) = λ et σ(X) =

√λ.

Remarque 4.5.2

• pkpk−1

=e−λλk(k − 1)!

e−λλ(k−1)k!=λ

kce qui signifie que pk =

λ

kpk−1.

• Il existe des tables (voir annexe A1) donnant pk = p(X = k) pour différentes valeurs de k et des

tables donnantn∑k=0

pk (voir annexe A2 et A3) c’est-à-dire la valeur de la fonction de répartition de X

en n pour X P. Pour le calcul de p(X > k), il suffit d’utiliser la relation p(A) + p(A) = 1 avec

A = X > k et A = X ≤ k ce qui permet de calculer p(X > k) = 1− p(X ≤ k) = 1−k∑j=0

pj .

Exemple 4.5.1 Dans une entreprise. on admet que le nombre de pièces défectueuses produites par minuteest une variable aléatoire X avec X P(3). Déterminons la probabilité de l’événement A : “le nombre depièces défectueuses produites en 1 minute est supérieur à 3”.Par définition, p(A) = p(X > 3) = 1− p(X ≤ 4) = 1− 0, 8152 = 0, 1848, ceci en utilisant l’annexe A2.

Page 50: probas-Master1-GSI.pdf

48 CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

4.5.3 Somme de deux variables de Poisson indépendantes

Soient X1 P(λ1) et X2 P(λ2), X1 et X2 étant indépendantes. La variable X = X1 +X2 suit alorsune loi de Poisson de paramètre λ = λ1 + λ2

X = X1 +X2 P(λ1 + λ2)

Preuve : L’univers image de X est N. L’événement X = X1 + X2 = k est réalisé pour les événementssuivants X1 = 0 ∩ X2 = k ou X1 = 1 ∩ X2 = k − 1 ou . . . ou X1 = k ∩ X2 = 0. Donc

X = X1 +X2 = k =

k⋃i=0

(X1 = i ∩ X2 = k − i).

Les variablesX1 etX2 étant indépendantes, on a p(X1 = i ∩ X2 = k − i) = p(X1 = i)× p(X2 = k − i).Par conséquent,

p(X = k) =

k∑i=0

p(X1 = i ∩ X2 = k − i) =

k∑i=0

e−λ1λi1i!× e−λ2 λk−i2

(k − i)!

⇔ p(X = k) = e−(λ1+λ2)k∑i=0

λi1λk−i2

i!(k − i)!

or Cik =k!

i!(k − i)!donc p(X = k) =

e−(λ1+λ2)

k!

k∑i=0

Cikλi1λ

k−i2 . Comme (λ1 + λ2)

k =k∑i=0

Cikλi1λ

k−i2 on a

p(X = k) =e−(λ1+λ2)

k!(λ1 + λ2)

k et la variable X suit une loi de Poisson de paramètre λ1 + λ2.

Remarque 4.5.3 On peut généraliser ce résultat à n variables de Poisson indépendantes.

4.5.4 Limite d’une variable binomiale

– Soit X une variable binomiale B(n, p). Si p tend vers zéro lorsque n tend vers +∞ de telle sorte quenp ait une limite finie λ, la loi binomiale B(n, p) tend vers une loi de Poisson P(λ).

– Dans la pratique on approxime la loi binomiale B(n, p) par une loi de Poisson P(λ) avec λ = np sin ≥ 30, p < 0, 1 et np ≤ 10.

– L’intérêt de cette approximation est l’utilisation des tables de la loi de Poisson, plus commodes quecelles de la loi binomiale.

4.6 Loi et variable géométriques

4.6.1 Définition

Soit une épreuve aléatoire à deux issues, succès et échec, de probabilités respectives p et q avec p+ q = 1.On répète cette épreuve (épreuves indépendantes) jusqu’à obtenir le premier succès. On considère la variablealéatoire X donnant le rang du premier succès ou encore le nombre d’épreuves nécessaires à l’obtention d’unpremier succèsLorsque X est une variable géométrique, l’univers image est N∗.L’événement X = k est obtenu par la réalisation de k − 1 échecs puis d’un succès.

p(X = k) = qk−1p

On notera alors :

X G(p)

Page 51: probas-Master1-GSI.pdf

4.7. EXERCICES 49

On peut vérifier qu’on a bien défini une loi de probabilité. On a besoin pour cela du rappel suivant :

Rappel : Si |x| ≤ 1 alors limn→+∞

n∑k=0

xk =1

1− x.

On a par conséquent ∀k ∈ N?, qk−1p ≥ 0 etn∑k=1

qk−1p = p∑

j = 0n−1qjn→+∞−−−−−→ p

1

1− q= 1 donc

+∞∑k=1

qk−1p =

1.

Exemple 4.6.1 On considère une urne contenant des boules blanches en proportion p et des boules noiresen proportion q = 1− p, on tire une infinité de fois une boule avec remise. La variable aléatoire X représentele rang où on obtient une boule blanche pour la première fois.

4.6.2 Moments

– L’espérance mathématique est définie par

E(X) =1

p

Preuve : E(X) = X admet une espérance si et seulement si la série∑k

kp(X = k) est absolument

convergente. La série étant à termes positifs, la convergence absolue est éqivalente à la convergence.

Rappel : Si x ∈]− 1; 1[ alors limn→

n∑k=1

kxk−1 =1

(1− x)2.

On a par conséquentn∑k=0

kp(X = k) =

n∑k=0

kqk−1p = p

n∑k=0

kqk−2n→+∞−−−−−→ p

1

(1− q)2=

p

p2=

1

p

– La variance et l’écart-type sont respectivement définis par

V (X) =q

p2et σ(X) =

√q

p

On admettra ce résultat.

4.7 Exercices

Exercice 48 Une boîte contient 4 boules rouges, 3 boules vertes et 7 boules jaunes. On tire simultanément2 boules de la boîte et on suppose que les tirages sont équiprobables.

1. On considère les événements suivants :A : “obtenir 2 boules de la même couleur”,B : “obtenir 2 boules de couleurs différentes”.

Calculez les probabilités p(A) et p(B).2. On répète 10 fois l’épreuve précédente en remettant les 2 boules tirées dans la boîte, après chaque tirage.

Les 10 épreuves aléatoires élémentaires sont donc indépendantes. On note X la variable aléatoire qui,à chaque partie de 10 épreuves, associe le nombre de fois où l’événement A est réalisé.(a) Expliquez pourquoi X suit une loi binomiale. Donner les paramètres de cette loi.(b) Donnez une loi de probabilité de X en complétant, après l’avoir reproduit, le tableau suivant,

dans lequel on fera figurer des valeurs approchées arrondies avec un seul chiffre différent de zéro.

k 0 · · ·

p(X = k) · · · · · ·

(c) Calculez l’espérance mathématique E(X) de X. Que représente E(X) ?

Page 52: probas-Master1-GSI.pdf

50 CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

Exercice 49 On envisage l’installation d’une pompe à chaleur en relève de chaudière dans un hôtel “deuxétoiles” en construction.On se propose d’étudier si le contrat de maintenance forfaitaire annuel proposé par l’installateur, après lapériode de garantie d’un an, est plus avantageux que la facturation au prix réel des interventions ponctuelles.Une étude statistique permet au constructeur d’affirmer que la probabilité de l’événement “la pompe à cha-leur tombe en panne une fois pendant un mois donné” est 0, 125.Dans un but de simplification, on admet que, pendant un mois donné, la pompe à chaleur ne peut tomberen panne qu’au plus une fois et que les pannes éventuelles survenues deux mois d’une même année sontindépendantes. On note X la variable aléatoire qui, à chaque année (de douze mois), associe le nombre depannes survenues à la pompe.

1. Expliquez pourquoi X suit une loi binomiale. Donner les paramètres de cette loi.2. Calculez la probabilité des événements suivants :

A : “il n’y a pas de panne dans l’année”,B : “il y a au plus deux pannes dans l’année”.

3. Calculez l’espérance mathématique, notée E(X), de la variable aléatoire X. Que représente E(X) ?4. Les résultats d’une étude statistique menée auprès de nombreux utilisateurs de ce modèle de pompe

à chaleur n’ayant souscrit de contrat de maintenance annuel permettent d’admettre que le coût d’uneintervention est de 320 euros. Soit Y la variable aléatoire qui à chaque année associe le montant totalen euros des frais de réparation de la pompe à chaleur.(a) Écrivez une relation entre les variables Y et X.(b) Déterminez l’espérance mathématique, notée E(Y ), de la variable Y . Que représente E(Y ) ?(c) Le contrat de maintenance forfaitaire annuel de la pompe à chaleur est proposé par l’installateur

au prix de 685 euros TTC.Quelle est la solution de maintenance la plus intéressante sur une longue période ?

5. On approche la loi binomiale du 1. par une loi de Poisson de paramètre λ = np où n et p sont lesparamètres de cette loi binomiale.En utilisant la loi de Poisson, déterminez les probabilités respectives de deux événements A et B de laquestion 2.

6. On considère que, pour un événement, l’approximation d’une loi binomiale par une loi de Poisson est

justifiée lorsque l’erreur relativep− p′

pest, en valeur absolue, inférieure à 10% (p étant la probabilité de

cet événement mesurée avec la loi de Poisson). Pour chacun des deux événements précédents, déterminezsi l’approximation de la loi binomiale du 1. par la loi de Poisson du 5. est justifiée. Exercice 50 La probabilité qu’une imprimante de modèle PRINT ne puisse transcrire correctement un

caractère est 0, 0005 ; on suppose que les qualités de transmission des caractères sont indépendantes.On désigne par X la variable aléatoire qui à tout lot de 10000 caractères associe le nombre de caractèrestranscrits incorrectement par l’imprimante.

1. Quelle est la loi de probabilité de X ?2. On admet que la loi de probabilité suivie par X peut être approchée par une loi de Poisson dont on

déterminera le paramètre.Quelle est la probabilité que, parmi 10000 caractères à imprimer,(a) tous soient transcrits correctement ?(b) au moins 9998 soient transcrits correctement ?(c) plus de 5 caractères soient transcrits incorrectement ? Exercice 51 Dans une urne, il y a 10 boules blanches et 18 boules rouges indiscernables au toucher.

On considère l’épreuve qui consiste à extraire, au hasard, l’une après l’autre et sans remise, deux boules del’urne. On est dans une situation d’équiprobabilité.

Page 53: probas-Master1-GSI.pdf

4.7. EXERCICES 51

1. Déterminer la probabilité de l’événement suivant :

E : “la première boule tirée est blanche”.

2. On répète 5 fois de suite l’épreuve précédente. Après chaque épreuve, les 2 boules tirées sont remisesdans l’urne : les 5 épreuves élémentaires précédentes sont donc indépendantes.Soit X la variable aléatoire qui, à chaque partie de 5 épreuves, associe le nombre de fois que se produitl’événement E.

(a) Expliquer pourquoi X suit une loi binomiale et préciser les paramètres de cette loi.

(b) Calculer la probabilité de l’événement

F : “E se produit exactement 2 fois”.

Exercice 52 Soit X une variable aléatoire qui suit une loi de Poisson de paramètre 4. Déterminez laprobabilité d’avoir 7 ≤ X ≤ 9. Exercice 53 3% des bouteilles d’eau fabriquées par une usine sont défectueuses. On appelle X la variablealéatoire qui, à tout lot de 100 bouteilles prises au hasard, associe le nombre de bouteilles défectueuses. Onadmet que X suit une loi de Poisson de paramètre 3.Trouvez la probabilité de chacun des 3 événements suivants :

1. “Un tel lot n’a aucune bouteille défectueuse”

2. “Un tel lot a deux bouteilles défectueuses”

3. “Un tel lot a trois bouteilles défectueuses”

Exercice 54 Une urne contient 6 boules blanches et 4 boules noires.

1. On tire dans cette urne trois fois 1 boule avec remise de cette boule après tirage. On note X le nombrede boules blanches obtenues.Déteminez la loi de X puis donner les valeurs de E(X) et V (X).

2. On tire dans cette urne trois fois une boule sans remise de cette boule après tirage. On note Y lenombre de boules blanches obtenues.Déterminez la loi de Y puis donner les valeurs de E(Y ) et V (Y ).

Exercice 55 On considère une urne contenant 3 boules blanches et 7 boules noires. On tire successive-ment et sans remise les dix boules de l’urne. On note X1 le numéro du tirage où l’on obtient une bouleblanche pour la première fois. Déterminez la loi de X1. Exercice 56 Le système de navigation d’un navire comporte un équipement E dont la fiabilité est ex-ponentielle avec un MTBF (mean time between failures - temps moyen entre pannes) théorique égal à 500heures. Ce navire doit effectuer une mission de 2500 heures sans ravitaillement technique.

1. Si l’on veut la certitude pratique (98%) de la continuité de la fonction assurée par E, combien au départdoit-on emporter d’équipements E ?

2. On suppose maintenant que l’on puisse réparer à bord l’équipement E et l’on estime que le tempsd’indisponibilité pour la réparation n’excède pas 250 heures. Combien doit-on emporter d’équipementsE pour avoir la certitude (à 100% près par hypothèse) de la continuité de la fonction assurée par E ?N.B. On estime que la réparation ne dégrade pas le MTBF = 500 heures.

Page 54: probas-Master1-GSI.pdf

52 CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

ANNEXE A1 - Probabilités individuelles de la loi de Poisson P(λ).

Cette table donne p(X = k) =e−λλk

k!pour X P(λ) :

HHHHHHkλ

0, 1 0, 2 0, 3 0, 4 0, 5 0, 6 0, 7 0, 8 0, 9

0 0, 9048 0, 8187 0, 7408 0, 6703 0, 6065 0, 5488 0, 4966 0, 4493 0, 40661 0, 0905 0, 1637 0, 2222 0, 2681 0, 3033 0, 3293 0, 3476 0, 3595 0, 36592 0, 0045 0, 0164 0, 0333 0, 0536 0, 0758 0, 0988 0, 1217 0, 1438 0, 16473 0, 0002 0, 0011 0, 0033 0, 0072 0, 0126 0, 0198 0, 0284 0, 0383 0, 04944 0, 0001 0, 0003 0, 0007 0, 0016 0, 0030 0, 0050 0, 0077 0, 01115 0, 0001 0, 0002 0, 0004 0, 0007 0, 0012 0, 00206 0, 0001 0, 0002 0, 0003

HHHH

HHkλ

1, 0 1, 5 2, 0 2, 5 3, 0 3, 5 4, 0 4, 5 5, 0

0 0, 3679 0, 2231 0, 1353 0, 0821 0, 0492 0, 0302 0, 0183 0, 0111 0, 00671 0, 3679 0, 3347 0, 2707 0, 2052 0, 1454 0, 1057 0, 0733 0, 0500 0, 03372 0, 1839 0, 2510 0, 2707 0, 2565 0, 2240 0, 1850 0, 1465 0, 1125 0, 08423 0, 0613 0, 1255 0, 1804 0, 2132 0, 2240 0, 2158 0, 1954 0, 1898 0, 14044 0, 0153 0, 0471 0, 0902 0, 1336 0, 1680 0, 1888 0, 1954 0, 1898 0, 17555 0, 0031 0, 0141 0, 0361 0, 0668 0, 1008 0, 1322 0, 1563 0, 1708 0, 17556 0, 0005 0, 0035 0, 0120 0, 0278 0, 0504 0, 0771 0, 1042 0, 1281 0, 14627 0, 0001 0, 0008 0, 0034 0, 0099 0, 0216 0, 0385 0, 0595 0, 0824 0, 10448 0, 0001 0, 0009 0, 0031 0, 0081 0, 0169 0, 0298 0, 0463 0, 06539 0, 0002 0, 0009 0, 0027 0, 0066 0, 0132 0, 0232 0, 036310 0, 0002 0, 0008 0, 0023 0, 0053 0, 0104 0, 018111 0, 0002 0, 0007 0, 0019 0, 0043 0, 008212 0, 0001 0, 0002 0, 0006 0, 0016 0, 003413 0, 0001 0, 0002 0, 0006 0, 001314 0, 0001 0, 0002 0, 000515 0, 0001 0, 000216 0, 0001

Page 55: probas-Master1-GSI.pdf

4.7. EXERCICES 53

ANNEXE A2 - Probabilités individuelles et cumulées de la loi de Poisson P(λ).

Cette table donne p(X = k) =e−λλk

k!pour X P(λ) et F (k) =

k∑l=0

e−λλl

l!:

λ 1 2 3 4 5

k p(k, λ) F (k) p(k, λ) F (k) p(k, λ) F (k) p(k, λ) F (k) p(k, λ) F (k)

0 0, 3679 0, 3679 0, 1353 0, 1353 0, 0498 0, 0498 0, 0183 0, 0183 0, 0067 0, 00671 0, 3679 0, 7358 0, 2707 0, 4060 0, 1494 0, 1991 0, 0733 0, 0916 0, 0337 0, 04042 0, 1839 0, 9197 0, 2707 0, 6767 0, 2240 0, 4232 0, 1465 0, 2381 0, 0842 0, 12473 0, 0613 0, 9810 0, 1804 0, 8571 0, 2240 0, 6472 0, 1954 0, 4335 0, 1404 0, 26504 0, 0153 0, 9963 0, 0902 0, 9473 0, 1680 0, 8152 0, 1954 0, 6288 0, 1755 0, 44055 0, 0031 0, 9994 0, 0361 0, 9834 0, 1008 0, 9161 0, 1563 0, 7851 0, 1755 0, 61606 0, 0005 0, 9999 0, 0120 0, 9955 0, 0504 0, 9665 0, 1042 0, 8893 0, 1462 0, 76227 0, 0001 1, 0000 0, 0034 0, 9989 0, 0216 0, 9881 0, 0595 0, 9489 0, 1044 0, 86668 0, 0009 0, 9998 0, 0081 0, 9962 0, 0298 0, 9786 0, 0653 0, 93199 0, 0002 1, 0000 0, 0027 0, 9989 0, 0132 0, 9919 0, 0363 0, 968210 0, 0008 0, 9997 0, 0053 0, 9972 0, 0181 0, 986311 0, 0002 0, 9999 0, 0019 0, 9991 0, 0082 0, 994512 0, 0001 1, 0000 0, 0006 0, 9997 0, 0036 0, 998013 0, 0002 0, 9999 0, 0013 0, 999314 0, 0001 1, 0000 0, 0005 0, 999815 0, 0002 0, 999916 0, 0001 1, 0000

λ 6 7 8 9 10

k p(k, λ) F (k) p(k, λ) F (k) p(k, λ) F (k) p(k, λ) F (k) p(k, λ) F (k)

0 0, 0025 0, 0025 0, 0009 0, 0009 0, 0003 0, 0003 0, 0001 0, 00011 0, 0149 0, 0174 0, 0064 0, 0073 0, 0027 0, 0030 0, 0011 0, 0012 0, 0005 0, 00052 0, 0446 0, 0620 0, 0223 0, 0296 0, 0107 0, 0138 0, 0050 0, 0062 0, 0023 0, 00283 0, 0892 0, 1512 0, 0521 0, 0818 0, 0286 0, 0424 0, 0150 0, 0212 0, 0076 0, 01044 0, 1339 0, 2851 0, 0912 0, 1730 0, 0573 0, 0996 0, 0337 0, 0550 0, 0189 0, 02935 0, 1606 0, 4457 0, 1277 0, 3007 0, 0916 0, 1912 0, 0607 0, 1157 0, 0378 0, 06716 0, 1606 0, 6063 0, 1490 0, 4497 0, 1221 0, 3134 0, 0911 0, 2068 0, 0631 0, 13027 0, 1377 0, 7440 0, 1490 0, 5987 0, 1396 0, 4530 0, 1171 0, 3239 0, 0901 0, 22038 0, 1033 0, 8472 0, 1304 0, 7291 0, 1396 0, 5925 0, 1318 0, 4557 0, 1126 0, 33299 0, 0688 0, 9161 0, 1014 0, 8305 0, 1241 0, 7166 0, 1318 0, 5874 0, 1251 0, 458010 0, 0413 0, 9574 0, 0710 0, 9015 0, 0993 0, 8159 0, 1186 0, 7060 0, 1251 0, 538111 0, 0225 0, 9799 0, 0452 0, 9466 0, 0722 0, 8881 0, 0970 0, 8030 0, 1137 0, 696812 0, 0113 0, 9912 0, 0264 0, 9730 0, 0481 0, 9362 0, 0728 0, 8758 0, 0948 0, 791613 0, 0052 0, 9964 0, 0142 0, 9872 0, 0296 0, 9658 0, 0504 0, 9261 0, 0729 0, 864514 0, 0022 0, 9986 0, 0071 0, 9943 0, 0169 0, 9827 0, 0324 0, 9585 0, 0521 0, 916615 0, 0009 0, 9995 0, 0033 0, 9976 0, 0090 0, 9918 0, 0194 0, 9780 0, 0347 0, 951316 0, 0003 0, 9998 0, 0014 0, 9990 0, 0045 0, 9963 0, 0109 0, 9889 0, 0217 0, 973017 0, 0001 1, 0000 0, 0006 0, 9996 0, 0021 0, 9984 0, 0058 0, 9947 0, 0128 0, 985718 0, 0002 0, 9999 0, 0009 0, 9993 0, 0029 0, 9976 0, 0071 0, 992819 0, 0001 1, 0000 0, 0004 0, 9997 0, 0014 0, 9989 0, 0037 0, 996520 0, 0002 0, 9999 0, 0006 0, 9996 0, 0019 0, 998421 0, 0001 1, 0000 0, 0003 0, 9998 0, 0009 0, 999322 0, 0001 0, 9999 0, 0004 0, 999723 1, 0000 0, 0002 0, 999924 0, 0001 1, 0000

Page 56: probas-Master1-GSI.pdf

54 CHAPITRE 4. LOIS DE PROBABILITÉS DISCRÈTES USUELLES

ANNEXE A3 - Probabilités individuelles et cumulées de la loi de Poisson P(λ).

Cette table donne p(X = k) =e−λλk

k!pour X P(λ) et F (k) =

k∑l=0

e−λλl

l!:

λ 11 12 13 14 15

k p(k, λ) F (k) p(k, λ) F (k) p(k, λ) F (k) p(k, λ) F (k) p(k, λ) F (k)

01 0, 0002 0, 0002 0, 0001 0, 00012 0, 0010 0, 0012 0, 0004 0, 0005 0, 0002 0, 0001 0, 00013 0, 0037 0, 0049 0, 0018 0, 0023 0, 0008 0, 0010 0, 0004 0, 0005 0, 0002 0, 00024 0, 0102 0, 0151 0, 0053 0, 0076 0, 0027 0, 0037 0, 0013 0, 0018 0, 0007 0, 00095 0, 0224 0, 0375 0, 0127 0, 0203 0, 0070 0, 0107 0, 0037 0, 0055 0, 0019 0, 00286 0, 0411 0, 0786 0, 0255 0, 0458 0, 0152 0, 0259 0, 0087 0, 0142 0, 0048 0, 00767 0, 0646 0, 1432 0, 0437 0, 0895 0, 0281 0, 0540 0, 0174 0, 0316 0, 0104 0, 01808 0, 0888 0, 2320 0, 0655 0, 1550 0, 0457 0, 0997 0, 0304 0, 0620 0, 0194 0, 03749 0, 1085 0, 3405 0, 0874 0, 2424 0, 0661 0, 1658 0, 0473 0, 1093 0, 0324 0, 069810 0, 1194 0, 4599 0, 1048 0, 3472 0, 0859 0, 2517 0, 0663 0, 1756 0, 0486 0, 118411 0, 1194 0, 5793 0, 1144 0, 4616 0, 1015 0, 3532 0, 0844 0, 2600 0, 0663 0, 184712 0, 1094 0, 6887 0, 1144 0, 5760 0, 1099 0, 4631 0, 0984 0, 3584 0, 0829 0, 267613 0, 0926 0, 7813 0, 1056 0, 6816 0, 1099 0, 5730 0, 1060 0, 4644 0, 0956 0, 362214 0, 0728 0, 8541 0, 0905 0, 7721 0, 1021 0, 6751 0, 1060 0, 5704 0, 1024 0, 465615 0, 0534 0, 9075 0, 0724 0, 8445 0, 0885 0, 7636 0, 0989 0, 6693 0, 1024 0, 568016 0, 0367 0, 9442 0, 0543 0, 8988 0, 0719 0, 8355 0, 0866 0, 7559 0, 0960 0, 664017 0, 0237 0, 9679 0, 0383 0, 9371 0, 0550 0, 8905 0, 0713 0, 8272 0, 0847 0, 748718 0, 0145 0, 9824 0, 0255 0, 9626 0, 0397 0, 9302 0, 0554 0, 8826 0, 0706 0, 819319 0, 0084 0, 9908 0, 0161 0, 9787 0, 0272 0, 9574 0, 0409 0, 9235 0, 0558 0, 875120 0, 0046 0, 9954 0, 0097 0, 9884 0, 0177 0, 9751 0, 0286 0, 9521 0, 0418 0, 916921 0, 0024 0, 9978 0, 0055 0, 9939 0, 0109 0, 9680 0, 0191 0, 9712 0, 0299 0, 946822 0, 0012 0, 9990 0, 0030 0, 9969 0, 0065 0, 9925 0, 0121 0, 9833 0, 0204 0, 967223 0, 0006 0, 9996 0, 0016 0, 9985 0, 0037 0, 9962 0, 0074 0, 9907 0, 0133 0, 980524 0, 0003 0, 9999 0, 0008 0, 9993 0, 0020 0, 9982 0, 0043 0, 9950 0, 0083 0, 988825 0, 0001 1, 0000 0, 0004 0, 9997 0, 0010 0, 9992 0, 0024 0, 9974 0, 0050 0, 993826 0, 0002 0, 9999 0, 0005 0, 9997 0, 0013 0, 9987 0, 0029 0, 996727 0, 0001 1, 0000 0, 0002 0, 9999 0, 0007 0, 9994 0, 0016 0, 998328 0, 0001 1, 0000 0, 0003 0, 9997 0, 0009 0, 999229 0, 0002 0, 9999 0, 0004 0, 999630 0, 0001 1, 0000 0, 0002 0, 999831 0, 0001 0, 999932 0, 0001 1, 0000

Page 57: probas-Master1-GSI.pdf

Chapitre 5

Lois de probabilités continues usuelles

5.1 Loi et variable uniformes

5.1.1 Définition

On dit que la loi de probabilité d’une variable aléatoire réelle est uniforme sur un segment [a; b], avec0 ≤ a < b, si sa densité de probabilité f est définie par

f(x) =

1

b− apour x ∈ [a; b]

0 pour x < a ou x > b

On note alors X U([a; b]). f admet la représentation graphique de la Figure 5.1.

x

f(x)

a b

01

(b−

a)

Figure 5.1

On a bien une densité de probabilité puisque• f(x) ≥ 0 ∀x ∈ R,• f est continue sur ]−∞; a[∪]a; b[∪]b; +∞[,

•∫ +∞

−∞f(t)dt =

∫ a

−∞f(t)dt+

∫ b

af(t)dt+

∫ +∞

bf(t)dt = 0 + 1 + 0 = 1.

5.1.2 Fonction de répartition

1. On sait que F (x) = p(X ≤ x) =

∫ x

−∞f(t)dt donc si X U([a; b]),

55

Page 58: probas-Master1-GSI.pdf

56 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

F (x) =

0 pour x < a

x− ab− a

pour a ≤ x ≤ b1 pour x > b

Preuve : On distingue trois cas :

– si x < a, F (x) =

∫ x

−∞f(t)dt =

∫ x

−∞0dt = 0,

– si a ≤ x ≤ b, F (x) =

∫ x

−∞f(t)dt =

∫ a

−∞0dt+

∫ x

a

1

b− adt =

x− ab− a

,

– si x > b, F (x) =

∫ x

−∞f(t)dt =

∫ a

−∞0dt+

∫ b

a

1

b− adt+

∫ x

b0dt = 0 + 1 + 0 = 1.

2. Représentation graphique

x

F(x)

a b

10

Figure 5.2

5.1.3 Moments

Si X U([a; b]) alors

• E(X) =

∫ +∞

−∞tf(t)dt =

∫ b

a

t

b− adt =

[t2

2(b− a)

]ba

=a+ b

2.

• V (X) =a2 + ab+ b2

3−(a+ b

2

)2

=(b− a)2

12.

En effet, on a E(X2) =

∫ b

a

t2

b− adt =

[t3

3(b− a)

]ba

=b3 − a3

3(b− a)=a2 + ab+ b2

3.

Exemple 5.1.1 On considère la fonction f définie par :

f(x) =

0 pour x < 0 ou x > 11 pour 0 ≤ x ≤ 1

.

Il apparaît en intégrant que

F (x) =

0 pour x < 0x pour 0 ≤ x ≤ 11 pour x > 1

On trouve E(X) =1

2et V (X) =

1

12.

Remarque 5.1.1 Dans l’exemple précédent, comme dans toute variable aléatoire absolument continue, on

a p(X = 0) = 0. En effet, ∀a ∈ R,∫ a

af(t)dt = 0.

Page 59: probas-Master1-GSI.pdf

5.2. LA LOI EXPONENTIELLE 57

5.2 La loi exponentielle

5.2.1 Définition

Une variable aléatoire X suit une loi exponentielle de paramètre λ (λ ∈ R+?) si X est une variablealéatoire absolument continue dont la densité de probabilité est définie par

f(x) =

0 pour x < 0

λe−λx pour x ≥ 0

On note alors X E(λ). La fonction f admet la représentation graphique de la Figure 5.3.

x

f(x)

0

Figure 5.3

On a bien une densité de probabilité puisque• f(x) ≥ 0 ∀x ∈ R,• f est continue sur R+ et R−?,

•∫ +∞

−∞f(t)dt =

∫ 0

−∞0dt +

∫ +∞

0λe−λtdt. Or, si A > 0,

∫ A

0λe−λtdt = [−eλt]A0 = 1 − e−λA → 1 quand

A→ +∞ donc∫ +∞

−∞f(t)dt = 1.

La loi exponentielle peut être considérée comme l’équivalent en continu de la loi géométrique dans le casdiscret. En effet, elle modélise un temps d’attente du premier succès dans un processus de Poisson.

5.2.2 Fonction de répartition

Si X E(λ), on aF (x) =

0 pour x < 0

1− λe−λx pour x ≥ 0

dont la représentation graphique est donnée à la Figure 5.4.

5.2.3 Les moments

Si X E(λ),

1. E(X) =

∫ +∞

−∞tf(t)dt =

∫ +∞

0λte−λtdt =

1

λà l’aide d’une intégration par parties.

2. V (X) =1

λ2et σ(X) =

1

λ.

En effet, on sait que V (X) = E(X2) − (E(X))2. Comme E(X2) =

∫ +∞

0λt2e−λtdt, à l’aide de deux

intégrations par parties, on obtient E(X2) =2

λ2.

Page 60: probas-Master1-GSI.pdf

58 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

x

F(x)

0

01

Figure 5.4

5.3 La loi de Laplace-Gauss ou loi normale

5.3.1 Définition

On appelle variable aléatoire normale ou gaussienne toute variable aléatoire absolument continuedont la densité de probabilité f est définie par

f(x) =1

σ√

2πe−(x−m)2

2σ2

m étant une constante réelle, σ une constante réelle strictement positive. On utilise la notation suivante

X N (m,σ)

Remarque 5.3.1 On admettra que f est bien une densité de probabilité (la difficulté étant de montrer que∫ +∞

−∞f(t)dt = 1).

5.3.2 Représentation graphique

La courbe représentative de f est donnée par la Figure 5.5.

Figure 5.5

Page 61: probas-Master1-GSI.pdf

5.3. LA LOI DE LAPLACE-GAUSS OU LOI NORMALE 59

Remarque 5.3.2

– La courbe, dite courbe en cloche, a un axe de symétrie qui est la droite d’équation x = m.

– La densité f a un maximum atteint pour x = m valant1

σ√

2π.

– La courbe est d’autant plus pointue que σ est petit.

Rappels : Pour déterminer le(s) point(s) d’inflexion d’une fonction, on calcule sa dérivée seconde et ondétermine le signe de cette dernière. Si le signe change pour une abscisse particulière, la fonction y admetun point d’inflexion.Déterminons le(s) point(s) d’inflexion de f . Le calcul de la dérivée première donne :

f ′(x) =1

σ√

−2

2σ2(x−m)e

−(x−m)2

2σ2 = − 1

σ3√

2π(x−m)e

−(x−m)2

2σ2 .

Le calcul de la dérivée seconde donne :

f ′′(x) = − 1

σ3√

[1− (x−m)2

σ2

]e−(x−m)2

2σ2 =1

σ5√

2π[(x−m− σ)(x−m+ σ)]e

−(x−m)2

2σ2 .

On a le tableau de signes suivant :

x −∞ m− σ m+ σ +∞

f ′′(x) + − +

Par conséquent, la courbe admet deux points d’inflexion pour x = m+ σ et x = m− σ.

Exemple 5.3.1 Les variables normales sont très fréquentes, par exemple la variable aléatoire réelle “poids”d’un français adulte, la variable aléatoire “quotient intellectuel” d’une population donnée.

5.3.3 Les moments

L’espérance et la variance d’une variable normale sont respectivement données par :

E(X) = m et V (X) = σ2

5.3.4 Variable normale centrée réduite

Si m = 0 et σ = 1, la variable normale est appelée variable normale centrée réduite et est notée Zou Γ, on note alors

Z N (0, 1)

La courbe représentative de la fonction g est donnée par la Figure 5.6. Sa densité de probabilité est la fonction

g définie par g(x) =1√2πe−x

2

2 .

– Cette fonction g est paire, la courbe a un axe de symétrie qui est la droite des ordonnées. En x = 0, la

fonction g vaut g(0) =1√2π

.

– Les points d’inflexion de la fonction g se trouvent en x = −1 et x = 1.

– En général, les valeurs de g(x) =1√2πe−x

2

2 sont données à l’aide d’une table pour x ≥ 0.

Page 62: probas-Master1-GSI.pdf

60 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

Figure 5.6

Figure 5.7

5.3.5 Fonction de répartition

Si on note Π la fonction de répartition de la loi normale centrée réduite Z associée à X,

Π(z) =

∫ z

−∞g(x)dx = p(Z ≤ z)

cette fonction est représentée graphiquement à la Figure 5.7. Il existe des tables qui donnent la valeur deΠ(z) pour z ≥ 0 (voir annexe A). Π(z) désigne l’aire du domaine plan en jaune (voir Figure 5.8).

Figure 5.8

Exemple 5.3.2 Π(0) = 0, 5 ce qui est évident puisqu’on considère exactement la moitié de l’aire totale (quivaut 1). On peut également trouver à l’aide de la table Π(1) = 0, 8413.

Page 63: probas-Master1-GSI.pdf

5.3. LA LOI DE LAPLACE-GAUSS OU LOI NORMALE 61

– Pour z > 0 on a la relation Π(z) + Π(−z) = 1

On peut observer cette propriété à l’aide de la Figure 5.9.

Figure 5.9

Exemple 5.3.3 p(Z ≤ −1) = Π(−1) = 1−Π(1) = 1− 0, 8413 = 0, 1587.

– Soit z ∈ R, on a la relation p(Z > z) = 1− p(Z ≤ z) = 1−Π(z)

On peut observer cette propriété à l’aide de la Figure 5.10.

Figure 5.10

Exemple 5.3.4 p(Z > 1) = 1−Π(1) = 0, 1587.

– Soient a, b ∈ R vérifiant a < b alors p(a ≤ Z ≤ b) = Π(b)−Π(a)

On peut observer cette propriété à l’aide de la Figure 5.11.Exemple 5.3.5 p(1 ≤ Z ≤ 2) = Π(2)−Π(1) = 0, 9772− 0, 8413 = 0, 1359.

– Soit z > 0 alors p(−z ≤ Z ≤ z) = Π(z)−Π(−z) = 2Π(z)− 1

On peut observer cette propriété à l’aide de la Figure 5.12.Exemple 5.3.6 p(−1 ≤ Z ≤ 1) = 2Π(1)− 1 = 2× 0, 8413− 1 = 0, 6826.

Page 64: probas-Master1-GSI.pdf

62 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

Figure 5.11

Figure 5.12

5.3.6 Table de l’écart réduit

Soit un intervalle centré en 0 de probabilité 1− α, on note −Zα et Zα ses bornes. Alors

p(−Zα ≤ z ≤ Zα) = 1− α = 2Π(Zα)− 1

ou encoreΠ(Zα) = 1− α

2

Par conséquent,

p(z > Zα) = p(z < −Zα) =α

2

Il existe une table (ne figurant pas dans les annexes) qui pour α fixé donne Zα, ce qui permet d’obtenir lesbornes d’un intervalle centré en 0 dont la probabilité est connue.

Exemple 5.3.7 Pour α = 0, 03 on obtient Zα = 2, 170090 ce qui signifie

• p(−2, 17090 ≤ Z ≤ 2, 17090) = 0, 97

• p(Z > 2, 17090) = 0, 015

• p(Z < −2.17090) = 0, 015

Page 65: probas-Master1-GSI.pdf

5.3. LA LOI DE LAPLACE-GAUSS OU LOI NORMALE 63

Figure 5.13

5.3.7 Exemples

1. SoientX N (m = 30, σ = 3) et sa variable Z centrée réduite associée vérifiant Z =X − 30

3 N (0, 1).

Déterminons les probabilités p(X = 28), p(X ≤ 33), p(X ≤ 27), p(27 ≤ X ≤ 33) etp(X > 33).

• p(X = 28) = 0.

• X ≤ 33⇔ Z ≤ 33− 30

3= 1 donc p(X ≤ 33) = p(Z ≤ 1) = Π(1) = 0, 8413.

• X ≤ 27 =

Z ≤ 27− 30

3= −1

donc p(X ≤ 27) = p(Z ≤ −1) = Π(−1) = 1 − Π(1) =

0, 1587.

• 27 ≤ X ≤ 33 = −1 ≤ Z ≤ 1 par conséquent p(27 ≤ X ≤ 33) = p(−1 ≤ Z ≤ 1) =Π(1)−Π(−1) = 2Π(1)− 1 ce qui donne p(27 ≤ X ≤ 33) = 2× 0, 8413− 1 = 0, 6826.

• p(X > 33) = 1− p(X ≤ 33) = 1−Π(1) = 0, 1587.

2. Soit une variable aléatoire réelle dont on sait qu’elle suit une loi normale. On sait de plus quep(X ≤ 3) = 0, 5517 et p(X > 7) = 0, 0166.Déterminons les paramètres m et σ de la loi normale que suit X.

On a X N (m,σ)⇔ Z =X −mσ

N (0, 1) donc

• X ≤ 3⇔ Z ≤ 3−mσ

et p(X ≤ 3) = p

(Z ≤ 3−m

σ

)= 0, 5517. Alors Π

(3−mσ

)= 0, 5517 or

Π(0, 13) = 0, 5517 donc3−mσ

= 0, 13.

• X > 7⇔ Z >7−mσ

et p(X ≤ 7) = 0, 9834 = p

(Z ≤ 7−m

σ

). Ainsi Π

(7−mσ

)= 0, 9834 or

Π(2, 13) = 0, 9834 donc7−mσ

= 2, 13.

Afin de déterminer m et σ, on résout le système7−m = 2, 13σ3−m = 0, 13σ

4 = 2σm = 3− 0, 13σ

σ = 2m = 3− 0, 26 = 2, 74

.

Conclusion, X N (m = 2, 74;σ = 2).

Page 66: probas-Master1-GSI.pdf

64 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

5.3.8 Remarques

On sait que X N (m,σ)⇔ Z =X −mσ

N (0, 1) donc :

• m − σ ≤ X ≤ m + σ = −1 ≤ Z ≤ 1 et p(m − σ ≤ X ≤ m + σ) = Π(1) − Π(−1) =2Π(1)−1 = 0, 6826. On peut alors affirmer que 68, 26% de la population étudiée appartient à l’intervalle[m− σ;m+ σ].

• m− 2σ ≤ X ≤ m+ 2σ = −2 ≤ Z ≤ 2 et p(m− 2σ ≤ X ≤ m+ 2σ) = 2Π(2)− 1 = 0, 9544. Onpeut alors affirmer que 95, 44% de la population étudiée appartient à l’intervalle [m− 2σ;m+ 2σ].

• m− 3σ ≤ X ≤ m+ 3σ = −3 ≤ Z ≤ 3 et p(m− 3σ ≤ X ≤ m+ 3σ) = 2Π(3)− 1 = 0, 9973. Onpeut alors affirmer que 99, 73% de la population étudiée appartient à l’intervalle [m− 3σ;m+ 3σ].

5.3.9 Relation entre la fonction de répartition et la densité de probabilité des loi nor-male et loi normale centrée réduite

– Soit X N (m,σ) de densité f . La fonction de répartition F est définie par F (x) = p(X ≤ x) etvérifie alors la relation

F ′ = f

– Soit Z N (0, 1) de fonction de répartition Π et de densité g alors

Π′ = g

– On a l’égalité X ≤ x =

Z ≤ x−m

σ

ainsi que la relation F (x) = Π

(x−mσ

). Par dérivation,

F ′(x) =1

σΠ′(x−mσ

)⇔ f(x) =

1

σg

(x−mσ

),

ce qui permet l’utilisation de la table de densité de probabilité de la loi N (0, 1) pour calculer les valeursde la densité de probabilité de N (m,σ).

5.3.10 Propriétés

Soit X N (m,σ) et k une constante. On a les résultats suivants :– la variable kX suit une loi normale N (km, |k|σ),– la variable k +X suit une loi normale N (k +m,σ).

5.3.11 Somme de deux variables normales indépendantes

Soient deux variables X1 N (m1, σ1) et X2 N (m2, σ2) indépendantes. Alors,

X1 +X2 N (m1 +m2,√σ21 + σ22)

et

X1 −X2 N (m1 −m2,√σ21 + σ22)

Preuve : Ces propriétés sont obtenues en utilisant les résultats suivants

E(X1 +X2) = E(X1) + E(X2) ; E(X1 −X2) = E(X1)− E(X2)

σ(X1 +X2) =√σ2(X1) + σ2(X2) ; σ(X1 −X2) =

√σ2(X1) + σ2(X2).

Plus généralement, soient n variables aléatoires indépendantes deux à deux telles que Xi N (mi, σi),∀i ∈ 1, 2, . . . , n, alors

Page 67: probas-Master1-GSI.pdf

5.3. LA LOI DE LAPLACE-GAUSS OU LOI NORMALE 65

la variable X =

n∑i=1

aiXi suit une loi normale N (m,σ)

de moyenne m =n∑i=1

aimi et d’écart-type σ =

√√√√ n∑i=1

a2iσ2i .

Remarque 5.3.3 Si les Xi suivent la même loi N (m,σ),

– la variable X = X1 +X2 + . . .+Xn suit une loi normale de moyenne nm et d’écart-type√σ2 + σ2 + . . .+ σ2 =

√nσ2 = σ

√n.

– La variable Y =X1 +X2 + . . .+Xn

nsuit une loi normale de moyenne

nm

n= m, d’écart-type

σ√n.

5.3.12 Approximation d’une loi binomiale par une loi normale

Soit une loi binomiale B(n, p) de moyenne m = np, d’écart-type σ =√npq.

On montre que l’on peut approximer la loi binomiale B(n, p) par la loi normale N (m = np, σ =√npq) si

n ≥ 15, p et q étant non voisins de 0. Dans la pratique, l’approximation est admise si n ≥ 20, np ≥ 10,nq ≥ 10.

Exemple 5.3.8 Soit X B(n = 100; p = 0, 4) avec E(X) = 40 et σ(X) =√

40× 0, 6 =√

24. On a dansce cas

n = 100 ≥ 20np = 40 ≥ 10nq = 60 > 10npq = 24

ce qui implique que X N (m = 40, σ =√

24). Calculons p(X < 38).

– On a p(X = 38)B = p(37, 5 ≤ X ≤ 38, 5)N . Posons Z =X − 40√

24alors

37, 5 ≤ X ≤ 38, 5 =

−2, 5√

24≤ Z ≤ −1, 5√

24

= 0, 510 ≤ Z ≤ 0, 306.

Ainsi, p(X = 38)B = Π(−0, 306) − Π(−0, 510) = Π(−0, 510) − Π(−0, 306) = 0, 6950 − 0, 6202 =0, 0748.Montrons que π(0, 306) = 0, 6202 à l’aide de l’interpolation linéaire : on a π(0, 30) = 0, 6179 etπ(0, 31) = 0, 6217 et le tableau suivant

0, 6179 x 0, 6217

0, 30 0, 306 0, 31

⇔ x− 0, 6179

0, 6217− 0, 6179=

0, 306− 0, 30

0, 31− 0, 30⇔ x = 0, 6179 + 0, 0038× 0, 006

0, 01= 0, 6202.

– Ensuite, p(X > 38)B = p(X > 38, 5)N et X > 38, 5 =

Z >

38, 5− 40√24

. Par conséquent,

p(X > 38)B = p(X > 38, 5)N = 1− p(X ≤ 38, 5)N ou encorep(X > 38)B = 1−Π(−0, 306) = Π(0, 306) = 0, 6202.

– Enfin, p(X ≤ 38)B = p (X ≤ 38, 5)N et X ≤ 38, 5 =

Z ≤ 40− 38, 5√

24

. Par conséquent,

p(X ≤ 38)B = p

(Z ≤ −1, 5√

24

)B

= Π(−0, 306).

Finalement, p(X ≤ 38)B = 1−Π(0, 306) = 1− 0, 6202 = 0, 3797.

Page 68: probas-Master1-GSI.pdf

66 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

5.3.13 Résumé sur les approximations de lois

• H(N, p, n) ∼ B(n, p) pour N > 10n,

• B(n, p) ∼ P(λ = np) pour n ≥ 30, p ≤ 0, 1 et np ≤ 10,

• B(n, p) ∼ N (m = np, σ =√npq) avec

n ≥ 200, 1 < p < 0, 9

ounp ≥ 10nq ≥ 10

ou npq > 3.

• P(λ = np) ∼ N (m = np, σ =√npq) pour np ≥ 10.

5.4 Loi et variable du χ2 (Khi-deux) de Pearson

5.4.1 La distribution du χ2

1. On considère n variables indépendantes d’une loi normale centrée réduite T1, T2,. . . ,Tn. La quantité

T 21 + T 2

2 + . . .+ T 2n =

n∑i=1

T 2i

est une variable aléatoire dont la distribution est celle d’un χ2 à n degrés de liberté de moyenne etvariance respectives,

E(χ2n) = n et V (χ2

n) = 2n

Lorsque n augmente, la densité f d’une loi du χ2 ressemble de plus en plus à la densité d’une loinormale (voir la Figure 5.14) : La variable χ2 est tabulée en fonction du nombre n de degrés de liberté.

Figure 5.14

La table (voir annexe B) donne pour différentes valeurs de α, la valeur de x telle que :

P (χ2n < x) = 1− α

2. Graphiquement, cette valeur est égale à la surface grisée de la Figure 5.15 :

Exemple 5.4.1 Calculer p(χ210 > 20, 5). On récupère à l’aide de la table, la probabilité p(χ2

10 <20, 5) = 0, 975. Par conséquent, la probabilité recherchée p(χ2

10 > 20, 5) est égale à 1−0, 975 = 0, 025.

Remarque 5.4.1 Attention, d’autres tables donnent la probabilité α, en fonction du nombre de degrésde liberté ν pour qu’une variable aléatoire X suivant une loi de χ2

ν soit supérieure ou égale à une valeurdonnée x : α = p(X ≥ x).

On a la propriété suivante :

χ2m + χ2

n = χ2m+n

Page 69: probas-Master1-GSI.pdf

5.4. LOI ET VARIABLE DU χ2 (KHI-DEUX) DE PEARSON 67

Figure 5.15

Ce χ2 admet

– une moyenne E(χ2m+n) = m+ n,

– une variance σ2(χ2m+n) = 2(m+ n)

et ceci par application directe du théorème sur l’addition de variables aléatoires indépendantes.

5.4.2 Les données du problème

Certains tests ont pour objet de tirer des conclusions relatives à la valeur des paramètres (moyenne,fréquence, variance) d’une ou plusieurs populations, sur la base d’informations partielles fournies par un ouplusieurs échantillons.La même démarche peut être appliquée pour porter un “jugement” sur les caractéristiques encore plus géné-rales de la population : la forme même de distribution du caractère étudié, la validité de sa représentation àl’aide de telle ou telle loi de probabilité particulière, les relations éventuelles entre plusieurs variables.

Concrètement, on dispose d’une distribution statistique empirique se présentant sous la forme d’une tabled’effectifs ou de fréquences du caractère étudié. On désire savoir si ces effectifs ou ces fréquences sont compa-tibles avec une distribution théorique déterminée telle que la loi binomiale, la loi de Poisson, la loi normaleou toute autre loi de probabilité. Il s’agit en d’autres termes d’apprécier l’adéquation d’une distributionthéorique particulière, en tant que représentation d’un phénomène concret observé (série empirique).

La démarche consiste donc à tester l’hypothèse selon laquelle notre échantillon serait tiré d’une popula-tion régie par une certaine loi de probabilité.Il est évident que, même si le phénomène étudié suit effectivement la loi de probabilité dont on teste l’adé-quation, les fréquences expérimentales (ou empiriques) observées sur un échantillon particulier différerontnécessairement peu ou prou des probabilités (fréquences que l’on devrait théoriquement observer selon la loien question).

La problématique du test revient en définitive à savoir si les différences constatées entre la distributionexpérimentale et la distribution théorique supposée sont explicables par l’aléa lié à la constitution de l’échan-tillon ou si elles sont trop importantes pour être imputables au seul hasard. En ce cas, c’est l’hypothèse detravail avancée sur la nature de la distribution qui devrait être mise en cause.

5.4.3 Ajustement d’une distribution observée à une distribution théorique

Construction du test

1. Les hypothèses du test sont les suivantes :• H0 : X suit la loi théorique L,

Page 70: probas-Master1-GSI.pdf

68 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

• H1 : X ne suit pas L.

2. La variable observée est :– soit discrète et prend k valeurs x1, x2,. . . ,xk– soit continue et classée en k classes [a0; a1[, [a1; a2[,. . . ,[ak−1; ak[ de centres respectifs x1, x2,. . . ,xk−1,xk.

3. Les N observations de l’échantillon sont réparties sur les k valeurs de X (si X est discrète) ou sur lesk classes de X (si X est continue). On a les tableaux suivants :

xi ni

x1 n1

x2 n2

......

xk nk

Classes Centres Effectifsxi ni

[a0; a1[ x1 n1

[a1; a2[ x2 n2

......

...

[ak−1; ak[ xk nk

avec N =k∑i=1

ni = n1 + n2 + . . .+ nk.

4. Sous H0 on note pi la probabilité dite théorique définie par• pi = p(X = xi/X L) si X est discrète,• pi = p(X ∈ [ai−1; ai[/X L) si X est continue.ei = Npi est l’effectif théorique de la i-ième classe de X.

5. L’indicateur d’écart entre les distributions observées et théoriques est

k∑i=1

(ni −Npi)2

Npi(1)

dit χ2 observé ou calculé. Cet écart suit pourN suffisamment grand une loi du χ2ν d’où le nom du test.

Intuitivement, on comprend que cette grandeur statistique traduise l’écart entre l’échantillon et laloi conjecturée.Si l’ajustement était parfait, cette expression du χ2 serait nulle, les effectifs empiriques co’ıncidantexactement avec les effectifs théoriques.En revanche, plus grands sont les écarts entre les effectifs observés et les effectifs théoriques (ni − ei)et plus forte sera la valeur du χ2.

En outre, comme la quantité (1) ne peut pas être négative, le test d’ajustement est nécessairementun test unilatéral droit.

Le paramètre ν indiçant χ2ν définit le nombre de degrés de liberté. C’est le nom donné au nombre

d’observations linéairement indépendantes qui apparaissent dans une somme de carrés. Autrement dit,c’est le nombre d’observations aléatoires indépendantes à qui l’on soustrait le nombre de contraintesimposées à ces observations.

Le nombre ν de degrés de liberté est égal à– si les paramètres de la loi d’ajustement L sont donnés,

ν = k − 1

Page 71: probas-Master1-GSI.pdf

5.4. LOI ET VARIABLE DU χ2 (KHI-DEUX) DE PEARSON 69

En effet, aucun paramètre n’est à estimer puisque la loi d’ajustement est totalement spécifiée. Le χ2

est constitué de k écarts (ni − ei). Les écarts sont reliés par la contrainte∑(ni − ei) =

∑(ni −Npi) =

∑ni −N

∑pi = N −N = 0

En d’autres termes, lorsqu’on connaît la valeur de k − 1 écarts, on peut en déduire la valeur dudernier qui n’est donc pas “libre” de varier de manière aléatoire,

– si la loi d’ajustement L comporte r paramètres inconnus,

ν = k − r − 1

On impose de ce fait autant de contraintes supplémentaires entre les observations, diminuant d’autantle nombre de degrés de liberté.

Remarque 5.4.2 Le nombre d’observations par classes ne doit pas être faible, Npi doit être supérieurà 5, ∀i = 1, 2, . . . , k. Dans le cas contraire, on regroupe deux ou plusieurs classes adjacentes de façonà réaliser cette condition. On tient compte de ce regroupement pour le nombre de degrés de liberté.

6. Pour un risque de première espèce α, la région critique est définie pour

k∑i=1

(ni −Npi)2

Npi≥ χ2

ν,1−α

d’où la règle de décision :

• χ2 observé < χ2ν,1−α, on décide H0 et X L.

• χ2 observé ≥ χ2ν,1−α, on décide H1 et X ne suit pas la loi L.

Exemple 5.4.2 Loi uniforme.Une statistique relative aux résultats du concours d’entrée à une grande école fait ressortir les répartitionsdes candidats et des admis selon la profession des parents.

Profession des candidats Nombre de candidats Nombre d’admis

1 Fonctionnaires et assimilés 2244 180

2 Commerce, industrie 988 89

3 Professions libérales 575 48

4 Propriétaires rentiers 423 37

5 Propriétaires agricoles 287 13

6 Artisans, petits commerçants 210 18

7 Banque, assurance 209 17

Total 4936 402

Question : Tester l’hypothèse (risque α = 0, 05) selon laquelle la profession des parents n’a pas d’influencesur l’accès à cette grande école.

Il s’agit du test d’ajustement d’une distribution théorique, on considère les hypothèses :• H0 : la profession des parents n’a pas d’influence sur l’accès à cette grande école, la proportion des

admis est constante pour toutes les professions soit p =402

4936' 0, 0814.

• H1 : la profession des parents influe sur l’accès à cette grande école.

Sous H0, le nombre d’admis pour la i-ième profession est pNi.

Page 72: probas-Master1-GSI.pdf

70 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

i Ni ni effectif observé Nip effectif théorique(ni −Nip)

2

Nip

1 2244 1802244× 402

4936' 182, 76 0, 0416

2 988 89988× 402

4936' 80, 47 0, 9042

3 575 48575× 402

4936' 46, 83 0, 0293

4 423 37423× 402

4936' 34, 45 0, 1887

5 287 13287× 402

4936' 23, 37 4, 6050

6 210 18210× 402

4936' 17, 10 0, 0471

7 209 17209× 402

4936' 17, 02 ' 0

Total 4936 402 402 5, 8181

Le χ2 observé vaut 5, 8181. Le nombre de degrés de liberté est 7 − 1 = 6. La table de l’annexe B fournitχ26;0,95 = 12, 59 donc χ2 observé < χ2

6/0,95. On choisit H0, ce qui signifie que la profession des parents n’a pasd’influence sur l’accès à cette grande école.

Exemple 5.4.3 Loi binomiale.Supposons qu’on ait recueilli 300 boîtes contenant chacune trois ampoules. Dans chaque boîte, on compte lenombre d’ampoules défectueuses. On obtient les résultats suivants :

Nombre d’ampoules Nombre de boîtesdéfectueuses xi observées ni

0 190

1 95

2 10

3 5

Total 300

Pour chaque ampoule testée, on peut observer deux états différents : l’ampoule est défectueuse ou non. Lenombre X d’ampoules défectueuses par boîte suit une loi binomiale de paramètres n = 3 et p.Dans la distribution observée, le nombre d’ampoules défectueuses est de

0× 190 + 1× 95 + 2× 10 + 3× 5 = 130

soit 130 ampoules défectueuses sur un total de 900 ampoules. La proportion d’ampoules défectueuses est

alors de130

900' 0, 144. Prenons p = 0, 15 et réalisons alors le test suivant : soit X le nombre d’ampoules

défectueuses par boîte

• H0 : X B(3; 0, 15).

• H1 : X ne suit pas cette loi binomiale.

On détermine les probabilités théoriques :

Page 73: probas-Master1-GSI.pdf

5.4. LOI ET VARIABLE DU χ2 (KHI-DEUX) DE PEARSON 71

• p0 = p(X = 0/X B) = (0, 85)3 ' 0, 6141

• p1 = p(X = 1/X B) = C13 (0, 15)(0, 85)2 ' 0, 3251

• p2 = p(X = 2/X B) = C23 (0, 15)2(0, 85) ' 0, 0574

• p3 = p(X = 3/X B) = (0, 15)3 ' 0, 0034

On a le tableau

xi

effectifpi

effectifobservé théoriqueni Npi

0 190 0, 6141 184, 23

1 95 0, 3251 97, 53

2 10 0, 0574 17, 22

3 5 0, 0034 1, 02

Total N = 300 1 300

L’effectif théorique de la quatrième classe est faible : 1, 02 < 5. On effectue un regroupement de classes, lesclasses “2” et “3”.

xi ni Npi(ni −Npi)2

Npi

0 190 184, 23 0, 18071

1 95 97, 53 0, 06563

2 ou 3 15 18, 24 0, 57553

Total 300 300 0, 82187

Après le regroupement, le nombre de classes est 3, le nombre de degrés de liberté est 3− 1 = 2.Au risque α = 0, 01 on a χ2

2;0,99 = 9, 21. Donc

χ2 observé = 0, 82187 < χ22;0,99.

On ne rejette pas H0 au profit de H1. On considère que le nombre d’ampoules défectueuses par boîte suitune loi binomiale de paramètres n = 3 et p = 0, 15 au risque α = 0, 01.

Exemple 5.4.4 Loi normale.On suppose que le rendement X (quintaux par hectares d’une parcelle de blé) suit une loi normale N (m,σ).L’observation du rendement de 1000 parcelles a donné les résultats suivants :

Rendement [0; 10[ [10; 20[ [20; 30[ [30; 40[ [40; 50[ [50; 60[ [60; 70[ [70; 80[ [80; 90[

Nombre de parcelles 5 6 40 168 288 277 165 49 2

1. Déterminer la moyenne arithmétique et l’écart-type de la distribution observée.

• x =

∑i

nixi

N= 49, 76

• σ′2 =

∑i

nix2i

N− x2 = 164, 5424 donc σ′ ' 12, 827.

Page 74: probas-Master1-GSI.pdf

72 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

2. Vérifier pour un test du χ2 avec un risque de 0, 05 si l’ajustement de la distribution observée à une loinormale N (n = 50, σ = 13) est acceptable.

Les hypothèses du test du χ2 sont les suivantes :• H0 : X N (50, 13)

• H1 : X ne suit pas N (50, 13)

On désigne par [a0; a1[, [a1; a2[,. . . ,[a8; a9[ les classes et par x1, x2,. . . ,x9 les centres de ces classes.

Sous H0, X N (50, 13) et Z =X − 50

13 N (0, 1), donc pi = p(X ∈ [ai−1; ai[) = Π(zi) − Π(zi−1)

avec zi =ai − 50

13et zi−1 =

ai−1 − 50

13. L’effectif théorique de la i-ème classe est 1000pi et∑

i

(ni −Npi)2

Npi χ2

ν

Classeni zi Π(zi) pi Npi

Npi ni (ni −Npi)2

Npi[xi−1;xi[ corrigé corrigé

[0; 10[ 5 −3, 0769 0, 001 0, 0009 0, 910, 4 11 0, 0346

[10; 20[ 6 −2, 3077 0, 0105 0, 0095 9, 5

[20; 30[ 40 −1, 5385 0, 0620 0, 0515 51, 5 51, 5 40 2, 568

[30; 40[ 168 −0, 7692 0, 2209 0, 1589 158, 9 158, 9 168 0, 5211

[40; 50[ 288 0 0, 5 0, 2791 279, 1 279, 1 288 0, 283

[50; 60[ 277 0, 7692 0, 7791 0, 2791 279, 1 279, 1 277 0, 0158

[60; 70[ 165 1, 5385 0, 9380 0, 1589 158, 9 158, 9 165 0, 234

[70; 80[ 49 2, 3077 0, 9895 0, 0515 51, 5 51, 5 49 0, 1214

[80; 90[ 2 3, 0769 0, 9990 0, 0095 9, 5 9, 5 2 5, 9211

Total 1000 – – 1 1000 1000 1000 9, 7

On effectue le regroupement des deux premières classes car Npi < 5. Le χ2 observé vaut 9, 7. Aprèsle regroupement, il reste 8 classes, les deux paramètres de la loi normale sont donnés, le nombre dedegrés de liberté est ν = (9− 1)− 1 = 7. À l’aide de la table, on obtient χ2

7;0,95 = 14, 07. Ainsi,

χ2 observé < χ27;0,95.

On choisit H0, l’ajustement de la distribution observée à une loi normale N (50, 13) est acceptable.

Exemple 5.4.5 Loi de Poisson.Souvent, lorsqu’on envisage une modèle pour un phénomène qu’on étudie, on ne spécifie pas complètement laloi qu’on considère. Supposons qu’on s’intéresse au nombre de voitures se présentant par minute à un postede péage sur une autoroute. On peut se demander si cette variable aléatoire peut être modélisée par une loide Poisson. On souhaite donc tester l’hypothèse fondamentale

H0 : X P(λ)contre l’hypothèse alternative

H1 : X ne suit pas P(λ).

On ne précise pas la valeur du paramètre λ. On peut toutefois l’estimer à partir des données disponiblesmais dans ce cas, r = 1. Le nombre de degrés sera alors ν = k − r − 1 = k − 2.

On effectue 200 comptages au péage.

xi 0 1 2 3 4 5 6 7 8 ≥ 9 Total

ni 6 15 40 42 37 30 10 12 8 0 200

nixi 0 15 80 126 148 150 60 84 64 0 727

Page 75: probas-Master1-GSI.pdf

5.5. LOI DE STUDENT-FISCHER 73

où xi est le nombre de voitures par minute lors de la i-ième l’observation et ni est l’effectif correspondant.Par exemple, x1 = 0 et n1 = 6 c’est-à-dire que lors de 6 observations, il y a 0 voiture.La moyenne arithmétique de cette distribution observée est

x =

∑i

nixi∑i

ni=

727

200= 3, 635 ' 3, 5

On peut tester l’hypothèse

H0 : X P(λ = 3, 5).

xi ni pi Npi Npi corrigé ni corrigé(ni −Npi)2

Npi

0 6 0, 0302 6, 04 6, 04 6 0, 00026

1 15 0, 1057 21, 14 21, 14 15 1, 78333

2 40 0, 1850 37 37 40 0, 24324

3 42 0, 2158 43, 16 43, 16 42 0, 03118

4 37 0, 1888 37, 76 37, 76 37 0, 01530

5 30 0, 1322 26, 44 26, 44 30 0, 47933

6 10 0.0771 15, 42 15, 42 10 1, 90508

7 12 0, 0385 7, 7 7, 7 12 2, 40130

8 8 0, 0169 3, 385, 34 8 1, 32502

≥ 9 0 0, 0098 1, 96

Total 200 1 200 200 200 8, 18404

On a pi = p(X = xi/X P(3, 5)) donc• p0 = p(X = 0/X P(3, 5)) = e−3,5 ' 0, 0302 et• p1 = p(X = 1/X P(3, 5)) = e−3,53, 5 ' 0, 1057.

On a effectué le regroupement des deux dernières classes car l’effectif théorique y est inférieur à 5. Après ceregroupement, le nombre de classes est de 9. Le nombre de degrés de liberté est 9 − 1 − 1 = 7. Au risqueα = 0, 01, χ2

7;0,99 = 18, 48 doncχ2 observé = 8, 18404 < χ2

7;0,99.

On ne rejette pas l’hypothèse H0 et X P(λ = 3, 5) au risque α = 0, 01.

5.5 Loi de Student-Fischer

5.5.1 Définition

La loi de Student est une loi continue qui comme la loi du χ2 dépend d’un seul paramètre qu’onappellera également degré de liberté et qu’on note ν (ν ∈ N?). La variable X distribuée selon cette loi qu’onnote

X tα

prend toutes ses valeurs dans R. Si Y N (0, 1) et Z χ2ν , Y et Z étant indépendantes, la variable

X =Y√Z

ν

suit une loi de Student à ν degrés de liberté.

Page 76: probas-Master1-GSI.pdf

74 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

On dit qu’une variable aléatoire réelle à densité X a une loi de probabilité de Student à ν degrés de li-berté (n entier > 0) si, et seulement si, sa densité de probabilité est donnée par la formule :

fν(x) =Γ(ν+12

)√ν√πΓ(ν2

) (1 + x2

ν

) ν+12

.

Dans cette formule, Γ est la fonction Gamma d’Euler définie, lorsque la partie réelle de x est positive, par :

Γ(x) =

∫ +∞

0euux−1du.

La loi de Student à ν degrés de liberté est la loi de probabilité du quotient d’une variable normale centréeréduite par la racine carrée de la somme des carrés de ν variables normales centrées réduites indépendantesentre elles et indépendantes de la première variable.

Pour ν = 1, la loi de Student s’appelle loi de Cauchy, ou loi de Lorentz. C’est la loi du rapport dedeux variables normales centrées réduites indépendantes.

5.5.2 Les courbes

Figure 5.16

La courbe est unimodale, centrée, symétrique et plus plate que la courbe d’une loi normale. Lorsque lenombre de degrés de liberté augmente, la loi de Student tend vers la loi normale N (0, 1) (voir Figure 5.16).

5.5.3 Les moments

Soit X tν , on a

E(X) = 0 et V (X) =ν

ν − 2pour ν > 2.

Remarque 5.5.1

– Lorsque l’espérance existe, elle est nulle, puisque la loi est symétrique autour de 0.– Lorsque ν = 1 ou ν = 2, la variance n’est pas déterminée.– Lorsque ν tend vers l’infini, la variance tend vers 1.

5.5.4 Les tables

Soit X tν . Il existe une table (voir annexe C1) qui fournit les valeurs tν,1−α pour ν et α donnés, tellesque

p(X < tν,1−α) = 1− α.

Page 77: probas-Master1-GSI.pdf

5.6. LOI DE FISCHER-SNEDECOR 75

Figure 5.17

Graphiquement, cette probabilité est donnée par la surface grisée de la Figure 5.17 :

Exemple 5.5.1

• ν = 10, α = 0, 1 et X t10 donc p(X < 1, 372) = 0, 9 et t10;0,9 = 1, 372.• ν = 20, α = 0, 05 et X t20 donc p(X < 1, 725) = 0, 95 et t20;0,95 = 1, 725.

Il existe une autre table (voir annexe C2) qui fournit pour ν et α donnés la valeur tν,α telle que

p(−tν,α < X < tν,α) = 1− α.

Graphiquement, cette probabilité est donnée par la surface grisée de la Figure 5.18 :

Figure 5.18

On remarque alors que p(X < −tν,α) = p(X > tν,α) =1− (1− α)

2=α

2.

Exemple 5.5.2 ν = 12, α = 0, 4 et t12;0,4 = 0, 873 donc p(−0, 873 < X < 0, 873) = 0, 6 et p(X <−0, 873) = p(X > 0, 873) = 0, 2.

5.6 Loi de Fischer-Snedecor

5.6.1 Définition

1. La loi de Fischer-Snedecor est une loi continue dépendant de deux paramètres notés ν1 et ν2, entiersnaturels non nuls. La variable X distribuée selon cette loi prend toutes ses valeurs dans R+? ou dansR+.

Si Y χ2ν1 et Z χ2

ν2 , Y et Z étant indépendantes, la variable X =

Y

ν1Z

ν2

suit une loi de Fischer-

Snedecor. On noteX F(ν1,ν2)

Page 78: probas-Master1-GSI.pdf

76 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

La loi F de Fischer-Snedecor à (ν1, ν2) degrés de liberté est la loi de probabilité du rapport de deuxvariables de khi-deux indépendantes divisées par leurs nombres de degrés de liberté (ν1 pour le numé-rateur, ν2 pour le dénominateur).Pour ν1 = 1, la loi F de Fischer-Snedecor à (1,ν2) degrés de liberté est la loi de probabilité du carréd’une variable de Student à ν2 degrés de liberté.

2. La densité de probabilité est, par définition :

f(ν1,ν2)(x) = νν12

1 νν22

2

Γ

(ν1 + ν2

2

)Γ(ν1

2

)Γ(ν2

2

) xν12−1

(ν1x+ ν2)ν1+ν2

2

pour x > 0, ν1 et ν2 ∈ N?.

Dans cette formule, Γ est la fonction Gamma d’Euler définie, lorsque la partie réelle de x est positive,par :

Γ(x) =

∫ +∞

0euux−1du.

La fonction f(ν1,ν2) est bien une densité de probabilité sur ]0; +∞[, car :– ses valeurs sont positives,– la fonction est intégrable et son intégrale est donnée par :∫ +∞

0f(ν1,ν2)(x)dx = ν

ν12

1 νν22

2

Γ(ν1+ν2

2

)Γ(ν12

)Γ(ν22

) ∫ +∞

0

xν12−1

(ν1x+ ν2)ν1+ν2

2

dx.

Pour calculer l’intégrale I =

∫ +∞

0

xν12−1

(ν1x+ ν2)ν1+ν2

2

dx, on pose t =ν1x

ν1x+ ν2⇒ dx =

n2n1

dt

1− t2. De

plus, ν1x + ν2 = ν2 ×1

1− tce qui implique que lorsque x = 0, t = 0 et lorsque x tend vers l’infini, t

tend vers 1. Par conséquent,

I =

∫ 1

0

(ν2ν1

t

1− t

) ν12−1(1− t

ν2

) ν1+ν22 ν2

ν1

dt

(1− t)2= ν

− ν12

1 ν− ν2

22

∫ 1

0tν12−1(1− t)

ν22−1dt.

Dans l’intégrale, on reconnaît la fonction Beta d’Euler définie, lorsque les parties réelles de x et de ysont positives, par :

B(x, y) =

∫ 1

0ux−1(1− u)y−1du =

Γ(x)Γ(y)

Γ(x+ y)

donc∫ 1

0tν12−1(1− t)

ν22−1dt = B

(ν12,ν22

)ce qui implique que∫ +∞

0f(ν1,ν2)(x)dx = ν

ν12

1 νν22

2

Γ(ν1+ν2

2

)Γ(ν12

)Γ(ν22

)ν− ν121 ν− ν2

22

Γ(ν12

)Γ(ν22

)Γ(ν1+ν2

2

) = 1.

L’intégrale de f(ν1,ν2) est bien égale à 1, ce qui montre que f(ν1,ν2) est bien une densité de probabilité.

3. Si X F (ν1, ν2) la variable1

X F (ν2, ν1) donc F (ν1, ν2, 1− α) =

1

F (ν2, ν1, α).

5.6.2 Les courbes

On a représenté ci-dessus (Figure 5.19) la loi F de Fischer-Snedecor pour diverses valeurs de ν1 et de ν2.

5.6.3 Les moments

Soit X F (ν1, ν2).

– Pour ν2 > 2, l’espérance est définie par

Page 79: probas-Master1-GSI.pdf

5.7. EXERCICES 77

Figure 5.19

E(X) =ν2

ν2 − 2

Remarque 5.6.1 Pour ν2 ≤ 2, l’espérance n’est pas déterminée.

– Pour ν2 > 4, la variance est définie par

V (X) =2ν22(ν1 + ν2 − 2)

ν1(ν2 − 2)2(ν2 − 4)

Remarque 5.6.2 Pour ν2 ≤ 4, la variance n’est pas déterminée.

5.6.4 Les tables

Soit X F (ν1, ν2). La table (voir annexe D) fournit, pour α = 0, 025, pour ν1 et ν2 donnés, les valeursFν1,ν2,1−α telles que p(X < Fν1,ν2,1−α) = 1 − α. Cette table sert à la comparaison des variances de deuxpopulations à partir de deux échantillons.

5.7 Exercices

Exercice 57 Une entreprise de transport a un parc total de 150 camions. On désigne par X la variablealéatoire qui à chaque camion choisi au hasard dans le parc, associe la distance qu’il a parcourue dans unejournée (les distances sont mesurées en kilomètres). Un étude statistique permet d’admettre que cette va-riable aléatoire X suit une loi normale de moyenne 120 et d’écart-type 14.Déterminer à 10−4 près la probabilité qu’un camion parcourt un jour donné une distance comprise entre 110et 130 kilomètres (utiliser éventuellement une interpolation affine). Exercice 58

1. Statistique - Avant d’accepter un contrat de livraison de véhicules, une société d’équipements automo-biles établit une statistique de production journalière sur 100 jours. Le nombre de véhicules équipésjournellement se répartit comme suit :

Production journalière Nombre de jours Production journalière Nombre de joursde véhicules équipés de véhicules équipés

95 1 102 1496 3 103 997 6 104 898 8 105 699 10 106 2100 13 107 2

101 18 Total 100

Page 80: probas-Master1-GSI.pdf

78 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

Déterminer la valeur moyenne de la production journalière et une valeur approchée à 10−2 près del’écart-type de cette production.

2. Probabilités - La production exigée par le contrat est de 100 véhicules équipés au moins par jour,pendant 100 jours de travail consécutif. À chaque journée on associe le nombre de véhicules équipésque l’on suppose indépendant du nombre obtenu chacun des autres jours. On définit ainsi une variablealéatoire X. On admet que la variable aléatoire discrète X peut être approchée par la loi normale deparamètres m = 101 et σ = 2.59. On note Y une variable aléatoire suivant la loi N (101; 2, 59).Calculer la probabilité de l’événement “le contrat est rempli”, c’est-à-dire p(Y ≥ 99, 5). Exercice 59 On jette 10 fois de suite une pièce de monnaie bien équilibrée en notant chaque fois le

résultat, ce qui constitue une partie.1. On note X la variable aléatoire qui à chaque partie associe le nombre de “face” obtenu.

(a) Justifier que la loi de probabilité suivie par la variable X est une loi binomiale (on précisera lesparamètres de cette loi).

(b) Calculer la probabilité de l’événement E :“le nombre de ’face’ est compris entre 3 et 6 (bornes incluses)”.

2. On décide d’approcher la loi de variable aléatoire discrète X par la loi normale de paramètres m et σ.(a) Expliquer pourquoi on prend m = 5 et σ =

√2, 5.

(b) On considère une variable aléatoire Y suivant une la loi N (5;√

2, 5). En utilisant cette approxi-mation, calculer la probabilité de l’événement :

“le nombre de ’face’ est compris entre 3 et 6 (bornes incluses)”c’est-à-dire p(2, 5 ≤ Y ≤ 6, 5). Exercice 60 Une entreprise fabrique des imprimantes de modèle PRINT et constate que le nombre de

commandes journalières définit une variable aléatoire Y dont la loi peut être approchée par la loi normalede paramètres m = 80 et σ = 60. On désigne par Z la variable aléatoire qui, à chaque mois de 25 joursouvrables, associe le nombre d’unités du modèle PRINT demandé. Il y a indépendance entre les commandesjournalières.

1. Montrer que la loi de Z peut être approchée par la loi normale N (2000, 300).L’entreprise a en stock, au début du mois, 2300 unités. Quelle est la probabilité qu’elle ne puissesatisfaire à la demande ?

2. On veut que la probabilité qu’elle ne puisse satisfaire à la demande soit inférieure à 0, 05. Quel doitêtre le nombre minimal d’unités que l’entreprise doit stocker en début de mois ? Exercice 61 La variable aléatoire X suit une loi normale N (20, 5). Calculer

1. p(X ≤ 28)2. p(X ≥ 28)3. p(X ≥ 12)4. p(X ≤ 12)5. p(12 ≤ X ≤ 28) Exercice 62 Pour mesurer l’impact d’un régime amaigrissant, un club a choisi au hasard un échantillon de

5 individus avant le régime, et un échantillon de 5 autres individus après. Les masses corporelles se présententainsi :

Avant 84 92 72 91 84

Après 81 88 74 81 90

Page 81: probas-Master1-GSI.pdf

5.7. EXERCICES 79

1. Déterminer un intervalle de confiance à 95% pour :

(a) la masse corporelle moyenne avant le régime,

(b) la masse corporelle moyenne après le régime,

(c) la perte moyenne de masse corporelle durant le régime.

2. Tout compte fait, on a décidé qu’il aurait peut-être été plus adapté de peser les mêmes individus avantet après le régime. On a obtenu :

Individu 1 2 3 4 5

Avant 84 92 72 91 84

Après 81 88 74 81 90

Sur la base de cet échantillon, déterminer un intervalle de confiance à 95% pour la perte moyenne demasse corporelle durant le régime. Conclusion ?

Exercice 63 Un laboratoire veut fabriquer des pilules se composant de deux substances A et B. Pourchaque pilule de la fabrication, on considère les masses a et b respectivement des 2 substances A et B quila constituent. On désigne par X et Y respectivement les variables aléatoires qui associent à chaque pilulela masse a et la masse b des substances de cette pilule. On suppose que ces variables sont indépendantes etsuivent des lois normales de moyennes respectives mX = 8, 55 mg et mY = 5, 20 mg et de même écart-typeσX = σY = 0, 05 mg.

1. Déterminer les probabilités p(8, 45 ≤ X ≤ 8, 70) et p(5, 07 ≤ Y ≤ 5, 33).2. Les normes imposées pour la fabrication sont les suivantes : 8, 45 ≤ a ≤ 8, 70 et 5, 07 ≤ b ≤ 5, 33

(a) Calculer le pourcentage de pilules qui seront hors normes à la sortie de la chaîne de fabrication.

(b) En déduire que le procédé de fabrication ne peut être retenu si on veut que le pourcentage depilules défectueuses ne dépasse pas 3%. On modifie alors la fabrication de la substance B. Lamoyenne de Y ne change pas mais son écart-type est modifié. Trouver la valeur minimum de cenouvel écart-type pour que le pourcentage de pièces défecteuses soit inférieur à 3%.

3. (a) Déterminer la moyenne et l’écart-type de la variable aléatoire S qui associe à chaque pilule samasse totale, les variables X et Y gardant leurs caractéristiques de la question 1.

(b) On admet que S est encore une variable aléatoire normale dont les paramètres sont ceux calculésprécédemment. Calculer p(13, 6 ≤ S ≤ 13, 8).

4. On assure le conditionnement des pilules par boîtes de 100 unités. Une boîte est constituée à partird’un tirage au hasard dans un stock assez grand pour qu’on puisse estimer que les tirages successifsse font avec remises. On désigne par Z la variable aléatoire qui, à chaque boîte associe le nombre depilules hors normes au sens de la question 2.(a). On pourra prendre pour probabilité p d’une pilulehors-norme p = 0, 01.

(a) Dans ces conditions, montrer que Z est une variable binomiale dont on précisera les paramètres.

(b) Dire pourquoi on peut approcher cette variable par une loi de Poisson. En utilisant cette loi,donner une valeur approximative de p(Z ≥ 5).

5. On désigne par U la variable aléatoire qui à chaque boîte associe le nombre de pilules dont la massetotale est supérieure à 13, 8. Là aussi, on peut supposer que U est une variable binomiale de paramètresn et p.

(a) Calculer p.

(b) Dire pourquoi on peut approcher U par une variable normale. À l’aide de cette approximation,donner une valeur approchée de p(U ∈ 70, 71, . . . , 85).

Page 82: probas-Master1-GSI.pdf

80 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

ANNEXE A - Fonction de répartition de la loi normale centrée réduite N (0, 1).

Cette table donne Π(x) = p(X ≤ x) pour X N (0, 1) :

x 0, 00 0, 01 0, 02 0, 03 0, 04 0, 05 0, 06 0, 07 0, 08 0, 09

0, 0 0, 5000 0, 5040 0, 5080 0, 5120 0, 5160 0, 5199 0, 5239 0, 5279 0, 5319 0, 53590, 1 0, 5398 0, 5438 0, 5478 0, 5517 0, 5557 0, 5596 0, 5636 0, 5675 0, 5714 0, 57530, 2 0, 5793 0, 5832 0, 5871 0, 5910 0, 5948 0, 5987 0, 6026 0, 6064 0, 6103 0, 61410, 3 0, 6179 0, 6217 0, 6255 0, 6293 0, 6331 0, 6368 0, 6406 0, 6443 0, 6480 0, 65170, 4 0, 6554 0, 6591 0, 6628 0, 6664 0, 6700 0, 6736 0, 6772 0, 6808 0, 6844 0, 6879

0, 5 0, 6915 0, 6950 0, 6985 0, 7019 0, 7054 0, 7088 0, 7123 0, 7157 0, 7190 0, 72240, 6 0, 7257 0, 7291 0, 7324 0, 7357 0, 7389 0, 7422 0, 7454 0, 7486 0, 7517 0, 75490, 7 0, 7580 0, 7611 0, 7642 0, 7673 0, 7704 0, 7734 0, 7764 0, 7794 0, 7823 0, 78520, 8 0, 7881 0, 7910 0, 7939 0, 7967 0, 7995 0, 8023 0, 8051 0, 8078 0, 8106 0, 81330, 9 0, 8159 0, 8186 0, 8212 0, 8238 0, 8264 0, 8289 0, 8315 0, 8340 0, 8365 0, 8389

1, 0 0, 8413 0, 8438 0, 8461 0, 8485 0, 8508 0, 8531 0, 8554 0, 8577 0, 8599 0, 86211, 1 0, 8643 0, 8665 0, 8686 0, 8708 0, 8729 0, 8749 0, 8770 0, 8790 0, 8810 0, 88301, 2 0, 8849 0, 8869 0, 8888 0, 8907 0, 8925 0, 8944 0, 8962 0, 8980 0, 8997 0, 90151, 3 0, 9032 0, 9049 0, 9066 0, 9082 0, 9099 0, 9115 0, 9131 0, 9147 0, 9162 0, 91771, 4 0, 9192 0, 9207 0, 9222 0, 9236 0, 9251 0, 9265 0, 9279 0, 9292 0, 9306 0, 9319

1, 5 0, 9332 0, 9345 0, 9357 0, 9370 0, 9382 0, 9394 0, 9406 0, 9418 0, 9429 0, 94411, 6 0, 9452 0, 9463 0, 9474 0, 9484 0, 9495 0, 9505 0, 9515 0, 9525 0, 9535 0, 95451, 7 0, 9554 0, 9564 0, 9573 0, 9582 0, 9591 0, 9599 0, 9608 0, 9616 0, 9625 0, 96331, 8 0, 9641 0, 9649 0, 9656 0, 9664 0, 9671 0, 9678 0, 9686 0, 9693 0, 9699 0, 97061, 9 0, 9713 0, 9719 0, 9726 0, 9732 0, 9738 0, 9744 0, 9750 0, 9756 0, 9761 0, 9767

2, 0 0, 9772 0, 9778 0, 9783 0, 9788 0, 9793 0, 9798 0, 9803 0, 9808 0, 9812 0, 98172, 1 0, 9821 0, 9826 0, 9830 0, 9834 0, 9838 0, 9842 0, 9846 0, 9850 0, 9854 0, 98572, 2 0, 9861 0, 9864 0, 9868 0, 9871 0, 9875 0, 9878 0, 9881 0, 9884 0, 9887 0, 98902, 3 0, 9893 0, 9896 0, 9898 0, 9901 0, 9904 0, 9906 0, 9909 0, 9911 0, 9913 0, 99162, 4 0, 9918 0, 9920 0, 9922 0, 9925 0, 9927 0, 9929 0, 9931 0, 9932 0, 9934 0, 9936

2, 5 0, 9938 0, 9940 0, 9941 0, 9943 0, 9945 0, 9946 0, 9948 0, 9949 0, 9951 0, 99522, 6 0, 9953 0, 9955 0, 9956 0, 9957 0, 9959 0, 9960 0, 9961 0, 9962 0, 9963 0, 99642, 7 0, 9965 0, 9966 0, 9967 0, 9968 0, 9969 0, 9970 0, 9971 0, 9972 0, 9973 0, 99742, 8 0, 9974 0, 9975 0, 9976 0, 9977 0, 9977 0, 9978 0, 9979 0, 9979 0, 9980 0, 99812, 9 0, 9981 0, 9982 0, 9982 0, 9983 0, 9984 0, 9984 0, 9985 0, 9985 0, 9986 0, 9986

3, 0 0, 9987 0, 9987 0, 9987 0, 9988 0, 9988 0, 9989 0, 9989 0, 9989 0, 9990 0, 99903, 1 0, 9990 0, 9991 0, 9991 0, 9991 0, 9992 0, 9992 0, 9992 0, 9992 0, 9993 0, 99933, 2 0, 9993 0, 9993 0, 9994 0, 9994 0, 9994 0, 9994 0, 9994 0, 9995 0, 9995 0, 99953, 3 0, 9995 0, 9995 0, 9995 0, 9996 0, 9996 0, 9996 0, 9996 0, 9996 0, 9996 0, 99973, 4 0, 9997 0, 9997 0, 9997 0, 9997 0, 9997 0, 9997 0, 9997 0, 9997 0, 9997 0, 9998

Page 83: probas-Master1-GSI.pdf

5.7. EXERCICES 81

ANNEXE B - Probabilités individuelles de la loi du χ2ν ,

Cette table donne les valeurs (quantiles) χ2ν,1−α telles que p(χ2

ν < χ2ν,1−α) = 1− α :

PPPPPPPPν1− α

0, 005 0, 010 0, 025 0, 050 0, 100 0, 900 0, 950 0, 975 0, 990 0, 995

1 0, 0000393 0, 000157 0, 000982 0, 00393 0, 0158 2, 71 3, 84 5, 02 6, 63 7, 882 0, 0100 0, 0201 0, 0506 0, 103 0, 211 4, 61 5, 99 7, 38 9, 21 10, 603 0, 072 0, 115 0, 216 0, 352 0, 584 6, 25 7, 81 9, 35 11, 34 12, 844 0, 207 0, 297 0, 484 0, 711 1, 064 7, 78 9, 49 11, 14 13, 28 14, 865 0, 412 0, 554 0, 831 1, 145 1, 61 9, 24 11, 07 12, 83 15, 09 16, 756 0, 676 0, 872 1, 24 1, 64 2, 20 10, 64 12, 59 14, 45 16, 81 18, 557 0, 989 1, 24 1, 69 2, 17 2, 83 12, 02 14, 07 16, 01 18, 48 20, 288 1, 34 1, 65 2, 18 2, 73 3, 49 13, 36 15, 51 17, 53 20, 09 21, 969 1, 73 2, 09 2, 70 3, 33 4, 17 14, 68 16, 92 19, 02 21, 67 23, 5910 2, 16 2, 56 3, 25 3, 94 4, 87 15, 99 18, 31 20, 48 23, 21 25, 1911 2, 60 3, 05 3, 82 4, 57 5, 58 17, 28 19, 68 21, 92 24, 73 26, 7612 3, 07 3, 57 4, 40 5, 23 6, 30 18, 55 21, 03 23, 34 26, 22 28, 3013 3, 57 4, 11 5, 01 5, 89 7, 04 19, 81 22, 36 24, 74 27, 69 29, 8214 4, 07 4, 66 5, 63 6, 57 7, 79 21, 06 23, 68 26, 12 29, 14 31, 3215 4, 60 5, 23 6, 26 7, 26 8, 55 22, 31 25, 00 27, 49 30, 58 32, 8016 5, 14 5, 81 6, 91 7, 96 9, 31 23, 54 26, 30 28, 85 32, 00 34, 2717 5, 70 6, 41 7, 56 8, 67 10, 09 24, 77 27, 59 30, 19 33, 41 35, 7218 6, 26 7, 01 8, 23 9, 39 10, 86 25, 99 28, 87 31, 53 34, 81 37, 1619 6, 84 7, 63 8, 91 10, 12 11, 65 27, 20 30, 14 32, 85 36, 19 38, 5820 7, 43 8, 26 9, 59 10, 85 12, 44 28, 41 31, 41 34, 17 37, 57 40, 0021 8, 03 8, 90 10, 28 11, 59 13, 24 29, 62 32, 67 35, 48 38, 93 41, 4022 8, 64 9, 54 10, 98 12, 34 14, 04 30, 81 33, 92 36, 78 40, 29 42, 8023 9, 26 10, 20 11, 69 13, 09 14, 85 32, 01 35, 17 38, 08 41, 64 44, 1824 9, 89 10, 86 12, 40 13, 85 15, 66 33, 20 36, 42 39, 36 42, 98 45, 5625 10, 52 11, 52 13, 12 14, 61 16, 47 34, 38 37, 65 40, 65 44, 31 46, 9326 11, 16 12, 20 13, 84 15, 38 17, 29 35, 56 38, 89 41, 92 45, 64 48, 2927 11, 81 12, 88 14, 57 16, 15 18, 11 36, 74 40, 11 43, 19 46, 96 49, 6428 12, 46 13, 56 15, 31 16, 93 18, 94 37, 92 41, 34 44, 46 48, 28 50, 9929 13, 12 14, 26 16, 05 17, 71 19, 77 39, 09 42, 56 45, 72 49, 59 52, 3430 13, 79 14, 95 16, 79 18, 49 20, 60 40, 26 43, 77 46, 98 50, 89 53, 6740 20, 71 22, 16 24, 43 26, 51 29, 05 51, 81 55, 76 59, 34 63, 69 66, 7750 27, 99 29, 71 32, 36 34, 76 37, 69 63, 17 67, 50 71, 42 76, 15 79, 4960 35, 53 37, 48 40, 48 43, 19 46, 46 74, 40 79, 08 83, 30 88, 38 91, 9570 43, 28 45, 44 48, 76 51, 74 55, 33 85, 53 90, 53 95, 02 100, 4 104, 280 51, 17 53, 54 57, 15 60, 39 64, 28 96, 58 101, 9 106, 6 112, 3 116, 390 59, 20 61, 75 65, 65 69, 13 73, 29 107, 6 113, 1 118, 1 124, 1 128, 3100 67, 33 70, 06 74, 22 77, 93 82, 36 118, 5 124, 3 129, 6 135, 8 140, 2

Page 84: probas-Master1-GSI.pdf

82 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

ANNEXE C1 - Probabilités individuelles et cumulées de la loi de Student-Fischer tν,α,

Cette table donne les valeurs (quantiles) tν,1−α telles que p(−tν < tν,1−α) = 1− α :

PPPPPPPPν1− α

0, 55 0, 60 0, 65 0, 70 0, 75 0, 80 0, 85 0, 90 0, 95 0, 975 0, 99 0, 995 0, 9995

1 0, 158 0, 325 0, 510 0, 727 1, 000 1, 376 1, 963 3, 078 6, 314 12, 706 31, 821 63, 657 635, 6192 0, 142 0, 289 0, 445 0, 617 0, 816 1, 061 1, 386 1, 886 2, 920 4, 303 6, 965 9, 925 31, 5983 0, 137 0, 277 0, 424 0, 584 0, 765 0, 978 1, 250 1, 638 2, 353 3, 182 4, 541 5, 841 12, 9244 0, 134 0, 271 0, 414 0, 569 0, 741 0, 941 1, 190 1, 533 2, 132 2, 776 3, 747 4, 604 8, 6105 0, 132 0, 267 0, 408 0, 559 0, 727 0, 920 1, 156 1, 476 2, 015 2, 571 3, 365 4, 032 6, 8696 0, 131 0, 265 0, 404 0, 553 0, 718 0, 906 1, 134 1, 440 1, 943 2, 447 3, 143 3, 707 5, 9597 0, 130 0, 263 0, 402 0, 549 0, 711 0, 896 1, 119 1, 415 1, 895 2, 365 2, 998 3, 499 5, 4088 0, 130 0, 262 0, 399 0, 546 0, 706 0, 889 1, 108 1, 397 1, 860 2, 306 2, 896 3, 355 5, 0419 0, 129 0, 261 0, 398 0, 543 0, 703 0, 883 1, 100 1, 383 1, 833 2, 262 2, 821 3, 250 4, 78110 0, 129 0, 260 0, 397 0, 542 0, 700 0, 879 1, 093 1, 372 1, 812 2, 228 2, 764 3, 169 4, 58711 0, 129 0, 260 0, 396 0, 540 0, 697 0, 876 1, 088 1, 363 1, 796 2, 201 2, 718 3, 106 4, 43712 0, 128 0, 259 0, 395 0, 539 0, 695 0, 873 1, 083 1, 356 1, 782 2, 179 2, 681 3, 055 4, 31813 0, 128 0, 259 0, 394 0, 538 0, 694 0, 870 1, 079 1, 350 1, 771 2, 160 2, 650 3, 012 4, 22114 0, 128 0, 258 0, 393 0, 537 0, 692 0, 868 1, 076 1, 345 1, 761 2, 145 2, 624 2, 977 4, 15015 0, 128 0, 258 0, 393 0, 536 0, 691 0, 866 1, 074 1, 341 1, 753 2, 131 2, 602 2, 947 4, 07316 0, 128 0, 258 0, 392 0, 535 0, 690 0, 865 1, 071 1, 337 1, 746 2, 120 2, 583 2, 921 4, 01517 0, 128 0, 257 0, 392 0, 534 0, 689 0, 863 1, 069 1, 333 1, 740 2, 110 2, 567 2, 898 3, 96518 0, 127 0, 257 0, 392 0, 534 0, 688 0, 862 1, 067 1, 330 1, 734 2, 101 2, 552 2, 878 3, 92219 0, 127 0, 257 0, 391 0, 533 0, 688 0, 861 1, 066 1, 328 1, 729 2, 093 2, 539 2, 861 3, 88320 0, 127 0, 257 0, 391 0, 533 0, 687 0, 860 1, 064 1, 325 1, 725 2, 086 2, 528 2, 845 3, 85021 0, 127 0, 257 0, 391 0, 532 0, 686 0, 859 1, 063 1, 323 1, 721 2, 080 2, 518 2, 831 3, 81922 0, 127 0, 256 0, 390 0, 532 0, 686 0, 858 1, 061 1, 321 1, 717 2, 074 2, 508 2, 819 3, 79223 0, 127 0, 256 0, 390 0, 532 0, 685 0, 858 1, 060 1, 319 1, 714 2, 069 2, 500 2, 807 3, 76724 0, 127 0, 256 0, 390 0, 531 0, 685 0, 857 1, 059 1, 318 1, 711 2, 064 2, 492 2, 797 3, 74525 0, 127 0, 256 0, 390 0, 531 0, 684 0, 856 1, 058 1, 316 1, 708 2, 060 2, 485 2, 787 3, 72526 0, 127 0, 256 0, 390 0, 531 0, 684 0, 856 1, 058 1, 315 1, 706 2, 056 2, 479 2, 779 3, 70727 0, 127 0, 256 0, 389 0, 531 0, 684 0, 855 1, 057 1, 314 1, 703 2, 052 2, 473 2, 771 3, 69028 0, 127 0, 256 0, 389 0, 530 0, 683 0, 855 1, 056 1, 313 1, 701 2, 048 2, 467 2, 763 3, 67429 0, 127 0, 256 0, 389 0, 530 0, 683 0, 854 1, 055 1, 311 1, 699 2, 045 2, 462 2, 756 3, 65930 0, 127 0, 256 0, 389 0, 530 0, 683 0, 854 1, 055 1, 310 1, 697 2, 042 2, 457 2, 750 3, 64840 0, 126 0, 255 0, 388 0, 529 0, 681 0, 851 1, 050 1, 303 1, 684 2, 021 2, 423 2, 704 3, 55180 0, 126 0, 254 0, 387 0, 527 0, 679 0, 848 1, 046 1, 296 1, 671 2, 000 2, 390 2, 660 3, 460120 0, 126 0, 254 0, 386 0, 526 0, 677 0, 845 1, 041 1, 289 1, 658 1, 980 2, 358 2, 617 3, 373∞ 0, 126 0, 253 0, 385 0, 524 0, 674 0, 842 1, 036 1, 282 1, 645 1, 960 2, 326 2, 576 3, 291

Page 85: probas-Master1-GSI.pdf

5.7. EXERCICES 83

ANNEXE C2 - Probabilités individuelles et cumulées de la loi de Student-Fischer tν,α.

Cette table donne les valeurs tν,α telles que p(tν,α < tν < +tν,α) = 1− α :

HHHHHν

α0, 90 0, 80 0, 70 0, 60 0, 50 0, 40 0, 30 0, 20 0, 10 0, 05 0, 02 0, 01 0, 001

1 0, 158 0, 325 0, 510 0, 727 1, 000 1, 376 1, 963 3, 078 6, 314 12, 706 31, 821 63, 657 636, 6192 0, 142 0, 289 0, 445 0, 617 0, 816 1, 061 1, 386 1, 886 2, 920 4, 303 6, 965 9, 925 31, 5983 0, 137 0, 277 0, 424 0, 584 0, 765 0, 978 1, 250 1, 638 2, 353 3, 182 4, 541 5, 841 12, 9294 0, 134 0, 271 0, 414 0, 569 0, 741 0, 941 1, 190 1, 533 2, 132 2, 776 3, 747 4, 604 8, 6105 0, 132 0, 267 0, 408 0, 559 0, 727 0, 920 1, 156 1, 476 2, 015 2, 571 3, 365 4, 032 6, 8696 0, 131 0, 265 0, 404 0, 553 0, 718 0, 906 1, 134 1, 440 1, 943 2, 447 3, 143 3, 707 5, 9597 0, 130 0, 263 0, 402 0, 549 0, 711 0, 896 1, 119 1, 415 1, 895 2, 365 2, 998 3, 499 5, 4088 0, 130 0, 262 0, 399 0, 546 0, 706 0, 889 1, 108 1, 387 1, 860 2, 306 2, 896 3, 355 5, 0419 0, 129 0, 261 0, 398 0, 543 0, 703 0, 883 1, 100 1, 383 1, 833 2, 262 2, 821 3, 250 4, 78110 0, 129 0, 260 0, 397 0, 542 0, 700 0, 879 1, 093 1, 372 1, 812 2, 228 2, 764 3, 169 4, 58711 0, 129 0, 260 0, 396 0, 540 0, 697 0, 876 1, 088 1, 363 1, 796 2, 201 2, 718 3, 106 4, 43712 0, 128 0, 259 0, 395 0, 539 0, 695 0, 873 1, 083 1, 356 1, 782 2, 179 2, 681 3, 055 4, 31813 0, 128 0, 259 0, 394 0, 538 0, 694 0, 870 1, 079 1, 350 1, 771 2, 160 2, 650 3, 012 4, 22114 0, 128 0, 258 0, 393 0, 537 0, 692 0, 868 1, 076 1, 345 1, 761 2, 145 2, 624 2, 977 4, 14015 0, 128 0, 258 0, 393 0, 536 0, 691 0, 866 1, 074 1, 341 1, 753 2, 131 2, 602 2, 947 4, 07316 0, 128 0, 258 0, 392 0, 535 0, 690 0, 865 1, 071 1, 337 1, 745 2, 120 2, 583 2, 921 4, 01517 0, 128 0, 257 0, 392 0, 534 0, 689 0, 863 1, 069 1, 333 1, 740 2, 110 2, 567 2, 898 3, 96518 0, l27 0, 257 0, 392 0, 534 0, 688 0, 862 1, 067 1, 330 1, 734 2, 101 2, 552 2, 878 3, 92219 0, l27 0, 257 0, 391 0, 533 0, 688 0, 861 1, 066 1, 328 1, 729 2, 093 2, 539 2, 861 3, 88320 0, l27 0, 257 0, 391 0, 533 0, 687 0, 860 1, 064 1, 325 1, 725 2, 086 2, 528 2, 845 3, 85021 0, l27 0, 257 0, 391 0, 532 0, 686 0, 859 1, 063 1, 323 1, 721 2, 080 2, 518 2, 831 3, 81922 0, l27 0, 256 0, 390 0, 532 0, 686 0, 858 1, 061 1, 321 1, 717 2, 074 2, 508 2, 819 3, 79223 0, l27 0, 256 0, 390 0, 532 0, 685 0, 858 1, 060 1, 319 1, 714 2, 069 2, 500 2, 807 3, 76724 0, l27 0, 256 0, 390 0, 531 0, 685 0, 857 1, 059 1, 318 1, 711 2, 064 2, 492 2, 797 3, 74525 0, l27 0, 256 0, 390 0, 531 0, 684 0, 856 1, 058 1, 316 1, 708 2, 060 2, 485 2, 787 3, 72526 0, l27 0, 256 0, 390 0, 531 0, 684 0, 856 1, 058 1, 315 1, 706 2, 056 2, 479 2, 779 3, 70727 0, l27 0, 256 0, 389 0, 531 0, 684 0, 855 1, 057 1, 314 1, 703 2, 052 2, 473 2, 771 3, 69028 0, l27 0, 256 0, 389 0, 530 0, 683 0, 855 1, 056 1, 313 1, 701 2, 048 2, 467 2, 763 3, 67429 0, l27 0, 256 0, 389 0, 530 0, 683 0, 854 1, 055 1, 311 1, 699 2, 045 2, 462 2, 756 3, 64930 0, l27 0, 256 0, 389 0, 530 0, 683 0, 854 1, 055 1, 310 1, 697 2, 042 2, 457 2, 750 3, 65640 0, l26 0, 255 0, 388 0, 529 0, 681 0, 851 1, 050 1, 303 1, 684 2, 021 2, 423 2, 704 3, 55180 0, l26 0, 254 0, 387 0, 527 0, 679 0, 848 1, 046 1, 296 1, 671 2, 000 2, 390 2, 660 3, 460120 0, l26 0, 254 0, 386 0, 526 0, 677 0, 845 1, 041 1, 289 1, 658 1, 980 2, 358 2, 617 3, 373∞ 0, l26 0, 253 0, 385 0, 524 0, 674 0, 842 1, 036 1, 282 1, 645 1, 940 2, 326 2, 576 3, 291

Page 86: probas-Master1-GSI.pdf

84 CHAPITRE 5. LOIS DE PROBABILITÉS CONTINUES USUELLES

ANNEXE D - la loi de Fischer-Snedecor,Cette table donne, pour α = 0, 025, pour ν1 et ν2 donnés, les valeurs Fν1,ν2,1−α telles que

p(X < Fν1,ν2,1−α) = 1− α,P

PP

PPP

ν2

ν1

12

34

56

78

910

12

15

20

24

30

40

60

120

164

7,8

799,

586

4,2

899,

692

1,8

937,

194

8,2

956,

796

3,3

968,

697

6,7

984,

999

3,1

997,

210

0110

0610

1010

1410

182

38,5

139

,00

39,1

739

,25

39,3

039

,33

39,3

639

,37

39,3

939

,40

39,4

139

,43

39,4

539

,46

39,4

639

,47

39,4

839

,49

39,5

03

17,4

416

,04

15,4

415

,10

14,8

814

,73

14,6

214

,54

14,4

714

,42

14,3

414

,25

14,1

714

,12

14,0

814

,04

13,9

913

,95

13,9

04

12,2

210

,65

9,98

9,60

9,36

9,20

9,07

8,98

8,90

8,84

8,75

8,66

8,56

8,51

8,46

8,41

8,36

8,31

8,26

510

,01

8,43

7,76

7,39

7,15

6,98

6,85

6,76

6,68

6,62

6,52

6,43

6,33

6,28

6,23

6,18

6,12

6,07

6,02

68,

817,

266,

606,

235,

995,

825,

705,

605,

525,

465,

375,

275,

175,

125,

075,

014,

964,

904,

857

8,07

6,54

5,89

5,52

5,29

5,12

4,99

4,90

4,82

4,76

4,67

4,57

4,47

4,42

4,36

4,31

4,25

4,20

4,14

87,

576,

065,

425,

054,

824,

654,

534,

434,

364,

304,

204,

104,

003,

953,

893,

843,

783,

733,

679

7,21

5,71

5,08

4,72

4,48

4,32

4,20

4,10

4,03

3,96

3,87

3,77

3,67

3,61

3,56

3,51

3,45

3,39

3,33

106,

945,

464,

834,

474,

244,

073,

953,

853,

783,

723,

623,

523,

423,

373,

313,

263,

203,

143,

0811

6,72

5,26

4,63

4,28

4,04

3,88

3,76

3,66

3,59

3,53

3,43

3,33

3,23

3,17

3,12

3,06

3,00

2,94

2,88

126,

555,

104,

474,

123,

893,

733,

613,

513,

443,

373,

283,

183,

073,

022,

962,

912,

852,

792,

7213

6,41

4,97

4,35

4,00

3,77

3,60

3,48

3,39

3,31

3,25

3,15

3,05

2,95

2,89

2,84

2,78

2,72

2,66

2,60

146,

304,

864,

243,

893,

663,

503,

383,

293,

213,

153,

052,

952,

842,

792,

732,

672,

612,

552,

4915

6,20

4,77

4,15

3,80

3,58

3,41

3,29

3,20

3,12

3,06

2,96

2,86

2,76

2,70

2,64

2,59

2,52

2,46

2,40

166,

124,

694,

083,

733,

503,

343,

223,

123,

052,

992,

892,

792,

682,

632,

572,

512,

452,

382,

3217

6,04

4,62

4,01

3,66

3,44

3,28

3,16

3,06

2,98

2,92

2,82

2,72

2,62

2,56

2,50

2,44

2,38

2,32

2,25

185,

984,

563,

953,

613,

383,

223,

103,

012,

932,

872,

772,

672,

562,

502,

442,

382,

322,

262,

1919

5,90

4,51

3,90

3,56

3,33

3,17

3,05

2,96

2,88

2,82

2,72

2,62

2,51

2,45

2,39

2,33

2,27

2,20

2,13

205,

874,

463,

863,

513,

293,

133,

012,

912,

842,

772,

682,

572,

462,

412,

352,

292,

222,

162,

0921

5,83

4,42

3,82

3,48

3,25

3,09

2,97

2,87

2,80

2,73

2,64

2,53

2,42

2,37

2,31

2,25

2,18

2,11

2,04

225,

794,

383,

783,

443,

223,

052,

932,

842,

762,

702,

602,

502,

392,

332,

272,

212,

142,

082,

0023

5,75

4,35

3,75

3,41

3,18

3,02

2,90

2,81

2,73

2,67

2,57

2,47

2,36

2,30

2,24

2,18

2,11

2,04

1,97

245,

724,

323,

723,

383,

152,

992,

872,

782,

702,

642,

542,

442,

332,

272,

212,

152,

082,

011,

9425

5,69

4,29

3,69

3,35

3,13

2,97

2,85

2,75

2,68

2,61

2,51

2,41

2,30

2,24

2,18

2,12

2,05

1,98

1,91

265,

664,

273,

673,

333,

102,

942,

822,

732,

652,

592,

492,

392,

282,

222,

162,

092,

031,

951,

8827

5,63

4,24

3,65

3,31

3,08

2,92

2,80

2,71

2,63

2,57

2,47

2,36

2,25

2,19

2,13

2,07

2,00

1,93

1,85

285,

614,

223,

633,

293,

062,

902,

782,

692,

612,

552,

452,

342,

232,

172,

112,

051,

981,

911,

8329

5,59

4,20

3,61

3,27

3,04

2,88

2,76

2,67

2,59

2,53

2,43

2,32

2,21

2,15

2,09

2,03

1,96

1,89

1,81

305,

574,

183,

593,

253,

032,

872,

752,

652,

572,

512,

412,

312,

202,

142,

072,

011,

941,

871,

7940

5,42

4,05

3,46

3,13

2,90

2,74

2,62

2,53

2,45

2,39

2,29

2,18

2,07

2,01

1,94

1,88

1,80

1,72

1,64

605,

293,

933,

343,

012,

792,

632,

512,

412,

332,

272,

172,

061,

941,

881,

821,

741,

671,

581,

4812

05,

153,

803,

232,

892,

672,

522,

392,

302,

222,

162,

051,

941,

821,

761,

691,

611,

531,

431,

31∞

5,02

3,69

3,12

2,79

2,57

2,41

2,29

2,19

2,11

2,05

1,94

1,83

1,71

1,64

1,57

1,48

1,39

1,27

1,00