les lois de probabilité

67
Les Lois de Probabilité Dr Chekib ZEDINI AHU Département de médecine familiale et communautaire Faculté de médecine de Sousse

Upload: others

Post on 23-Jul-2022

5 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Les Lois de Probabilité

Les Lois de Probabilité

Dr Chekib ZEDINI

AHU – Département de médecine familiale et communautaire

Faculté de médecine de Sousse

Page 2: Les Lois de Probabilité

Expérience aléatoire

Page 3: Les Lois de Probabilité

Notion de probabilité

Jetons en l’air une pièce de monnaie. Nous avons une chance sur 2 d’amener «pile» et une sur 2 également d’amener « face »

On dit que la probabilité d’amener « pile » est de 1/2 (0,5 ou 50%). De même celle d’amener « face »

Page 4: Les Lois de Probabilité

Notion de probabilité

Lançons un dé à six faces(parfaitement cubique)

Chacune des six faces a une chance égale d’apparaitre = 1/6 d’amener une quelconque des faces que nous aurons choisie.

Exemple: probabilité d’amener le 4 = 1/6= 0,166

Page 5: Les Lois de Probabilité

Notion de probabilité Soit un sac contenant une boule blanche et deux

boules noires (identiques à la couleur près)

On tire au hasard une boule du sac, chaque boule a une chance égale de sortir.

On a donc une chance sur 3 de tirer une boule blanche et 2 chances sur 3 de tirer une boule noire.

Probabilité de tirer une boule blanche: (P= 1/3= 0,333 ou 33,3%)

Probabilité de tirer une boule noire:(Q = 2/3= 0,666 ou 66,6%)

Page 6: Les Lois de Probabilité

Notion de probabilité La probabilité d’un événement se définit comme

le rapport entre le nombre de cas favorables à l’arrivée de cet événement (ici 1 pour la boule blanche et 2 pour la boule noire) et le nombre total de cas possibles (ici 3)

La somme des probabilité de toutes les éventualités est toujours égale à 1.

Pièce de monnaie: 1/2 +1/2 = 1

Dé: 1/6+1/6+1/6+1/6+1/6+1/6 = 1

Boules:1/3 + 2/3 = 1

Page 7: Les Lois de Probabilité

Probabilité et fréquence: Loi des grands Nombres

Une probabilité est un rapport et plus précisément une fraction de l’unité, elle est exprimée par un nombre qui est toujours compris entre 0 et 1.

Dire que la probabilité de tirer une blanche est de 1/3 ne signifie nullement que si l’on répète par exemple 3 fois l’épreuve, on tirera forcément 1 fois une blanche et 2 fois une noire.

Rien n’empêche en effet que sur les trois épreuves on tire 2 fois ou même 3 fois la boule blanche

Page 8: Les Lois de Probabilité

Si on répète l’épreuve 10 fois, on aura par exemple la blanche 2 fois sur 10.

Si on répète l’épreuve 100 fois, la blanche sortira par exemple 30 fois.

Si on répète l’épreuve 1000 fois, la blanche sortira par exemple 320 fois.

Les chiffres 2, 30 et 320 (nombre de fois où l’on observe l’événement constitué par le tirage), sont les fréquences absolues de cet événement.

Si l’on rapporte ces valeurs au nombre d’épreuves dans chaque cas, on obtient les rapports 2/10, 30/100 et 320/1000

Page 9: Les Lois de Probabilité

On constate que les rapports observés se rapprochent de plus en plus du rapport P= 0,33 (33,3%), qui exprime la probabilité du tirage de la boule blanche.

Lorsqu’on répète l’épreuve un nombre suffisant de fois, la fréquence relative de l’événement tend à se rapprocher de plus en plus d’une valeur théorique donnée par le calcul et qui représente précisément la probabilité de l’événement considéré.

Page 10: Les Lois de Probabilité

Epreuve du double tirage

Si on fait 2 tirages successifs, les possibilités sont:

BB= P*P = P²

BN= P*Q

NB= Q*P

NN= Q*Q=Q²

Les diverses associations de deux boules:

P²+ 2(P*Q) + Q²= (P+Q)²

Page 11: Les Lois de Probabilité

Tirage triple=

BBB, BBN, BNB,BNN, NBB, NBN, NNB, NNN

P3, P²*Q, P²*Q, P*Q², Q*P², Q²*P, Q²*P, Q3

P3 +3P²*Q+3P*Q²+ Q3 = (P+Q)3

Page 12: Les Lois de Probabilité

De façon générale:

Prenant comme variable aléatoire le nombre k de boules noirescontenues dans l’échantillon de n boules, k pouvant prendre toutes les valeurs discrètes, c.à.d entières, de 0 à n:

• On obtient une distribution où les probabilités des différentes valeurs de la variable aléatoire sont données par les termes successifs du développement du binôme (P+Q)n d’où le nom binomiale donné à cette distribution particulière des probabilités

• De manière générale le terme de rang k(k variant de 0 à n) est donné par l’expression:

P(X=k)= Cn × Qk × P(n-k)k

Page 13: Les Lois de Probabilité

P(X=k)= Cn × P(n-k) × Qk

Cn= n!/k! × (n-k)!

N!= n*(n-1)*(n-2)*(n-3)…..etc…*3*2*1

Pr = [n! × P(n-k) × Qk]/ k! × (n-k)!

Pr = probabilité qu’il y a de tirer, à partir d’une urne

binaire, un échantillon comportant k boules noires sur les n boules de l’échantillon

k

k

Page 14: Les Lois de Probabilité

A. Les Lois Discrètes

Page 15: Les Lois de Probabilité

I. La Loi Binomiale

Page 16: Les Lois de Probabilité

a) Distribution de probabilité d’une variable

dichotomique:

• Prenons l’exemple d’une variable X dont les deux

modalités sont « malade » et « non malade »

• La distribution de probabilité d’une variable

dichotomique est caractérisée par les probabilités

P1 et P2 de chacune de ses deux modalités (ici:

malade et non malade).

• Cette distribution s’appelle la loi de Bernoulli.

Page 17: Les Lois de Probabilité

• Comme on a Pi= 1, on obtient P2 = 1-P1

• Il suffit de donner l’une des deux valeurs P1 ou P2

• On utilise généralement la notation suivante: P pour la proportion de malades dans la population et Q = 1-P pour la proportion de non malades.

• Si les deux catégories de X sont codées par 1 pour les malades et 0 pour les non malades, la moyenne et la variance de X sont P et P*Q

Page 18: Les Lois de Probabilité

b) Loi Binomiale:• Considérons un échantillon tiré au sort dans la population

et considérons le nombre X de malades dans cet échantillon. Ce nombre varie d’un échantillon à l’autre et sa distribution de probabilité est appelée loi binomiale.

• Pour décrire, il faut calculer la probabilité d’observer k malades, notée P(X=k), parmi n sujets (pour k variant de 0 à n)

• Prenons d’abord n=1, c.à.d qu’on a tiré au sort un sujet dans la population. Il y a deux types d’échantillon possibles

Ceux ne comprenant aucun malade (X=0)

Ceux en comprenant un (X=1)

Les probabilités correspondantes sont P(X=0)= 1-P = Q et P(X=1)= P

Page 19: Les Lois de Probabilité

• Si on prend un échantillon de deux sujets (n=2). Il y a trois types d’échantillons possibles selon qu’il a 0, 1 ou 2 malades. Probabilité pour que l’échantillon comprenne 2 malades est: P²

Probabilité pour que l’échantillon ne comprenne aucun malade est:

(1-P) ²= Q²

Probabilité pour que l’échantillon comprenne un malade est: 2(P×Q)

• En résumé , si X est le nombre de malades dans un échantillon de 2 sujets, la distribution de probabilité de X est:

P(X=0)= (1-P) ²=Q²

P(X=1)= 2P×(1-P)=2(P×Q)

P(X=2)= P²

Page 20: Les Lois de Probabilité

• Si l’échantillon comprend k malades (n-k non malades), la probabilité correspondante est:

Pk(1-P)n-k mais il faut multiplier la probabilité Pk(1-P)n-k par le nombre d’échantillons composés de k malades et n-k non malades.

• Ce nombre est noté Cn (Cn= n!/k! × (n-k)!

n!= n(n-1)(n-2)…….1 (par convention 0!=1)

k k

Page 21: Les Lois de Probabilité

• Définition de la loi binomiale:

Soit X la variable dont la valeur est le nombre de malades k dans un échantillon de n sujets tirés au sort dans une population où le pourcentage de malades est P

X suit une loi binomiale dont la distribution est définie par:

P(X=k)= Cn Pk(1-P)n-k avec Cn= n!/k! × (n-k)!

La loi binomiale est caractérisée par deux paramètres:

Le nombre de sujets dans l’échantillon (n)

La probabilité de maladie dans l’ensemble de la population (P)

Elle est souvent notée B(n,P)

k k

Page 22: Les Lois de Probabilité

c) Moyenne et variance de la loi binomiale:

Si X suit une loi binomiale de paramètre n et P, on

montre que:

E(X)=nP et var(X)=nPQ

Page 23: Les Lois de Probabilité
Page 24: Les Lois de Probabilité
Page 25: Les Lois de Probabilité

II. La Loi de Poisson

Page 26: Les Lois de Probabilité

La Loi de Poisson

• La loi de Poisson s’applique souvent aux phénomènes accidentels où la probabilité p est très faible (p < 0,05). Elle peut également dans certaines conditions être définie comme limite d’une loi binomiale.

Page 27: Les Lois de Probabilité

La Loi de Poisson

• Soit une variable à deux modalités «malade » et « non malade » et nous nous intéressons au nombre X de malades dans un échantillon de taille n.

• Lorsque n est très grand, X peut prendre de nombreuses valeurs et l’utilisation de la loi binomiale devient laborieuse.

Utilisation de la loi de Poisson:

P(X=k)=e –λ * λ k/K!

Ou λ est une constante

Page 28: Les Lois de Probabilité

La Loi de Poisson

Exemple:

Le service des urgences d’ un petit hôpital reçoit en

moyenne 10 malades/j.

La probabilité que 12 malades se présentent le même

jour est :

P (X=12) = (e –10 * 10 12)/12!= 0.095

La taille de cet échantillon est énorme (le nombre

d’habitants de la zone d’attraction du service des

urgences) donc les calculs en utilisant la loi binomiale

sont impossibles.

Page 29: Les Lois de Probabilité

La Loi de Poisson

• Moyenne et variance de la loi de Poisson:

Si X suit une loi de Poisson de paramètre λ, on montre que:

E(X)= λ et Var (X)= λ

Page 30: Les Lois de Probabilité
Page 31: Les Lois de Probabilité

B. Les Lois Continues

Page 32: Les Lois de Probabilité

I. La Loi Normale « loi de Laplace-Gauss »

Page 33: Les Lois de Probabilité

1. Définition

C’est une des lois les plus importantes, sinon la plus importante.

La distribution normale, ou de Laplace-Gauss, appelée aussi gaussienne, est une distribution continue qui dépend de deux paramètres μ et σ.

On la note N(μ, σ2). Le paramètre μ peut être quelconque mais σ est positif.

Cette distribution est définie par :

Page 34: Les Lois de Probabilité

2. Propriétés

a) Allure de la courbe:

La loi normale,

notée N(μ, σ2),

est symétrique par

rapport à la droite

d’abscisse

Page 35: Les Lois de Probabilité

b) Caractéristiques:

2. Propriétés

Loi Normale N(μ, σ2)

Moyenne μ

Variance σ2

Ecart-type σ

Page 36: Les Lois de Probabilité
Page 37: Les Lois de Probabilité
Page 38: Les Lois de Probabilité

c) La distribution normale centrée réduite:

On dit que la distribution est centrée si sa moyenne μ est nulle ;

elle est dite réduite si sa variance σ2(et son écart-type σ) est égale à 1.

La distribution normale centrée réduite N(0, 1) est donc définie par la formule:

Page 39: Les Lois de Probabilité
Page 40: Les Lois de Probabilité

Loi Normale centrée et réduite

• Lorsque μ=0 et σ2 = 1, la loi est dite réduite.

• On peut passer de n’importe quelle variable normale X à une variable normale réduite Z en procédant au changement de variable linéaire

Z= (X- μ)/σ

• La loi normale réduite est tabulée; c’est une loi symétrique autour de 0 et, en particulier ІІ ne dépasse 1.960 que 5 fois sur 100, ou 2.576 que 1 fois sur 100, ..

Page 41: Les Lois de Probabilité

L’ importance de la loi normale est lié au fait que la moyenne d’ un échantillon extrait d’ une population quelconque a une distribution pratiquement normale lorsque la taille de

l’ échantillon est suffisamment grande.

• Pour la plus part des valeurs biologiques, ce résultat est acquis dés que n atteint 30

• Lorsque le caractère est qualitatif à deux modalités (en proportions P et Q), il faut que nP et nQ atteignent 10 (à la rigueur 5)pour que la distribution observé P0 soit à peu prés normale.

Page 42: Les Lois de Probabilité

Sous ces conditions de validité, les fluctuations d’échantillonnage d’une moyenne ou d’un pourcentage sont pratiquement régies par:

M=μ+ (σ /√n) et p0= p+ √(pq/n)

Où est une variable normale et réduite

Page 43: Les Lois de Probabilité
Page 44: Les Lois de Probabilité

II. La Loi du χ2 (Chi-2)

Page 45: Les Lois de Probabilité

1. Définition

C’est une loi dérivée de la loi normale, très

importante pour ses applications en statistiques

Soient X1, ..., Xn des variables aléatoires

indépendantes, chacune étant distribuée selon une

loi normale centrée réduite :

La distribution de S= X1+ X2+ …. + Xn (somme des carrés des Xi) est appelée loi de χ2 à n degrés de liberté (en abrégé d. d. l.), que l’on note χ2(n) où n est le nombre de d. d. l., seul paramètre de la loi.

2 2 2

Page 46: Les Lois de Probabilité

Loi du χ2 ( n)

Moyenne n

Variance 2n

Ecart-type 2n

Page 47: Les Lois de Probabilité

a) Allure de la distribution de χ2(n) pour différentes valeurs de n

1. Propriétés

Page 48: Les Lois de Probabilité

b) Utilisation de la loi de χ2:

La loi de chi-2 est principalement utilisée pour

les tests de comparaison portant sur des

pourcentages ou des distributions.

Ces tests portent d’ailleurs le nom de test du χ2.

Page 49: Les Lois de Probabilité

Table de chi-2

Page 50: Les Lois de Probabilité

III. Loi de Student

Page 51: Les Lois de Probabilité

1)Définition:

La loi de Student (ou loi de Student-Fisher) est

utilisée lors des tests de comparaison de

paramètres comme la moyenne et dans

l’estimation de paramètres de la population à

partir de données sur un échantillon (Test de

Student)

Page 52: Les Lois de Probabilité

Soit U une variable aléatoire suivant une loi

normale réduite N(0,1) et V une variable

aléatoire suivant une loi de Pearson à n degrés

de liberté .

Par définition:

Page 53: Les Lois de Probabilité

2) Allure de la courbe:

Page 54: Les Lois de Probabilité

3) Espérance et Variance:

L’ éspérance de la variable de Student:

La variance de la variable de Student est :

Page 55: Les Lois de Probabilité

Table de Student

Page 56: Les Lois de Probabilité

Théorème des probabilités composées

Page 57: Les Lois de Probabilité

Probabilité conditionnelle « Théorème de Bayes »

Page 58: Les Lois de Probabilité

Probabilité conditionnelle

Dans l’ensemble E des événements possibles,

nous allons isoler deux

événements A et B.

Le complément de A est A,

celui de B est B

Nous savons définir, par leur masse respective, la probabilité de chacun des 4 événements incompatibles (A et B), (A et B), (A et B) et(A et B) qui réalisent une partition de E

Page 59: Les Lois de Probabilité

Imaginons maintenant que nous nous intéressions aux événements qui peuvent se réaliser si B s’est produit.

Par exemple quelle probabilité pouvons nous attribuer à l’événement A sachant que B s’est produit?

Pour définir cette probabilité, il faut se limiter au sous-ensemble B et chercher quelle masse on doit attribuer au sous ensemble (A et B) au sein de B.

Probabilité conditionnelle

Page 60: Les Lois de Probabilité

La probabilité conditionnelle de A, sachant que l’événement B est réalisé, est notée Pr(A/ B) et est définie par la relation suivante :

Dans cette équation, les probabilités des événements et B doivent être calculées sur tout l’ensemble fondamental E, comme si on ne savait pas que B s’est déjà réalisé. Sinon, on obtient évidemment Pr(B) = 1.

Page 61: Les Lois de Probabilité

Exemple

On jette une paire de dés bien équilibrés et on

observe une réalisation de l’événement {somme

des dés = 6}.

Quelle est la probabilité pour qu’un des deux

dés ait donné le résultat 2 ?

B = {somme des deux dés = 6}

A = {au moins un des deux dés donne 2}

B = {(2, 4), (4, 2), (1, 5), (5, 1), (3, 3)}

Nombre de réalisations de = {(2, 4), (4, 2)} = 2

Page 62: Les Lois de Probabilité

Théorème de la multiplication

De l’équation si dessus « définition des probabilités conditionnelles », on tire la formule qui suit:

Page 63: Les Lois de Probabilité

Partant de l’équation 2

On obtient la formule de Bayes

Théorème de Bayes

Page 64: Les Lois de Probabilité

Mais A est la réunion des 2 événements incompatibles {A et B} d’une part, {A et } } de l’autre.

Comme Pr{A et B} = Pr{B} Pr{A / B} (avec une expression analogue pour ), on en tire :

Théorème de Bayes

Page 65: Les Lois de Probabilité

Exemple:

Sachant que dans la population générale 5 hommes sur 100 sont daltoniens, contre 25 femmes sur 10000.

Un daltonien est choisi au hasard dans la population; quelle est la probabilité que ce soit un homme? (on admettra qu’il y’a autant d’ hommes que de femmes dans la population)

Page 66: Les Lois de Probabilité

correction

Page 67: Les Lois de Probabilité

Merci pour votre attention