les lois de probabilité

Post on 23-Jul-2022

5 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

Les Lois de Probabilité

Dr Chekib ZEDINI

AHU – Département de médecine familiale et communautaire

Faculté de médecine de Sousse

Expérience aléatoire

Notion de probabilité

Jetons en l’air une pièce de monnaie. Nous avons une chance sur 2 d’amener «pile» et une sur 2 également d’amener « face »

On dit que la probabilité d’amener « pile » est de 1/2 (0,5 ou 50%). De même celle d’amener « face »

Notion de probabilité

Lançons un dé à six faces(parfaitement cubique)

Chacune des six faces a une chance égale d’apparaitre = 1/6 d’amener une quelconque des faces que nous aurons choisie.

Exemple: probabilité d’amener le 4 = 1/6= 0,166

Notion de probabilité Soit un sac contenant une boule blanche et deux

boules noires (identiques à la couleur près)

On tire au hasard une boule du sac, chaque boule a une chance égale de sortir.

On a donc une chance sur 3 de tirer une boule blanche et 2 chances sur 3 de tirer une boule noire.

Probabilité de tirer une boule blanche: (P= 1/3= 0,333 ou 33,3%)

Probabilité de tirer une boule noire:(Q = 2/3= 0,666 ou 66,6%)

Notion de probabilité La probabilité d’un événement se définit comme

le rapport entre le nombre de cas favorables à l’arrivée de cet événement (ici 1 pour la boule blanche et 2 pour la boule noire) et le nombre total de cas possibles (ici 3)

La somme des probabilité de toutes les éventualités est toujours égale à 1.

Pièce de monnaie: 1/2 +1/2 = 1

Dé: 1/6+1/6+1/6+1/6+1/6+1/6 = 1

Boules:1/3 + 2/3 = 1

Probabilité et fréquence: Loi des grands Nombres

Une probabilité est un rapport et plus précisément une fraction de l’unité, elle est exprimée par un nombre qui est toujours compris entre 0 et 1.

Dire que la probabilité de tirer une blanche est de 1/3 ne signifie nullement que si l’on répète par exemple 3 fois l’épreuve, on tirera forcément 1 fois une blanche et 2 fois une noire.

Rien n’empêche en effet que sur les trois épreuves on tire 2 fois ou même 3 fois la boule blanche

Si on répète l’épreuve 10 fois, on aura par exemple la blanche 2 fois sur 10.

Si on répète l’épreuve 100 fois, la blanche sortira par exemple 30 fois.

Si on répète l’épreuve 1000 fois, la blanche sortira par exemple 320 fois.

Les chiffres 2, 30 et 320 (nombre de fois où l’on observe l’événement constitué par le tirage), sont les fréquences absolues de cet événement.

Si l’on rapporte ces valeurs au nombre d’épreuves dans chaque cas, on obtient les rapports 2/10, 30/100 et 320/1000

On constate que les rapports observés se rapprochent de plus en plus du rapport P= 0,33 (33,3%), qui exprime la probabilité du tirage de la boule blanche.

Lorsqu’on répète l’épreuve un nombre suffisant de fois, la fréquence relative de l’événement tend à se rapprocher de plus en plus d’une valeur théorique donnée par le calcul et qui représente précisément la probabilité de l’événement considéré.

Epreuve du double tirage

Si on fait 2 tirages successifs, les possibilités sont:

BB= P*P = P²

BN= P*Q

NB= Q*P

NN= Q*Q=Q²

Les diverses associations de deux boules:

P²+ 2(P*Q) + Q²= (P+Q)²

Tirage triple=

BBB, BBN, BNB,BNN, NBB, NBN, NNB, NNN

P3, P²*Q, P²*Q, P*Q², Q*P², Q²*P, Q²*P, Q3

P3 +3P²*Q+3P*Q²+ Q3 = (P+Q)3

De façon générale:

Prenant comme variable aléatoire le nombre k de boules noirescontenues dans l’échantillon de n boules, k pouvant prendre toutes les valeurs discrètes, c.à.d entières, de 0 à n:

• On obtient une distribution où les probabilités des différentes valeurs de la variable aléatoire sont données par les termes successifs du développement du binôme (P+Q)n d’où le nom binomiale donné à cette distribution particulière des probabilités

• De manière générale le terme de rang k(k variant de 0 à n) est donné par l’expression:

P(X=k)= Cn × Qk × P(n-k)k

P(X=k)= Cn × P(n-k) × Qk

Cn= n!/k! × (n-k)!

N!= n*(n-1)*(n-2)*(n-3)…..etc…*3*2*1

Pr = [n! × P(n-k) × Qk]/ k! × (n-k)!

Pr = probabilité qu’il y a de tirer, à partir d’une urne

binaire, un échantillon comportant k boules noires sur les n boules de l’échantillon

k

k

A. Les Lois Discrètes

I. La Loi Binomiale

a) Distribution de probabilité d’une variable

dichotomique:

• Prenons l’exemple d’une variable X dont les deux

modalités sont « malade » et « non malade »

• La distribution de probabilité d’une variable

dichotomique est caractérisée par les probabilités

P1 et P2 de chacune de ses deux modalités (ici:

malade et non malade).

• Cette distribution s’appelle la loi de Bernoulli.

• Comme on a Pi= 1, on obtient P2 = 1-P1

• Il suffit de donner l’une des deux valeurs P1 ou P2

• On utilise généralement la notation suivante: P pour la proportion de malades dans la population et Q = 1-P pour la proportion de non malades.

• Si les deux catégories de X sont codées par 1 pour les malades et 0 pour les non malades, la moyenne et la variance de X sont P et P*Q

b) Loi Binomiale:• Considérons un échantillon tiré au sort dans la population

et considérons le nombre X de malades dans cet échantillon. Ce nombre varie d’un échantillon à l’autre et sa distribution de probabilité est appelée loi binomiale.

• Pour décrire, il faut calculer la probabilité d’observer k malades, notée P(X=k), parmi n sujets (pour k variant de 0 à n)

• Prenons d’abord n=1, c.à.d qu’on a tiré au sort un sujet dans la population. Il y a deux types d’échantillon possibles

Ceux ne comprenant aucun malade (X=0)

Ceux en comprenant un (X=1)

Les probabilités correspondantes sont P(X=0)= 1-P = Q et P(X=1)= P

• Si on prend un échantillon de deux sujets (n=2). Il y a trois types d’échantillons possibles selon qu’il a 0, 1 ou 2 malades. Probabilité pour que l’échantillon comprenne 2 malades est: P²

Probabilité pour que l’échantillon ne comprenne aucun malade est:

(1-P) ²= Q²

Probabilité pour que l’échantillon comprenne un malade est: 2(P×Q)

• En résumé , si X est le nombre de malades dans un échantillon de 2 sujets, la distribution de probabilité de X est:

P(X=0)= (1-P) ²=Q²

P(X=1)= 2P×(1-P)=2(P×Q)

P(X=2)= P²

• Si l’échantillon comprend k malades (n-k non malades), la probabilité correspondante est:

Pk(1-P)n-k mais il faut multiplier la probabilité Pk(1-P)n-k par le nombre d’échantillons composés de k malades et n-k non malades.

• Ce nombre est noté Cn (Cn= n!/k! × (n-k)!

n!= n(n-1)(n-2)…….1 (par convention 0!=1)

k k

• Définition de la loi binomiale:

Soit X la variable dont la valeur est le nombre de malades k dans un échantillon de n sujets tirés au sort dans une population où le pourcentage de malades est P

X suit une loi binomiale dont la distribution est définie par:

P(X=k)= Cn Pk(1-P)n-k avec Cn= n!/k! × (n-k)!

La loi binomiale est caractérisée par deux paramètres:

Le nombre de sujets dans l’échantillon (n)

La probabilité de maladie dans l’ensemble de la population (P)

Elle est souvent notée B(n,P)

k k

c) Moyenne et variance de la loi binomiale:

Si X suit une loi binomiale de paramètre n et P, on

montre que:

E(X)=nP et var(X)=nPQ

II. La Loi de Poisson

La Loi de Poisson

• La loi de Poisson s’applique souvent aux phénomènes accidentels où la probabilité p est très faible (p < 0,05). Elle peut également dans certaines conditions être définie comme limite d’une loi binomiale.

La Loi de Poisson

• Soit une variable à deux modalités «malade » et « non malade » et nous nous intéressons au nombre X de malades dans un échantillon de taille n.

• Lorsque n est très grand, X peut prendre de nombreuses valeurs et l’utilisation de la loi binomiale devient laborieuse.

Utilisation de la loi de Poisson:

P(X=k)=e –λ * λ k/K!

Ou λ est une constante

La Loi de Poisson

Exemple:

Le service des urgences d’ un petit hôpital reçoit en

moyenne 10 malades/j.

La probabilité que 12 malades se présentent le même

jour est :

P (X=12) = (e –10 * 10 12)/12!= 0.095

La taille de cet échantillon est énorme (le nombre

d’habitants de la zone d’attraction du service des

urgences) donc les calculs en utilisant la loi binomiale

sont impossibles.

La Loi de Poisson

• Moyenne et variance de la loi de Poisson:

Si X suit une loi de Poisson de paramètre λ, on montre que:

E(X)= λ et Var (X)= λ

B. Les Lois Continues

I. La Loi Normale « loi de Laplace-Gauss »

1. Définition

C’est une des lois les plus importantes, sinon la plus importante.

La distribution normale, ou de Laplace-Gauss, appelée aussi gaussienne, est une distribution continue qui dépend de deux paramètres μ et σ.

On la note N(μ, σ2). Le paramètre μ peut être quelconque mais σ est positif.

Cette distribution est définie par :

2. Propriétés

a) Allure de la courbe:

La loi normale,

notée N(μ, σ2),

est symétrique par

rapport à la droite

d’abscisse

b) Caractéristiques:

2. Propriétés

Loi Normale N(μ, σ2)

Moyenne μ

Variance σ2

Ecart-type σ

c) La distribution normale centrée réduite:

On dit que la distribution est centrée si sa moyenne μ est nulle ;

elle est dite réduite si sa variance σ2(et son écart-type σ) est égale à 1.

La distribution normale centrée réduite N(0, 1) est donc définie par la formule:

Loi Normale centrée et réduite

• Lorsque μ=0 et σ2 = 1, la loi est dite réduite.

• On peut passer de n’importe quelle variable normale X à une variable normale réduite Z en procédant au changement de variable linéaire

Z= (X- μ)/σ

• La loi normale réduite est tabulée; c’est une loi symétrique autour de 0 et, en particulier ІІ ne dépasse 1.960 que 5 fois sur 100, ou 2.576 que 1 fois sur 100, ..

L’ importance de la loi normale est lié au fait que la moyenne d’ un échantillon extrait d’ une population quelconque a une distribution pratiquement normale lorsque la taille de

l’ échantillon est suffisamment grande.

• Pour la plus part des valeurs biologiques, ce résultat est acquis dés que n atteint 30

• Lorsque le caractère est qualitatif à deux modalités (en proportions P et Q), il faut que nP et nQ atteignent 10 (à la rigueur 5)pour que la distribution observé P0 soit à peu prés normale.

Sous ces conditions de validité, les fluctuations d’échantillonnage d’une moyenne ou d’un pourcentage sont pratiquement régies par:

M=μ+ (σ /√n) et p0= p+ √(pq/n)

Où est une variable normale et réduite

II. La Loi du χ2 (Chi-2)

1. Définition

C’est une loi dérivée de la loi normale, très

importante pour ses applications en statistiques

Soient X1, ..., Xn des variables aléatoires

indépendantes, chacune étant distribuée selon une

loi normale centrée réduite :

La distribution de S= X1+ X2+ …. + Xn (somme des carrés des Xi) est appelée loi de χ2 à n degrés de liberté (en abrégé d. d. l.), que l’on note χ2(n) où n est le nombre de d. d. l., seul paramètre de la loi.

2 2 2

Loi du χ2 ( n)

Moyenne n

Variance 2n

Ecart-type 2n

a) Allure de la distribution de χ2(n) pour différentes valeurs de n

1. Propriétés

b) Utilisation de la loi de χ2:

La loi de chi-2 est principalement utilisée pour

les tests de comparaison portant sur des

pourcentages ou des distributions.

Ces tests portent d’ailleurs le nom de test du χ2.

Table de chi-2

III. Loi de Student

1)Définition:

La loi de Student (ou loi de Student-Fisher) est

utilisée lors des tests de comparaison de

paramètres comme la moyenne et dans

l’estimation de paramètres de la population à

partir de données sur un échantillon (Test de

Student)

Soit U une variable aléatoire suivant une loi

normale réduite N(0,1) et V une variable

aléatoire suivant une loi de Pearson à n degrés

de liberté .

Par définition:

2) Allure de la courbe:

3) Espérance et Variance:

L’ éspérance de la variable de Student:

La variance de la variable de Student est :

Table de Student

Théorème des probabilités composées

Probabilité conditionnelle « Théorème de Bayes »

Probabilité conditionnelle

Dans l’ensemble E des événements possibles,

nous allons isoler deux

événements A et B.

Le complément de A est A,

celui de B est B

Nous savons définir, par leur masse respective, la probabilité de chacun des 4 événements incompatibles (A et B), (A et B), (A et B) et(A et B) qui réalisent une partition de E

Imaginons maintenant que nous nous intéressions aux événements qui peuvent se réaliser si B s’est produit.

Par exemple quelle probabilité pouvons nous attribuer à l’événement A sachant que B s’est produit?

Pour définir cette probabilité, il faut se limiter au sous-ensemble B et chercher quelle masse on doit attribuer au sous ensemble (A et B) au sein de B.

Probabilité conditionnelle

La probabilité conditionnelle de A, sachant que l’événement B est réalisé, est notée Pr(A/ B) et est définie par la relation suivante :

Dans cette équation, les probabilités des événements et B doivent être calculées sur tout l’ensemble fondamental E, comme si on ne savait pas que B s’est déjà réalisé. Sinon, on obtient évidemment Pr(B) = 1.

Exemple

On jette une paire de dés bien équilibrés et on

observe une réalisation de l’événement {somme

des dés = 6}.

Quelle est la probabilité pour qu’un des deux

dés ait donné le résultat 2 ?

B = {somme des deux dés = 6}

A = {au moins un des deux dés donne 2}

B = {(2, 4), (4, 2), (1, 5), (5, 1), (3, 3)}

Nombre de réalisations de = {(2, 4), (4, 2)} = 2

Théorème de la multiplication

De l’équation si dessus « définition des probabilités conditionnelles », on tire la formule qui suit:

Partant de l’équation 2

On obtient la formule de Bayes

Théorème de Bayes

Mais A est la réunion des 2 événements incompatibles {A et B} d’une part, {A et } } de l’autre.

Comme Pr{A et B} = Pr{B} Pr{A / B} (avec une expression analogue pour ), on en tire :

Théorème de Bayes

Exemple:

Sachant que dans la population générale 5 hommes sur 100 sont daltoniens, contre 25 femmes sur 10000.

Un daltonien est choisi au hasard dans la population; quelle est la probabilité que ce soit un homme? (on admettra qu’il y’a autant d’ hommes que de femmes dans la population)

correction

Merci pour votre attention

top related