uv théorie de l’information cours n° 1−2 - insa...

19
1 Cours n°1-2 UV_TI Alexandrina ROGOZAN UV Théorie de l’Information Cours n° 1-2 : - Introduction à la théorie de l’information - Caractérisation des sources d’information - Notions de probabilité (Rappel) - Entropie et Information : - Entropie des sources discrètes sans mémoire - composées - avec mémoire - q-ième extension d’une source -Entropie limite, efficacité et redondance 2 Cours n°1-2 UV_TI Alexandrina ROGOZAN Introduction Théorie de l’information <=> Processus de transmission numérique Sources de perturbations Source d’information Émetteur Canal Récepteur Destinataire Message émis Bruit et distorsions Signal émis Message reçu Signal reçu

Upload: others

Post on 09-Mar-2021

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

1Cours n°1−2

UV_TI

AlexandrinaROGOZAN

UV Théorie de l’ Information

Cours n° 1−2 :− Introduction à la théor ie de l’ information− Caractér isation des sources d’ information− Notions de probabilité (Rappel)− Entropie et Information :

− Entropie des sources discrètes sans mémoire− composées

− avec mémoire − q−ième extension d’une source

−Entropie limite, efficacité et redondance

2Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Introduction

� Théorie de l’ information <=> Processus de transmission numérique

Sources de perturbations

Source d’information

Émetteur

Canal Récepteur Destinataire

Message émis

Bruit et distorsions

Signal émis

Message reçu

Signal reçu

Page 2: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

3Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Introduction

� Théorie de l’ information ≡ Théorie stochastique, f ondée sur l es pr opr i ét és st at i s t i ques , de messages

⇒ Notions fondamentales de probabilité, entropie, information mutuelle

4Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Introduction

� Théorie de l’ information => Li mi t es de per f or mances d’un système de transmission numérique

⇒ Mode de représentation de l’ information => quant i t é d’ i nf or mat i on associée à chaque signe émis

⇒ Cadence théorique maximale de transmission de l’ information => capaci t é d’ un syst ème de t r ansmi ssi on

Page 3: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

5Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Introduction

� Théorie de l’ information => Résultats

⇒ Codage de source (ou compression des données)� Augmenter la compacité des signaux (sans ou avec di st or si on)�

Él i mi ner l a r edondance i nut i l e

⇒ Codage de canal� Accroître (aut ant que l ’ on veut ) la sécurité de la transmission en pr ésence de br ui t�

Aj out er de l a r edondance pour l a dét ect i on, voi r e l a cor r ect i on, de pr i nci pal es er r eur s

6Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Introduction

� Théorie de l’ information

⇒ � � ����� � ����� ������� ������������ ��� ����� � ��� ��� � �! ������"� �����$# �� � ���"�%���� � �!��� ����&������ &"� �"� � ' � �(")�*�+",�- .�*�+ . )�,�- (�+ � ����� ("/�0�/�1 2

� Objectif de recherche :

⇒ Optimiser conjointement le codeur de source et de canal

Page 4: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

7Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Introduction

� Théorie de l’ information => Extension

⇒ Cryptographie� Assurer le secret de la communication�Encr ypt age à cl é publ i que�Si gnat ur e di gi t al e�Génér at eur s d’ encr ypt age pseudo−al éat oi r es

8Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Sources d’ information

� Définition : Systèmes capables de sélectionner et d’émettre des séquences de signes (ou messages) appartenant à un ensemble (ou alphabet) donné

⇒ Ex. de si gnes : lettres, chiffres, échantillons

⇒Ex. de sour ces : système à 2 niveaux logiques, texte

Page 5: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

9Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Sources d’ information discrètes

� Caractéristique : al phabet ut i l i sé f i ni

� Exemples : Sources d’ information al phanumér i ques , de symbol es bi nai r es , d’ information numér i que(e.g. signaux quantifiés en amplitude, en fréquence ou en phase)

� Classification : ⇒ Sources sans mémoire : signes générés

i ndépendamment les uns des autres => modèle de Bernoulli

⇒ Sources avec mémoire : prise en compte de la dépendance entre un signe émis et les signes précédents => modèle de Markov

10Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Sources d’ information discrètes

� Classification :

⇒ Sources sans mémoire : quand les signes générés sont indépendants => modèle de Bernoulli

⇒ Sources avec mémoire : prise en compte de la dépendance entre un signe émis et les signes précédents => modèle de Markov

Page 6: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

11Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Sources d’ information discrètes

� Classification des sources de Markov :

⇒ Source du 1 er ordre = la mémoire se limite au dernier signe émis

– Ex : modélisation du processus de réalisation d’un phonème

⇒ Source d’ordre m = la mémoire tient compte des m signes émis

– Ex : description statistique des langues écrites usuelles

12Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Sources d’ information continues

� Caractéristique : nombr e t héor i que de si gnes cr oî t à l ’ i nf i ni

⇒ Remarque : Limite pratique fixée par la précision limitée des observations

� Exemples : Sources de signaux analogiques : Parole, Musique, Images, Mesures

Page 7: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

13Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Modélisation de sources d’ information

� Mécanisme st at i s t i que d’émission des signes

⇒ Source discrète : une loi de probabilité donnée associée à une variable aléatoire discrète

⇒ Source continue : une loi de densité de probabilité associée à une variable aléatoire continue

� Exemples :

⇒TEXTE = succession des réalisations de la variable aléatoire : "caractère sortant du clavier"

⇒ IMAGE_NB = succession de "niveaux de gris" mesurés sur une image

14Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Notions de probabilité (Rappel)� Source discrète ≈ var i abl e al éat oi r e di scr èt e

choisissant un si gne dans un al phabet de taille finie :

⇒ avec les probabilité qui satisfont la condition :

� Notations :⇒ − Événement aléatoire Ai ⇒ − Proba. de l’ événement aléatoire Ai� Propriétés : ⇒ qd. A est cer t ai n

⇒ qd. A est i mpossi bl e

S3 s1 ,s2 ,... ,sK P S4 si 4 pi5i 6 1

K

pi 7 1

S 7 si

P S7 si 7 P Ai

08 P A 8 1P A 9 1

P A 9 0

Page 8: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

15Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Notions de probabilité (Rappel)� Propriétés :

⇒ Événements s’excluant mutuellement : A et =>

⇒ Quand l’événement A entraîne B : A⊂B =>

⇒Somme des événements:Événements A et B incompatibles : : k événements 2 à 2 incompatibles :

; Cas particulier pour K événements s’excluant mutuellement :

<A

P A = 1 > P ?AP A @ P B

P A A B = P A A P B

P A1 B P A2 B ... B P A K C 1

P A1 B A2 B ... B Ak C P A1 B P A2 B ... B P Ak

16Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Notions de probabilité (Rappel)� Propriétés :

⇒Somme des événements :: Événements A et B compatibles :

⇒ Produit des événements A et B: Événements A et B indépendants : : Événements A et B dépendants :

P AD B 8 P A D P B

P AD B 9 P A D P B E P AB

P AB 9 P A P B

P AB 8 P A et P AB 8 P B

Page 9: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

17Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Notions de probabilité (Rappel)

� Probabilité conditionnelle de B sachant A F ⇒ Propriétés : � Événements A et B indépendants :

�� quand A⊂B

quand A et B incompatibles

� B⊂B1 =>

>

P B G AP B G A H P B

P B G A 9 P B

P AB 9 P A P B G A 9 P B P AG B08 P B G A 8 1

P B G A 9 1

P B G A 9 0

P BI A J P B1I A

18Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Notions de probabilité� Propriétés de la probabilité conditionnelle :

⇒ qd. B et C incompatibles

� Généralisation pour k événements Bk 2 à 2 incompatibles

⇒ Probabilité totale d’un événement B − l ’ expér i ence Aa exact ement K i ssues A

k 2 à 2 i ncompat i bl es

P BD C G A 9 P B G A D P C G A

P<B G A 9 1E P B G A

P B K P A1 P BI A1 L P A2 P BI A2 L ... L P AK P BI AK

Page 10: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

19Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Quantité d’ information propre

� Signal = Information + Redondance

� Objectif : Coder seulement l ’ information et éliminer la redondance

⇒ Besoin d’évaluation objective de la quantité d’ information propre

20Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Entropie et Information� Information => effet de surprise ; Entropie => degré

d’ incertitude

⇒ Source S pouvant émettre N signes si équiprobables

degré d’ incertitude ≈

(selon Hartley)

⇒ Source S pouvant émettre N signes si non−équiprobables

(selon Shannon)

H S M$N Oi P 1

N

P SM si log P SM si sh Q signe

f N 7 log N 7SR log P S7 si sh

Page 11: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

21Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Entropie des sources discrètes sans mémoire

⇒ Quantité d’ information associée en moyenne à chaque signe s

i d’une source S pouvant émettre N signes

statistiquement i ndépendant s les uns des autres

⇒ Quantité moyenne d’ information nécessaire pour spécifier quel signe a été émis par la source

: ∀ séquence de si gnes émise par une source discrète d’entropie H => séquence de bi t savec en moyenne H bits/signe (1er th. de Shannon)

H0 S 9$E Oi P 1

N

P S9 si log P S9 si sh T signe

22Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Entropie des sources discrètes sans mémoire� Unité de mesure de la quantité d’ information =>

dépend de la base du log utilisé ::hartley ou dit pour une base 10:nit pour une base e :shannon (sh) pour une base 2

U Remarque : Ne pas confondre le shannon avec le bit !!!:Un bit − variable binaire − transporte un shannon d’ information ss i ses 2 ét at s sont équi pr obabl es . : alors que

Nombresymbolesbinaires bits VXWEntropie sh Y�Z

Page 12: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

23Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Entropie des sources discrètes sans mémoire� Propriétés de l’entropie

⇒ Cont i nui t é car l’entropie H(S) est une fonction continue et convexe de p

i . Montrer ceci pour N=2.

⇒ Symét r i e par ex. pour une source binaire.

⇒ Pr opr i ét és ext r émal es :: quand pi=1/N : quand p

i=1 et les autres sont nulles

[ Monter que

quand

H S \ 0,1 \ H S \ 1,0

MAX H S ] log N

MIN H S ^ 0

H S _ 0

pi logpi ` 0 pi ] 0

24Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Entropie des sources composées

a Soit S une source pouvant être décomposée en une source X (à K signes) et une source Y (à J signes) qui émet t ent s i mul t anément

⇒ Ent r opi e de l a sour ce composée S (notée XY) :: quand X et Y sont indépendantes : quand X et Y sont liées

H XY M H X b H Y

H XY c H X b H Y

H XY d H X e H Y f X

Page 13: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

25Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Entropie conditionnelle moyenne de sources discrètes sans mémoire

� : entropie conditionnelle moyenne de la source Y liée à la source X

⇒ : entropie conditionnelle de la source Y quand la source X produit le signe x

i� Propriétés :⇒

⇒ , car

H Y G X 9 Oi P 1

N

p xi H Y G xi

H Y g xi

H Y G X

0 h H Y i X h H Y

H X j H Y k X ] H Y j H X k YH Y l X m H X l Y

H XY ] H YX

26Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Entropie et Information� Information sur une source => diminution du degré

d’ incertitude ; Quant i t é d’ i nf or mat i on = DDE ( Di mi nut i on D’ Ent r opi e)� Cas particulier : Source complètement prévisible;

Quantité d’ information acquise lorsque l’ état d’un système physique devient entièrement connu = Entropie du système

� Cas général : Soit X la source à ét udi er et soit Y une source pouvant êt r e obser vée afin fournir de renseignements sur X

⇒⇒ , i nf or mat i on mut uel l e moyenne contenue dans les sources X et Y

I X n H X o 0

I Y p X n H X o H X l YI Y p X n I X p Y n I X; Y

Page 14: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

27Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Entropie et Information

� Information mutuelle moyenne

⇒ Définition :

⇒Diagramme de Venn :

⇒ Propriétés :

− sources X et Y i ndépendant es : − sources X et Y équi val ent es :

I X;Y n H X q H Y o H XY

I X;Y n 0

I X;Y n I X n I Y n H X n H Y

H(XY)

H(Y)H(X)

I(X;Y)

28Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Entropie et Information

� Débit d’ information moyen (ou taux d’emission de la source)

⇒ Définition

où T représente la durée moyenne d’émission d’un signe

⇒ Remarque

• Débi t d’ i nf or mat i on moyen, exprimé en ≡ Cadence d’ émi ssi on, exprimée en seulement pour une source de symboles binaires équiprobables ou exprimée en qd. celle−ci coïncide à la vitesse de modulation de la voie.

rH X s H X

Tsh t s

shu sbitsu s

bauds

Page 15: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

29Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Entropie et Information

� Conclusion :

⇒ L’entropie dépend des probabilités pi des signes s

i émis

par la source S, mais ne dépend nullement de l a nat ur e de ces si gnes

:Entropie = mesure quantitative de l’ information contenue dans un message

:Entropie ≠ mesure qualitative de l’ information ou du contenu réel du message

30Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Sources discrètes avec mémoire

� Soit X une source de Markov homogène d’ordre m , dont l’alphabet comporte N signes :⇒ Comportement stationnaire,

⇒ Émission d’un signe en fonction des m signes précédents.:Sachant qu’une séquence seq donnée de m signes ∈ SEQ (ensemble comportant Nm séquences distinctes), alors

l’entropie de la source X, conditionnelle à une séquence seq donnée , vaut :

H XI seq Kwv xi y 1

N

P xi I seq log P xi I seq

Page 16: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

31Cours n°1−2

UV_TI

AlexandrinaROGOZAN

Sources discrètes avec mémoire� L’entropie d’une source de Markov homogène d’ordre m , dont l’alphabet comporte N signes, vaut :

⇒ Particularisation de la formule de l’entropie d’une expérience composée XY :

au calcul de l’entropie conjointe

Hm X 3 H Xz SEQ 3{xseq y 1

Nm

P seq H X z seq

H XY s H YX s H X | H Y } XH SEQ,X s H SEQ | H X } SEQ

Hm X ~ H SEQ,X � H SEQ sh� signe

32

UV_TI

Cours n°1−2 Alexandrina ROGOZAN

Entropie de la q−ième extension d’une source S

� : Source générant des groupes de q signes, c’est à dire des vecteurs :

� Entropie de la q−ième extension

Sq

x1 , x2 , ...,xq

Sq

H Sq 9 H X1 ,X2 , ...,Xq

H Sq 9 H X1 D H X2G X1 D ...D H Xq G X1 ...Xq � 1

H Sq 9 H X1 , X2 , ...,Xq � 1 D H Xq G X1 ,X2 , ...,Xq � 1...

Page 17: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

33

UV_TI

Cours n°1−2 Alexandrina ROGOZAN

Entropie de la q−ième extension d’une source S� Extension d’une sour ce sans mémoi r e

:Vecteur émis = Suite I . I . D. de signes

:Vecteur émis = Suite I . N. D. de signes

x1 , x2 , ...,xq

H Sq 3�xi y 1

q

H0 X i 3 qH0 X sh� séq.deqsignes

H Sq ~��i � 1

q

H0 Xi sh� séq.deq signes

x1 , x2 , ...,xq

34

UV_TI

Cours n°1−2 Alexandrina ROGOZAN

Entropie de la q−ième extension d’une source S

� Extension d’une sour ce avec mémoi r e − de

Markov d’ordre m sur un alphabet de N signes −

⇒ : Source de Markov d’ordre générant

séquences (ou mots) distincts de q signes

H Sq � qHm X sh� mot deq signes

� 7 m

qNqSq

Page 18: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

35

UV_TI

Cours n°1−2 Alexandrina ROGOZAN

Entropie limite d’un processus stochastique

� Source S émettant q signes liés :

� Var i at i on de l ’ ent r opi e de la séquence émise, avec sa longueur q ;

� Valeur de l ’Entropie Limite si la limite existe :

⇒1ère déf. :

⇒2ème déf. :

08 H Xq G X1 ...Xq � 1 8 H Xq � 1G X1 ...Xq � 2 8 ...8 H X1

x1 , x2 , ...,xq

H � C limq � � 1

qH X1 ,X2 , ...,Xq C lim

q � � 1

qH Sq sh � signe

H’ � C limq � � H Xq i X1...Xq � 1 sh � signe

36

UV_TI

Cours n°1−2 Alexandrina ROGOZAN

Entropie limite d’un processus stochastique� Exemples et Propriétés :

⇒Séquence I . I . D. de q signes ::Séquences de q lettres (∈ alphabet de N lettres équiprobables) − cas de la dactylographe − :

⇒Séquence I . N. D. de q signes : peut ne pas exister

⇒Processus stochastique st at i onnai r e : existe tjr.:Source de Markov homogène d’ordre m=q−1 :

H �!^ l imq � � H Xq � X1...Xq � 1 ^ l im

q � � H Xq � Xq � 1 ^ H X2 � X1

H � ^ H’ �H �

H � ^ log N

H � ^ H X1

Page 19: UV Théorie de l’Information Cours n° 1−2 - INSA Rouenasi.insa-rouen.fr/enseignement/siteUV/ti/private/Cours1... · 2012. 8. 27. · ⇒ Codage de canal Accroître (autant que

37

UV_TI

Cours n°1−2 Alexandrina ROGOZAN

Efficacité et redondance d’une source

�S9 H � S

HMAX S8 1

r S K 1 vX� S K H MAX S v H � S

H MAX SJ 1

�S � 1

� Efficacité informationnelle de la source S

⇒Si alors pl us de si gnes que l e mi ni mum nécessai r e utilisés pour émettre un message donné ( => il y a des signes redondants )

� Redondance relative de la source S

⇒Mesure de l’adéquation de son alphabet aux messages délivrés

38

UV_TI

Cours n°1−2 Alexandrina ROGOZAN

Pourquoi le codage de source ?

− pour améliorer l’efficacité informationnelle d’une source S, notée , en introduisant un codage préalable des signes.

− pour réduire la redondance des messages émis par cette source S, notée .

�s

r s