les mathématiques au service du transport de l’information

Post on 21-Jul-2015

282 Views

Category:

Science

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

LES MATHÉMATIQUES AU SERVICE DU

TRANSPORT DE L’INFORMATION

2

INTRODUCTION

QU’APPELLE T-ON INFORMATION ?

3

• Information = Ce qui donne une forme à l'esprit, du latin informare qui signifie « donner forme à » ou « se former une idée de ».

• Information = « Elément de connaissance susceptible d'être représenté à l'aide de conventions pour être conservé, traité ou communiqué » (B.O.E.N., 26 févr. 1981, no8).

• La connaissance n’a pas de forme, mais peut être écrite sur des supports divers : pierre, parchemin, papier, bande magnétique, disque optique (CD, DVD, Blu-ray…), disque dur, etc. pour être conservée et communiquée.

• Avec l’informatique, il est devenu important de distinguer l'information en tant que connaissance et les supports de l’information qui font intervenir un objet physique sur lequel on écrit , associés à un protocole d’écriture. Il est aussi devenu important de faciliter le transport de l’information pour communiquer plus facilement.

4

Information

(élément de connaissance)

Ecriture sur un

support physique

Conservation

Alphabet

+

protocole d’écriture

Traitement Communication

5

Information

« Texte »

Ecriture sur un cahier

ou un livre

Conservation

dans une bibliothèque

Alphabet = Alphabet latin, 26 lettres

Protocole = langue française

Traitement

Métadonnées : titre,

auteur, résumé, ISBN…

Communication

Prêt, transport du livre,

envoi par la poste

Exemple d’un livre

UN MONDE NUMÉRIQUE

6

Pierre ou papier ? Les supports comme la pierre ou le papier sont de plus en plus délaissés car peu adaptés à la copie et aux échanges. Aujourd’hui, on aime transporter l’information (texte, image, son, vidéo) instantanément, ce qui demande des appareils et des protocoles efficaces.

Un ordinateur fonctionne en binaire. Une porte ne peut être qu’ouverte ou fermée, une mémoire d’ordinateur ne peut être que chargée ou déchargée. Cela explique que la langage de l’ordinateur soit le binaire formé de symboles 0 ou 1 (fermé ou ouvert).

Un cerveau qui ne comprend que les 0 et les 1. Le processeur (CPU = Central Processing Unit) est le cerveau de l'ordinateur. Il ne manipule que des chiffres 0 ou 1 et peut exécuter des instructions stockées en mémoire.

L’INFORMATION PEUT PRENDRE

PLUSIEURS FORMES :

7

TEXTE

• txt

• doc

• odt

• pdf…

IMAGE

• bmp

• jpg

• png

• gif

• tiff…

SON

• wav

• mp3

• AC3

• ogg…

VIDEO

• avi

• mp4

• xvid

• wmv

• flv…

OÙ SONT LES MATHS ?

8

Les mathématiques participent de façon essentielle au traitement de l’information,

par exemple pour :

Converser avec l’ordinateur

Coder des sons et des images

Compresser des fichiers

Dessiner des polices de caractères

Transmettre des données (codes correcteurs d’erreurs)

Protéger les données (cryptographie)(liste non exhaustive)

NB : nous n’aborderons pas la CRYPTOGRAPHIE dans cet exposé,

celle-ci ayant fait déjà l’objet d’une conférence en mars 2014.

9

CONVERSER AVEC UN ORDINATEUR

BINAIRE & HEXADÉCIMAL

10

Le langage machine est le seul langage qu'un ordinateur puisse exécuter. Il s’agit d’un texte

utilisant uniquement deux symboles : 0 ou , appelés « bits » pour « binary digits ». En maths,

on parle de nombres écrits dans le système binaire, comme :

10110000 01100001

Ces nombres sont difficiles à manipuler par des humains. On utilise l’Assembleur, un langage

proche du langage machine qui utilise le système hexadécimal (base 16). Pour un processeur

x86, l’instruction ci-dessus est remplacée par :

movb $0x61,%al

10110000 = movb %al

01100001 = $0x61 = 61 en hexadécimal = 97 en décimal

Ce qui signifie :

« écrire le nombre 97 dans le registre AL ».

Des compilateurs-optimiseurs

transforment du langage de haut

niveau en code !

Des maths !

Numération en base a

SYSTÈME BINAIRE

11

011000012 = 6116 = 9710

01100001 = 26 + 25 + 1 = 64 + 32 + 1 = 97

Base 2(binaire)

Base 10(décimale)

12

Transformer une écriture décimale en écriture binaire

Nombre en

base 2

Divisions

successives

De l’arithmétique !

OPERATIONS EN BINAIRE

13

Encore de

l’arithmétique !

14

SYSTÈME HEXADÉCIMAL

On travaille en base 16.

Les chiffres sont : 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F

97 = 6 x 16 + 1 donc 97 = &61

N = 19071 = 4 × 16³ + 10 × 16² + 7 × 16 + 15 donc 19071 = &4A7F

N = 4 × (2⁴)³ + 10 × (2⁴)² + 7 × 2⁴ + 15

= 4 × 2¹² + 10 × 2⁸ + 7 × 2⁴ + 15

= 2² × 2¹² + (2³ + 2) × 2⁸+ (2² + 2 + 1) × 2⁴ + (2³ + 2² + 2 + 1)

= 2¹⁴ + (2¹¹ + 2⁹) + (2⁶ + 2⁵ + 2⁴) + (2³ + 2² + 2 + 1)

= 2¹⁴ + 2¹¹ + 2⁹ + 2⁶ + 2⁵ + 2⁴ + 2³ + 2² + 2 + 1

donc N = 100101001111111 = 19071 = &4A7F

Conversion hexadécimal

vers binaire facile !

& pour hexadécimal

Opérations sur

des puissances…

L’écriture hexadécimale utilise jusqu’à 4 fois moins de chiffres qu’en binaire,

ce qui facilite la tâche du programmeur et diminue la longueur des programmes.

CODE ASCII

15

American Standard Code for Information Interchange

Réf. http://www.cpptutor.com/ascii.htm Codé sur 7 bits : pas de place pour les lettres accentuées dans cette version…

16

CODER DES SONS

17

Le son est une onde mécanique qui se propage dans l’air.

Il est modélisé par une courbe donnant la pression de l’air en fonction du temps.

Echantillonnage = prélever la valeur du signal à intervalles réguliers (au moins 40KHz)

Quantification = associer une valeur numérique à la valeur du signal.

Réf. http://www.pps.univ-paris-diderot.fr/~ioana/c7-sol.pdf

18

L’oreille humaine entend les fréquences comprises entre 20 Hz et 20 KHz.

Bande passante audible : environ 20 KHz.

L’échantillonnage minimum sera donc de 2 x 20 = 40 KHz.

Théorème d'échantillonnage de Nyquist

Le taux minimum d'échantillonnage nécessaire pour reconstituer le signal doit être

au moins deux fois plus élevé que la bande passante du signal analogique original.

Réf. de l’exercice : http://www.pps.univ-paris-diderot.fr/~ioana/c7-sol.pdf

Exercice - En vous appuyant sur le théorème de Nyquist, évaluez la taille d'un

enregistrement audio stéréo d'une heure avec un codage sur 16 bits (plage de fréquences de

22000 Hz) et celle d'un DVD quadriphonique de même durée avec un codage sur 16 bits (plage

de fréquences de 24000 Hz).

Solution - Pour une heure de musique numérisée sur 16 bits en stéréo, le calcul donne :

Fréquence d'échantillonnage : 22000 × 2 = 44000.

Soit pour chacune des deux voies : 44000 × 16 pour une seconde.

Soit pour une voie et une heure : 44000 × 16 × 3600.

Soit pour deux voies : 44000 × 16 × 3600 × 2 = 5 068 800 000 bits.

Cela fait 5068800000 / 8 = 633600000 octets, soit environ 634 Mo.

Pour le DVD quadriphonique, on obtient 48000 × 16 × 4 × 3600 = 11 059 200 000 bits,

soit 1 382 400 000 octets, c'est-à-dire environ 1,3 Go.

19

CODER DES IMAGES

20

On numérise une image en échantillonnant dans les deux directions .

Les capteurs CCD des appareils photos ont une grille de capteurs espacés régulièrement.

Le code couleur de chaque pixel est retenu.

CODAGE DES COULEURS

21

Le codage couleur d'un pixel peut se faire en 3 octets, soit 24 bits. Ces octets définissent les teintes primaires :

R = 8 bits pour le rouge

V = 8 bits pour le vert

B = 8 bits pour le bleu

Un dernier octet peut être adjoint pour préciser d’autres informations, comme la transparence.

Exemple : la couleur est codée ainsi :

R = 251 soit 11111011,

V = 208 soit 11010000,

B = 151 soit 10010111.

Son codage binaire est : 111110111101000010010111 soit &FBD097 en hexadécimal.

1 octet = 8 bits

Exemple : 01101011Composantes RVB

28 = 256

256 x 256 x 256 = 16,7 millions de couleurs !

IMAGES BITMAP

22

• Définition = nombre de pixels dans l’image

• Résolution = nombre de pixels par unité de longueur

dpi = dot per inch = ppp = point par pouce

• Poids = nombre d’octets nécessaire pour décrire l’image

• Transparence

Pixel = picture element

1 inch = 2,54cm

On conserve seulement une description géométrique de l'images, par exemple une suite

d‘équations mathématiques qui définissent des courbes paramétrées, et des attributs (couleur,

transparence, nature et épaisseur du trait...).

IMAGES VECTORIELLES

Des matrices de pixels

pour jouer avec !

Des fonctions, des courbes

paramétrées, des tangentes et

des barycentres…

23Réf. http://www.pps.univ-paris-diderot.fr/~ioana/c7-sol.pdf Un « A » en bitmap suivant la résolution.

24

COMPRESSER DES FICHIERS

POURQUOI COMPRESSER ?

25Diagramme d’Eric Briantais sur http://fr.slideshare.net/briantais/standards-de-compression-audio-et-vido

COMPRESSION DE DONNÉES

26

• But : réduire le poids des fichier (son, audio, vidéo) sans trop perdre de qualité.

• Moyen : définir des couples CODEUR/DECODEUR (codec) et des normes.

• Dans la pratique, on exploite les :

• redondances spatiales (intra-images),

• redondances temporelles (inter-images),

• redondances subjectives liées à la perception d’un œil humain.

• Toutes les méthodes de compression utilisent des algorithmes mathématiques ,

J’en était sûr !

ALGORITHME RLE(RUN LENGHT ENCODING)

27

On remplace des chaînes de caractères identiques par un couple formé de la valeur du

caractère répété et du nombre de répétitions. Par exemple :

Exemple 1

Chaine à compresser : 000110010111111111001011000

Chaîne compressée : (0,3)(1,2)(0,2)(1,1)(0,1)(1,9)(0,2)(1,1)(0,1)(1,2)(0,3)

En binaire : 32211921123

ALGORITHME LZW (LEMPEL-ZIV-WELCH)

28

Exemple 2

Réf. [MAR]

(p, l, c)

p = distance entre le début du tampon de lecture et la position de répétition dans le tampon de recherche

l = longueur de la répétition

c = premier caractère du tampon de lecture différent du caractère correspondant dans le tampon de recherche

Tampon de recherche

Tampon de lecture

ALGORITHME LZW (LEMPEL-ZIV-WELCH)

29

Exemple 2 (suite)

(p, l, c)

p = distance entre le début du tampon de lecture et la position de répétition dans le tampon de recherche

l = longueur de la répétition

c = premier caractère du tampon de lecture différent du caractère correspondant dans le tampon de recherche

p = 5

l = 2c = d

Tampon de lecture

Tampon de recherche

ALGORITHME LZW (LEMPEL-ZIV-WELCH)

30

Exemple 2 (suite)

Réf. [MAR]

Evidemment, il faut ensuite

écrire un algorithme et

l’implémenter, mais ça c’est

une autre histoire…

COMPRESSION JPG (AVEC PERTES)

Transformation discrète en cosinus (DCT)

Exemple 3

C’est une transformation par blocs qui utilise des produits de matrices.

Il existe une certaine continuité entre les valeurs des pixels. Les changements brusques

entre pixels voisins sont rares dans une photographie. L’image dépend donc d’un petit

nombre de pixels et le codage d’un pixel pourra être déduit des pixels voisins.

Domaine mathématique utilisé : algèbre linéaire, analyse & transformée de Fourier.

Des maths de

terminale !

Coefficient (i,j) de la matrice DCT de taille N en fonction des pixels de la photo

Et encore des maths !

Formule relevée sur http://www-ljk.imag.fr/membres/Valerie.Perrier/SiteWeb/node9.html

32

Exemple d’une matrice de pixels et du résultat obtenue après multiplication par la matrice DCT :

Matrice DCT obtenue

Matrice DCT après quantification

Exemple 3 (suite)

Relevé sur [MAS]

Matrice de départ

COMPRESSION JPG (AVEC PERTES)

Transformation discrète en cosinus (DCT)

33

En fait c’est plus compliqué !

Exemple 3 (suite)

Relevé sur [SER]

COMPRESSION JPG (AVEC PERTES)

Transformation discrète en cosinus (DCT)

34

Exemple 3 (suite)

Réf. [SER]

COMPRESSION JPG (AVEC PERTES)

Transformation discrète en cosinus (DCT)

On multiplie la matrice de pixels par la matrice DCT permettant de réduire l'écart entre les coefficients.

La matrice obtenue prépare les données en retenant les variation d'un pixel à l'autre.

Les coefficients sont ensuite réduits par division de chaque terme par le terme de même indice

d'une matrice de quantification. La matrice quantifiée est enfin lue en zigzag pour subir une

compression sans perte RLE suivie d'un codage Huffman.

Le parcours en zigzag augmente la probabilité d'obtenir une suite de coefficients identiques.

35

DESSINER DES POLICES DE CARACTÈRES

36

Bitmap (bmp) = Dessin donné par une matrice de pixels.

Polices crées à des tailles fixées et impossibles à redimensionner (crénelage).

Fichiers volumineux.

PostScript (ps) = Langage de programmation développé par Adobe pour décrire des pages, et

construit sur une description vectorielle des courbes (courbes de Bézier).

Permet de définir des polices de caractères « format Type 1 ».

Utilisation privilégiée dans l'industrie graphique.

Utilise 2 fichiers : l’un pour afficher la police à l'écran au format Bitmap, l’autre

pour décrire mathématiquement le dessin pour l'impression.

True Type (ttf) = Développé par Apple/Microsoft pour contrer Adobe.

Un seul fichier pour visionner et imprimer.

Utilise des courbes B-Splines carrés, similaires aux courbes de Bézier mais avec des points de

contrôle sur la courbe et non à l'extérieur : moins de points de contrôle = plus d’économies.

TROIS FORMATS IMPORTANTS

37

Les courbes de Bézier sont largement utilisées

en infographie dans tous les logiciels de dessin :

DAO (dessin assisté par ordinateur),

CAO (conception assistée par ordinateur)

CFAO (conception fabrication assistée par ordinateur).

Elles sont incontournables dans l'industrie pour créer

des pièces d'usine.

Elles permettent de générer des polices de caractères.

Elles permettent de créer des images de synthèse 3D et

sont utilisées dans les logiciels de morphing.

COURBES DE BÉZIER

38

Un changement d’échelle s’opère

facilement grâce à la description

mathématique des courbes utilisant

des points et des tangentes…

Des maths ! Fonctions, dérivation,

arcs paramétrés, tangentes, la totale,,,

39

COURBES DE BÉZIER

Le binôme de Newton !

Des coefficients binomiaux et des polynômes

40

41

COURBES DE BÉZIER

M(t) est le barycentre des points Pi affectés des coefficients Bi,n(t).

B(P₀,P₁,...,Pn) est indépendante du choix de O et de tout repère du plan.

Elle ne dépend que des points de contrôle P₀, P₁, ..., Pn .

Les coordonnées x(t) et y(t) de M(t) sont des fonctions polynomiales de degrés n en t.

On obtient donc d'un chemin très « lisse » (de classe C∞) qui relie P₀ à Pn.

Des barycentres !

De l’analyse et de la géométrie !

Des vecteurs !

42

Des paraboles comme en seconde !

Liens entre dérivées et

tangentes à une courbe

Dérivation de fonctions vectorielles !

Ici t vaut 0, puis ¼, puis ½, puis 3/4

43

44

Les courbes de Bézier ont été inventées vers 1960 par Pierre Bézier (1910 - 1999), ingénieur français

à la régie Renault, pour concevoir des machines pour des lignes de fabrication d'automobiles

(modélisation de courbes en 2D et 3D). La solution devait être :

a) Ergonomique

L'interface doit être simple à prendre en main pour répondre rapidement aux besoins des dessinateurs.

Ici on place quelques points et la machine calcule une courbe polynomiale lisse qui approche en un

certain sens la ligne brisée formée par ces points . Bézier inventa aussi les poignées de contrôle.

b) Indépendante du choix du repère dans lequel on travaille

Utiliser des barycentres permet aux courbes de Bézier de ne dépendre que des points de contrôle.

c) Compatible avec les transformations affines

En DAO il est utile de pouvoir appliquer une transformation affine à une courbe en appliquant cette

transformation aux seuls points de contrôle. Les applications d'animation ou de morphing sont alors

plus faciles à réaliser.

Historique & intérêt

45

Gros avantage des courbes de Bézier :

Encore une propriété

géométrique !

46

Exemples de polices TTF : que de courbes mathématiques !

47

CODES CORRECTEURS D’ERREURS

PROBLEME DU TRANSFERT DE DONNÉES

48

• L’échange d’information sur n’importe quel canal de transmission n’est possible que si le

message reçu est identique au message envoyé.

• Les conditions physiques de la liaison peuvent abîmer plus ou moins le message. Toutes

les communications sont touchées : téléphoniques, internet, ADSL, optique …

• Les bits peuvent être modifiés ou effacés. Un orage violent à proximité d’une ligne

téléphonique transforme un message binaire en une succession de 0, donc détruit

l’information. Un signal venant de Mars peut ne jamais arriver sur la Terre.

• Dans des conditions normales, la probabilité de faire une erreur sur un symbole est

connue. Elle dépend des modalités de transmission (matériel, distance…).

49

L’expéditeur envoie le message « 1 ». Ce message peut subir des dommages pendant sa

transmission, et le message reçu sera « 0 » ou « 1 ».

Message envoyé

1

Message reçu

1

Message envoyé

1

Message reçu

0

Orage magnétique

OK

DEUX QUESTIONS FONDAMENTALES :

1) Comment savoir si le message reçu contient des erreurs ?

2) Comment retrouver le message envoyé à partir du message reçu ?

50

On répète le même symbole

Message envoyé

11111

Message reçu

10110

CODE À RÉPÉTITION

Message à envoyer

1

Message décodé

1

Canal de transmission

Dans cet exemple on corrige 2 erreurs et on en détecte une.

Efficacité ? Le message expédié est 5 fois plus long que l’information qu’il contient.

Le taux de transmission est 1/5.

51

Il est naturel d'allonger un message pour le protéger.

Cela revient à éloigner les mots les uns des autres.

Exemple : l'alphabet phonétique de l'OTAN reconnu par l'UIT (Union Internationale des

Télécommunications) et utilisé dans l'aviation civile :

BIT DE PARITÉ

52

Très utilisé en informatique. A un message de 7 bits, par exemple 0010110, on

adjoint un dernier bit obtenu en additionnant les 7 bits précédents. Ici :

0 + 0 + 1 + 0 + 1 + 1 + 0 = 1

Donc on transmet l’octet : 00101101

L'adjonction d'un bit de parité permet de détecter une erreur sans la corriger. Il suffit de

faire la somme des 8 bits reçus. Si l’on obtient 0, tout va bien. Si l’on obtient 1, il y a eu

une erreur et il faut redemander la transmission du message.

53

Un archer placé au centre O d’un cercle vise une cible A parmi des cibles disposées

à égales distances sur ce cercle. La flèche atteint le point X. Quelle cible visait-il ?

PROBLÈME DU TIREUR

PROBLÈME DU TIREUR

54

Si la flèche ne peut atteindre que des points régulièrement disposés sur le cercle, et si X=g,

alors l’archer visait A.

Distance entre les cibles = 6 Correction de 2 erreurs et détection de 5 erreurs

DISTANCE DE HAMMING

55

La distance de Hamming entre deux mots de même longueur est le nombre de lettres par

lesquelles ces deux mots différent. On démontre que d est une distance,

Exemple : a = 01100011001

b = 10100001001

donc : d(a,b) = 3

Si x = (x₁,...,xn) et y = (y₁,...,yn) alors :

d(x,y) = Card ( { i ∈ [[1,n]] / xi ≠ yi } ).

Des maths !

56

CODES PARFAITS

57

Un code C est parfait si l’ensemble formé par les boules centrées sur les mots de code et de

rayon la capacité de correction e du code, sont toutes disjointes entre elles deux à deux et

recouvrent parfaitement l’ensemble Qn des mots possibles à l’arrivée.

Mazette, encore

des maths !Ce code est parfait si et seulement

si cette inégalité est une égalité !

CODES PARFAITS

58

Un exemple de code parfait dont les boules B(c,e) sont de rayon 2 :

En vert les mots de code

Les lignes vertes montrent

la limite des boules

Des boules carrées ? En maths on verra

des boules encore plus étonnantes

que celles-là !

CODES PARFAITS

59

Un autre exemple :

IN THE REAL LIFE

60Tous les exemples des pages IN THE REAL LIFE sont traités en exercices dans [MER)

Les maths sont partout

présentes dans la vie réelle…

IN THE REAL LIFE

61

13 chiffres pour l’EAN 13

Des congruences !

IN THE REAL LIFE

62

Des congruences encore !

IN THE REAL LIFE

63

IN THE REAL LIFE

64ISBN 13

On adore les congruence !

IN THE REAL LIFE

65

Cela ne s’arrête jamais ?

IN THE REAL LIFE

66

De la géométrie et de l’algèbre !

CODES LINÉAIRES

67

CODES LINÉAIRES

68

CODES LINÉAIRES

69

Bon là on est en plein dedans !

CODES POLYNOMIAUX ET CODES CYCLIQUES

70

CODES POLYNOMIAUX ET CODES CYCLIQUES

71

CODES POLYNOMIAUX ET CODES CYCLIQUES

72

CODES POLYNOMIAUX ET CODES CYCLIQUES

73

LRO = LUNAR RECONNAISSANCE ORBITER

74

Sonde spatiale de type orbiteur lancée par la NASA en 2009 pour étudier la Lune depuis son orbite.

Masse totale : 1916 kg. Sept instruments scientifiques embarqués. Orbite basse de 50 km. [NAS]

LRO = LUNAR RECONNAISSANCE ORBITER

75

To clean up transmission errors introduced by Earth’s atmosphere (left), Goddard scientists applied Reed-Solomon error correction (right),

which is commonly used in CDs and DVDs. Typical errors include missing pixels (white) and false signals (black). The white stripe indicates

a brief period when transmission was paused.

CODES DES SONDES VOYAGER

76

Photographies de Jupiter et Saturne en 1977

Images = 800 x 800 pixels avec des couleurs sur 8 bits

Données GSE (General Science and Engineering)

Utilise des codes de Golay

Diagramme : [MAR], p. 116

77

Un même principe pour les CD, DVD et les liaisons spatiales…

CD & DVD

78

Surface d’un CD agrandie : le faisceau

laser décode les cavités (pits) comme

des 1, et décode 0 sinon.

Photo : http://commons.wikimedia.org/wiki/File:REM_CD_GEPRESST.jpg

Les normes adoptées par Philips pour les CD audio

(sortis en 1982) demandent la correction d'une

rayure de 0,2 mm,

Le code CIRC permet de corriger des paquets

d'erreurs ou d'effacements de 4096 bits consécutifs,

ce qui correspond approximativement à une rayure

d'un millimètre.

FIN

79

80

On trouvera la présentation de cet exposé à cette adresse :

http://megamaths.perso.neuf.fr/irem/iremaccueil.html

Autre façon d’arriver au même endroit :

Taper « MégaMaths » dans Google,

puis choisir « Exposés IREM »

81

BIBLIOGRAPHIE

82

[COH] G. Cohen, J.-L. Dornstetter , P. Godlewski, Codes correcteurs d'erreurs, une introduction

au codage algébrique, Coll. Technique & Scientifique des Télécom, Masson, 1992.

[MAR] B. Martin, Codage, cryptologie et applications, Ed. Presses polytechniques et

universitaires romandes, Coll. Technique et scientifique des té ́lé ́communications, 2004.

(https://books.google.gp/books?id=SNYrhjDGlPsC)

[MAS] R. Massaoudi , Formats d’images,

ppt en http://fr.slideshare.net/rumibozu/formats-dimages

[MER] D.-J. Mercier, Codes correcteurs d’erreurs, CSIPP, 2014.

[NAS] http://lunarscience.nasa.gov/articles/nasa-beams-mona-lisa-at-the-moon/

[PAP] O. Papini & J. Wolfmann, Algèbre discrète et codes correcteurs, Springer-Verlag,

Mathématiques & Applications n⁰20, 1995.

[SER] C. Servin, Réseaux & télécoms, 4e édition, Dunod, 2013.

(Chap. 1 en http://inova.snv.jussieu.fr/ALF/servin_chapitre1_complet.htm)

[VNA] Van Lint, Introduction to Coding Theory, Graduate Texts in Mathematics, vol.86,

Springer-Verlag, New York-Heidelberg-Berlin, Springer, 1982.

[WEI] G. Weidenfeld & alii, Techniques de base pour le multimédia, coll. Enseignement de

l'Informatique, Masson, 1997.

[ZAN] J.P. Zanotti, Codage d'un signal audionumérique sur un support à lecture optique,

Erreurs au décodage et codes MDS, Mémoire de DEA, Université d'Aix-Marseille II, Faculté

des Sciences de Luminy, 1992.

top related