image numérique : le capteur ccd et son optiquelyceeduruy.fr/si/files/2010/09/image-2.pdf · des...

22
jean-philippe muller Version 05/2002 Image numérique : le capteur CCD et son optique

Upload: dangliem

Post on 12-Sep-2018

222 views

Category:

Documents


0 download

TRANSCRIPT

jean-philippe muller

Version 05/2002

Image numérique : le capteur CCD et son optique

Digital video

jean-philippe. muller

10-Le principe du capteur d’image

Le capteur d’image se présente sous la forme d’un circuit intégré ayant sur sa face supérieure une zone d’analyse composée de plusieurs centaines de milliers de sites photosensibles.

KODAK KAF-4202 Full Frame Image Sensor Pixels (HxV) 2048 x 2048 Imager Size (HxV mm) 18.4 x 18.4 Pixel Size (HxV µm) 9.0 x 9.0 Monochrome Dark current <10pA/cm2 (25°C)

Le nombre de photosites est lié bien-sûr à la résolution de l'image, de 350000 pour une résolution VGA de 640x480 à 3300000 pour 2048x1536 , voire plus. Le capteur d’image est, dans sa forme de base, construit sur un substrat de silicium dopé P et chaque photosite est délimité par une fine électrode métallique.

Le substrat dopé P contient des porteurs positifs (trous) majoritaires (a). Si on applique une polarisation positive sur l’électrode métallique, ces porteurs seront repoussés et il se crée une zone de déplétion dont la hauteur dépend de la tension appliquée (b et c).

Chaque fois qu’un photon arrive dans le substrat, il y crée une paire électron-trou (d). L’électron est attiré par l’électrode et se trouve piégé dans la zone de déplétion. A la fin du temps d’intégration (typiquement 20 ms), la charge totale recueillie dans la zone de déplétion (e) est proportionnelle à l’intensité lumineuse reçue. Chaque photosite se comporte donc comme un condensateur de faible valeur qui se charge au cours du temps sous l’effet de l’éclairement.

Figure 18. Capteur d’image Kodak.

Figure 19. Structure de base d’un photosite.

Figure 20. Fonctionnement d’un photosite.

Digital video

jean-philippe. muller

11-Le transfert des charges dans le capteur CCD

La charge accumulée à la fin du temps d’intégration doit maintenant être transférée dans un registre pour être lue et participer à l’élaboration du signal vidéo. Le déplacement de la charge de la cellule 2 à la cellule 3 s’effectue de la façon suivante :

on applique une polarisation plus importante à la cellule 3 celle ci aura une zone de déplétion plus profonde il en résulte un champ électrique local qui fait bouger les électrons de la zone 2 à la zone 3 la polarisation de la cellule 3 revient à sa valeur nominale

En appliquant des signaux comparables à des horloges décalées à des électrodes contiguës, on peut donc déplacer les charges à travers un grand nombre de cellules, avec une perte de charge très faible. Ce mécanisme de transfert de charge utilisé dans ces dispositifs CCD (charge coupled devices) est aussi exploité dans des registres à décalage analogiques et des dispositifs de mémorisation analogique de la voix (répondeurs téléphoniques).

Figure 21. Le mécanisme de transfert des charges.

Digital video

jean-philippe. muller

12-La lecture des charges dans le capteur CCD

Dans un capteur CCD, chaque photosite est associé à une cellule de stockage :

les cellules de stockage sont organisées en colonnes formant des registres verticaux, qui

alternent avec les colonnes de photocapteurs les cellules photosensibles sont séparées par des stoppeurs de canal (CSG : Channel Stopper

Gate) empêchant la diffusion des charges d' une cellule vers les voisine et par des drains d'évacuation (OFD . Overflow Drain) dans lesquels sont écoulées les charges

en excès produites par une forte illumination chaque cellule photosensible est isolée de sa cellule de stockage par une porte de lecture

(ROG : Read Out Gate) au travers de laquelle les charges vont circuler

Etape 1 : pendant la durée d’intégration ( durée de la trame pour un caméscope) l'énergie lumineuse fournie par l'optique est traduite en énergie électrique et les charges s'accumulent dans les cellules photosensibles proportionnellement à la lumière reçue. Etape 2 : durant un bref instant (dans un caméscope : intervalle de suppression trame séparant la fin de l'analyse d'une trame et le début de la suivante) une impulsion de forte amplitude est appliquée simultanément sur les électrodes de toutes les cellules de stockage. Etape 3 : la différence de potentiel établie entraîne alors un déplacement latéral simultané de toutes les charges des photocapteurs vers les registres de transfert, qui sont évidemment masqués de la lumière. Etape 4 : à l’issue de l' intervalle de suppression trame, les zones de déplétion des photocapteurs sont vidées, et donc prêtes à recevoir de nouvelles charges provenant de l’analyse de l’image suivante.

Figure 22. Détail de la structure d’un capteur CCD.

Digital video

jean-philippe. muller

13-Le capteur CCD à transfert interligne IT

Les capteurs CCD Sony utilisent tous le mode de lecture des photosites à transfert interligne qui fonctionne de la façon suivante :

pendant la durée d’intégration, le photosite se charge sous l’action de la lumière incidente à la fin de cette durée, le contenu de chaque photosite est transféré dans sa cellule de

stockage associée à l’issue de cette phase de transfert rapide, le photosite est disponible pour une nouvelle

analyse pendant cette nouvelle analyse et grâce au mécanisme de transfert de charges, le contenu des

cellules de stockage est progressivement décalé vers le bas dans le registre à décalage horizontal celui-ci est vidé à chaque nouveau décalage et fournit en sortie les informations correspondant

à chaque ligne

Dans un photoscope, le temps d’intégration peut varier dans une large gamme et l’image est lue en une fois ( CCD progressif). Dans un caméscope, l’intégration peut être faite soit pour la durée de l’image ( 40 ms ), soit pour la trame (20 ms ).

Le mode intégration image, à cause de son temps d’intégration plus long, donne une meilleure sensibilité et est donc bien adaptée au traitement des images fixes. Le mode intégration trame, à cause de son temps d’intégration plus court, est plus adapté au traitement des images animées et permet d’éviter le flou dans une certaine mesure. Si les mouvements à analyser sont rapides, il sera nécessaire de diminuer encore le temps d’intégration en faisant intervenir l’obturateur électronique.

Figure 23. Le capteur CCD à transfert interligne.

Figure 24. Les 2 modes d’intégration dans un caméscope.

Digital video

jean-philippe. muller

19-Le capteur CCD à couleurs primaires

Si, pour des raisons de coût, on ne souhaite utiliser qu’un seul capteur, il faudra surmonter chaque photosite d’un filtre pour l’affecter à une couleur donnée. L’introduction d’un filtre RVB de Bayer appelé aussi filtre en mosaïque conduira inévitablement à une perte de définition au niveau de chaque couleur :

le nombre de photosites sensibles au vert est deux fois plus élevé que ceux sensibles au bleu ou au rouge, ce qui correspond à la sensibilité de l’œil le dématriçage permet d’abord de séparer les informations correspondant aux 3 couches de

couleurs une étape suivante d’interpolation utilisant des algorithmes mathématiques plus ou moins

élaborés permet alors d’affecter une valeur RVB à chaque pixel

Les capteurs CCD Sony sont disponibles équipés de différents filtres, et en particulier celui à couleurs primaires RVB.

Ce type de filtre à couleurs primaires a été historiquement le premier filtre en mosaïque utilisé dans les capteurs CCD. Puis il a été une peu délaissé au profit des filtres à couleurs complémentaires, qui donnent au capteur une sensibilité légèrement supérieure. Avec les progrès introduits entre autres par Sony sur le plan de la sensibilité, on assiste actuellement à un retour en force des capteurs à couleurs primaires qui permettent une analyse des couleurs proche de la perfection.

Figure 36. Le filtre RVB de Bayer.

Figure 37. Exemple de capteur Sony muni d’un filtre RVB de Bayer.

Digital video

jean-philippe. muller

20-Le capteur CCD à couleurs secondaires

Au lieu des 3 couleurs RVB, certain filtres sont constitués d’une mosaïque de cellules Jaune, Cyan, Magenta et Vert :

Le filtre laisse passer et arrête

Jaune le rouge et le vert le bleu

Cyan le bleu et le vert le rouge

Magenta le rouge et le bleu le vert

Vert le vert le rouge et le bleu

La mosaïque des filtres colorés, qui privilégie toujours le vert, est disposée de la façon suivante :

Le signal vidéo d’une ligne, obtenu en additionnant les informations de 2 rangées de photosites, est donc constituée des informations suivantes : trame paire : Ypaire = (Ye+Mg) / (Cy+G) / (Ye+Mg) / (Cy+G) / (Ye+Mg) / (Cy+G) …

trame impaire : Yimpaire = (G+Ye) / (Mg+Cy) / (G+Ye) / (Mg+Cy) / (G+Ye) / (Mg+Cy) …

Le circuit de dématriçage permet, en utilisant des combinaisons de ces informations des interpolations et des retards, de reconstituer l’intensité des 3 couleurs R,V et B, puis le signal de luminance Y et les deux informations de couleur R-Y et B-Y. L’algorithme de restitution des couleurs est un peu plus complexe que celui utilisé avec une mosaïque à couleurs primaires.

Figure 38. Les filtres de couleurs complémentaires.

Figure 39. Exemple de capteur muni d’un filtre G-Mg-Ye-Cy.

Digital video

jean-philippe. muller

21-Le traitement du signal issu du capteur

Nous avons déjà vu que le signal analogique en sortie du capteur CCD est affecté d’un certain nombre de signaux parasites et que l’information concernant un photosite n’est présente que pendant un temps limité.

Le capteur est donc toujours associé :

à un circuit générateur d’horloge qui lui fournit les signaux de synchronisation dont il a besoin à un préamplificateur, qui ajuste le gain pour avoir un niveau de signal correct malgré les

variations du niveau d’éclairement à un échantillonneur-bloqueur qui prend les échantillons du signal sortant du capteur et du

niveau de référence qui peut fluctuer Ces échantillons peuvent alors être convertis en numérique ( sur 8, 10,12 ou 14 bits selon la précision recherchée), et le circuit de dématriçage peut reconstituer par interpolation les données de couleurs manquantes selon le type de filtre à couleurs primaires ou complémentaires utilisé par le capteur.

Le circuit de traitement numérique fournit à sa sortie les signaux de luminance Y et de couleur R-Y et B-Y sous forme numérique et éventuellement analogique.

Figure 40. Allure du signal en sortie du capteur CCD.

Figure 41. Les circuits de traitement associés au capteur CCD.

Digital video

jean-philippe. muller

22-Un mot sur les capteurs CMOS

Le coût de revient élevé des capteurs CCD provient de la fabrication spéciale nécessitée par les circuits de transfert de charge. Le capteur CMOS, fabriqué comme un circuit CMOS classique et donc à coût plus faible que le CCD, présente un certain nombre d’avantages :

comme pour le CCD, la cible comporte des photosites organisées en ligne et en colonnes la charge des photosites est validée par l'intermédiaire d'une ligne d'adressage la technologie CMOS permet l'intégration des opérateurs analogiques (amplificateurs) ou

numériques (adressage) sur la même puce de semi-conducteur il est facilement envisageable d'adresser, séparément ou par bloc, les cellules élémentaires la consommation reste très faible ( un CCD demande 2–5 watts, comparé aux 20–50 mW pour

les CMOS avec de même nombre de pixel )

Le gros inconvénient est le mélange entre les signaux de commande et grandeur mesurée source de bruit (parasites) dans l'image finale. C'est la raison pour laquelle :

on a intégré dans la cellule un élément actif qui permet de diminuer cet effet l'intégration d'un élément actif dans la cellule a pour inconvénient de réduire d'autant la

surface sensible offerte, les meilleurs capteurs actuels arrivant à un taux de 30%

Les capteurs CMOS sont surtout utilisés pour le moment dans les appareils à faible coût et ne rivalisent pas encore avec les capteurs CCD. Mais l'intégration sur une seule puce de la matrice de photo-détecteurs, de la commande, du CAN et quelques autres fonctions annexes ( comme dans la puce W6850 de la société VISION ayant une taille d'image de 1000 X 800 pixels) ouvre des horizons intéressants.

Figure 42. Structure de principe du capteur d’image CMOS.

Figure 43. Disposition des photosites dans le capteur CMOS.

Image numérique : les compressions JPEG, DV et MPEG2

jean-philippe muller

Version 05/2002

Digital video

jean-philippe. muller

Sommaire

1. Compression des données dans le photoscope 2. Les formats d’enregistrement de l’image 3. La réduction des données de couleur 4. Exemple de conversion RVB-YUV 5. Principe de la compression JPEG d’une image 6. La transformée en cosinus discrète 7. La quantification des blocs DCT 8. Exemple de compression JPEG faible 9. Exemple de compression JPEG forte 10. La sérialisation des coefficients quantifiés 11. Organisation du flux binaire 12. La compression des données dans le caméscope 13. La norme vidéo numérique 4:2:2 14. Le sous-échantillonnage de l’image numérique 15. Effets visuels du sous-échantillonnage de la couleur 16. La compression DV dans le caméscope DV 17. Exemple de circuit de compression DV 18. Le traitement du son dans le caméscope DV 19. Le principe de la compression MPEG1 20. L’estimation de mouvement en MPEG 21. Structure du codeur MPEG 22. La compression MPEG2 du standard microMV 23. Les bases de la compression audio MPEG2 24. Le dispositif de compression audio MPEG2

Digital video

1-Compression des données dans le photoscope

Le signal analogique produit par les 3 capteurs CCD est numérisé ( de 8 à 12 bits selon la précision recherchée) et, dans les dispositifs mono-CCD, le circuit de dématriçage reconstitue, par interpolation les données de couleurs manquantes. On dispose donc d’une image échantillonnée selon les 3 couleurs RVB, qui peut facilement être transformée par un circuit de matriçage au standard YUV appelé aussi Y-Cr-Cb.

Cette représentation est dite "à composantes séparées" :

elle est utilisée dans de nombreuses applications professiomagnétoscopes et les caméscopes analogiques Betacam elle est à l'origine de la majorité des formats numériques (même l’image couleur produite par le photoscope ou le caméscope

valeurs numériques, l’une concernant la luminance, et deux autr Le poids total de ces informations peut-être considérable puisqu’une im1200x960, codée sur 14 bits occupe 1200x960x3x14 = 48,38 Mbits Ces poids importants expliquent la nécessité d’une compression qui qualité visuelle minime, d’obtenir une image numérisée ayant un encombdon c plus facile à stocker sur un support.

Le développement d’algorithmes de compression très évolués comme le en Cosinus Discrète permet de transformer les informations relativecomprimé beaucoup plus léger.

Figure 2. La place de la compression dans le photoscope numérique.

Figure 1. L’image au standard YUV.

Y = 0.299 R + 0.587 G + 0.115 B Cb = -0.169 R - 0.331 G + 0.500 B Cr = 0.500 R - 0.418 G - 0.082 B

jean-philippe. muller

nnelles, notamment avec les

grand public comme le DV). est décrite par 3 matrices de

es pour la couleur

age photographique de taille

permettra, avec une perte de rement beaucoup plus faible et

JPEG basé sur la Transformée s à une image en un fichier

Digital video

jean-philippe. muller

2-Les formats d’enregistrement de l’image

Les images numériques peuvent être enregistrées sous plusieurs formes de fichiers informatiques. Voici les caractéristiques des formats les plus courants. ⇒⇒⇒⇒ le format RAW

cette dénomination désigne le format de fichier brut utilisé par les appareils photographiques numériques et contient les informations directement issues du capteur CCD chaque fabricant d’appareil utilise un format RAW spécifique, et propose un logiciel de lecture

adapté pour lire ses images (interpolation des couleurs manquantes, etc …) les fichiers RAW permettent d'exploiter la totalité des informations issues du capteur CCD : le

codage des données s’effectue généralement sur 12 bits ou plus au lieu de 8 pour les autres types de fichiers

⇒⇒⇒⇒ le format TIFF (Tag Image File Format)

c’est le format des images produites en mode haute qualité par les appareils photo

numériques, qui garde toutes les informations de l’image originale il gère les fichiers en mode RVB ou CMJN (cyan, magenta, jaune, noir), il est très utilisé par les

professionnels de l'image mais donne des fichiers images très volumineux une compression sans perte de données par algorithme LZW est possible, mais le poids de

l'image n'est réduit que de 50% environ. ⇒⇒⇒⇒ le format JPEG (Joint Photographic Expert Group) Ce format à été mis au point spécialement pour les images et les photographies, dans le but de réduire la taille des fichiers produits :

il utilise une méthode de compression des données dite “destructive”, qui consiste à ne retenir que les informations clés de l’image suivant des algorithmes puissants et à supprimer les autres informations un rapport de compression de 1 / 4 permet d’obtenir des fichiers peu volumineux sans perte de

qualité visible un rapport de compression élevé fournira des fichiers peu volumineux mais avec une perte de

qualité importante la norme JPEG permet un taux de compression ajustable, mais ce taux est en général fixé par

le fabriquant dans un photoscope des modifications et enregistrements successifs d’un fichier JPEG dégradent la qualité de

l’image finale, par la répétition des traitements de compression

Faible compression (1 %) Taille : 318 Ko

Compression moyenne (50 %) Taille : 73 Ko

Forte compression (99 %) Taille : 16 Ko

LZW : Algorithme de compression mis en place par Lempel, Ziv et Welch, Il s’agit d’un codage entropique. Au cours du traitement d’un fichier, il indexe les chaînes de motifs qu’il rencontre, puis si cette chaîne se retrouve plus loin dans le fichier, il rappelle la valeur de l’index

Figure 3. Exemple de compression JPEG à différents niveaux de qualité.

Digital video

jean-philippe. muller

3-La réduction des données de couleur

L’œil humain n'est pas un organe parfait et certaines de ses caractéristiques ont été mises à profit pour réduire la quantité de données nécessaires pour décrire une image, et ce déjà en télévision analogique :

l’œil est plus sensible aux détails en noir et blanc qu'aux détails colorés la réduction de la bande passante des composantes couleur est bien tolérée par l’œil jusqu'à

une valeur égale à 25 % de celle de la luminance c’est pourquoi la bande passante en télédiffusion analogique a été fixée à 6 MHz pour la

luminance et à 1,5 MHz pour chacune des composantes couleur. Cette réduction de la chrominance reste toujours valable aujourd'hui, même pour les nouveaux formats vidéo numériques grand public. Pour une image numérique couleur, la réduction des informations « couleur » se traduit par un sous-échantillonnage des signaux Cr et Cb :

l’image est découpée en blocs carrés de 2x2 pixels ( quelquefois 4x4) à chaque bloc on affecte 4 échantillons de luminance Y, un échantillon de chrominance rouge

Cr et un échantillon de chrominance bleue Cb ces échantillons Cr et Cb sont des moyennes de ces 2 grandeurs sur les 4 pixels

Une image numérique en couleur de taille 1200x960 par exemple, est décrite en RVB par 3 matrices de 1200x960, soit T = 3456000 valeurs. Après sous-échantillonnage de la couleur, elle est donc décrite par 3 matrices de tailles différentes :

une matrice Y de 1200x960 deux matrices Cr et Cb de 600x480

soit une taille totale de T = 1200x960 + 2x600x480 = 1728000 échantillons

Ce sous-échantillonnage de la couleur introduit une diminution de qualité imperceptible à l’œil et apporte un taux de compression d’un facteur 2.

Figure 4. Réduction des échantillons de couleur.

Figure 5. Codage YUV d’une image couleur.

Digital video

jean-philippe. muller

4-Exemple de conversion RVB-YUV

Image originale en RVB 800x600 24 bits/pixel Taille totale : 34,5 Mbits

Image de luminance 800x600 9 bits/pixel Taille : 4,32 Mbits

Images Cr et Cb 400X300 9 bits/pixel Taille : 1,08 Mbits chacune

Image finale en YCrCb Taille : 800x600 Digitalisée sur 9 bits/pixel Taille totale : 6,48 Mbits

Digital video

jean-philippe. muller

5-Principe de la compression JPEG d’une image

Nous avons vu qu’une image couleur peut être représentée par 3 images à niveaux de gris dans la représentation YCrCb. Chacune de ces 3 matrices est décomposée en blocs de 8x8 pixels qui vont tous subir le même traitement mathématique.

Le principe de l’algorithme JPEG pour une image à niveaux est le suivant :

une transformation linéaire, appelée transformée en cosinus discrète ou DCT (Discret Cosine

Transform) est réalisée sur chaque bloc, ce qui donne chaque fois une nouvelle matrice 8x8 la DCT concentre l’information sur l’image en haut et à gauche de la matrice les coefficients de la transformée sont ensuite quantifiés à l ’aide d‘une table de 64 éléments

définissant les pas de quantification cette table permet de choisir un pas de quantification important pour certaines composantes

jugées peu significatives visuellement et jouer sur le taux de compression de l’image souhaité des codages appropriés sont ensuite appliqués aux données pour produire un flux binaire le

plus léger possible

Figure 7. Les étapes de la compression JPEG.

Figure 6. Découpage des matrices en blocs 8x8.

Digital video

jean-philippe. muller

6-La transformée en cosinus discrète

La transformée en cosinus discrète est une transformation mathématique nécessitant des calculs simples qui transforme un bloc de 8x8=64 données de luminance ou de couleur X(i,j) en un autre bloc de 8x8=64 données Z(k,l).

Les valeurs de la DCT ainsi calculées ont une signification intéressante :

le coefficient Z(0,0) représente la valeur moyenne des 64 données X(i,j) le coefficient Z(7,7) correspond aux détails les plus fins du bloc de départ les coefficients des fréquences horizontales croissantes vont de gauche à droite les coefficients des fréquences verticales croissantes vont de haut en bas

Prenons quelques exemples :

pour un bloc correspondant à une zone unie (64 pixels identiques) , le bloc transformé aura un seul coefficient non nul : le Z(0,0) pour une zone d’image formée de 8 traits horizontaux alternativement clairs et sombres, le bloc

transformé aura un seul coefficient non nul, le Z(7,0) D’une façon générale, seul quelques coefficients dans le coin supérieur gauche du bloc transformé ont une valeur significative, les autres coefficients du tableau étant pratiquement nuls et pourront être négligés : c’est l’intérêt de la DCT.

Figure 8. Le calcul de la DCT.

Figure 9. Contribution des coefficients de la DCT à l’aspect du bloc.

Digital video

jean-philippe. muller

7-La quantification des blocs DCT

La quantification représente la phase non conservatrice du processus de compression JPEG et permet, moyennant une diminution de la précision de l‘image, de réduire le nombre de bits nécessaires au stockage. Pour cela, elle réduit chaque valeur de la matrice DCT en la divisant par un nombre (quantum), fixé par une table (matrice 8 x 8) de quantification :

Valeur quantifiée ( i , j ) = valeur DCT ( i, j ) / quantum ( i, j ) La matrice de quantification peut être fixe pour tous les blocs de l’image, ou valable pour une région de l’image (ensemble de blocs). Les coefficients les moins importants pour la restitution de l’image sont "amoindris" en divisant chaque élément par l'élément correspondant de la table de quantification. Ainsi les hautes fréquences s'atténuent rapidement.

1 1 2 4 8 16 32 64 1 1 2 4 8 16 32 64 2 2 2 4 8 16 32 64 4 4 4 4 8 16 32 64 8 8 8 8 8 16 32 64

16 16 16 16 16 16 32 64 32 32 32 32 32 32 32 64 64 64 64 64 64 64 64 64

La valeur du quantum peut être d‘autant plus élevée que l‘élément correspondant de la matrice DCT contribue peu à la qualité de l’image, donc qu‘il se trouve éloigné du coin supérieur gauche ( i=j=0).

150 80 40 14 4 2 1 0 92 75 36 10 6 1 0 0 52 38 26 8 7 4 0 0 12 8 6 4 2 1 0 0 4 3 2 0 0 0 0 0 2 2 1 1 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0

150 80 20 4 1 0 0 0 92 75 18 3 1 0 0 0 26 19 13 2 1 0 0 0 3 2 2 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

Matrice des coefficients DCT Matrice des coefficients DCT quantifiés

La qualité de l’image compressée, et donc le taux de compression, peuvent être ajustés en choisissant des matrices de quantification adéquates :

en choisissant des tailles de pas de quantification très élevés, le résultat est un taux de compression important pour une qualité d’image médiocre

en choisissant des tailles de pas petites la qualité de l’image reste excellente et les taux de

compression n’auront rien d’extraordinaire.

Figure 10. Exemple de matrice de quantification.

Figure 11. Matrice de coefficients DCT avant et après quantification.

Digital video

jean-philippe. muller

8-Exemple de compression JPEG faible

Figure 12. Les étapes de la compression JPEG d’une image.

Digital video

jean-philippe. muller

9-Exemple de compression JPEG forte

Figure 13. Les étapes de la compression JPEG d’une image.

Digital video

jean-philippe. muller

10-La sérialisation des coefficients quantifiés

Le codage de la matrice DCT quantifiée se fait en parcourant les éléments dans l’ordre imposé par une séquence particulière appelée séquence zigzag :

on lit les valeurs en zigzags inclinés à 45° en commençant par le coin supérieur gauche et en finissant en bas à droite cette séquence a la propriété de parcourir les éléments en commençant par les basses

fréquences et de traiter les fréquences de plus en plus hautes puisque la matrice DCT contient beaucoup de composantes de hautes fréquences nulles,

l’ordre de la séquence zigzag va engendrer de longues suites de 0 consécutives Ceci facilite de nouveau les étapes de compression suivantes : les codages RLC et VLC.

Deux mécanismes sont ensuite mis en œuvre pour comprimer la matrice DCT quantifiée et diminuer sans pertes ma masse des informations présentes: ⇒⇒⇒⇒ le codage RLC (Run Length Coding) :

si une image contient une suite assez longue de pixels identiques, il devient intéressant de répertorier le couple nombre/valeur de couleur les longues suites de « 0 » par exemple sont codées en donnant le nombre de 0 successifs

⇒⇒⇒⇒ le codage DPCM (Differential Pulse Code Modulation) :

le coefficient Z(0,0) correspondant à la valeur moyenne de la teinte du bloc est souvent proche de celui du bloc précédent on code alors simplement la différence avec la valeur du coefficient du bloc précédent

⇒⇒⇒⇒ le codage VLC (Variable Length Coding) ou codage de Huffman :

les valeurs non nulles seront codées en utilisant une méthode de type statistique on a intérêt à coder sur un petit nombre de bits les valeurs qui sont les plus utilisées et à

réserver des mots binaires de plus grande longueur aux valeurs les plus rares.

Figure 14. La lecture en zigzag d’un bloc DCT.

Figure 15. La réduction des données en JPEG.

Digital video

jean-philippe. muller

11-Organisation du flux binaire

L’image compressée selon la norme JPEG est donc constituée de données numériques concernant les coefficient des blocs de DCT quantifiés, de la ou des tables de quantification et de données complémentaires.

La norme de compression JPEG est un standard très efficace, mais pas sans inconvénients :

l’intérêt de la compression JPEG provient de la diminution effective de la taille du fichier image pour les appareils numériques, cela permet de stocker plus d'images dans une quantité

donnée de mémoire une nette perte de qualité d'image survient et s'aggrave avec l'augmentation du taux de

compression l'inconvénient majeur du format JPEG réside dans son mauvais traitement des bordures

franches et du texte qu'il tend à rendre flous en mélangeant les bords avec le fond.

Image non-compressée Image compressée JPEG

Une réduction de débit excessive, à cause d'une requantification grossière, implique que le signal vidéo à l'extrémité du bloc ne s'adapte pas à celui du bloc adjacent. Il en résulte un phénomène de quadrillage, car les limites du bloc TCD deviennent visibles comme une mosaïque.

Taux de compression 1 Taux de compression 40 Taux de compression 90

Figure 16. Organisation du flux binaire JPEG.

Figure 17. Les effets de la compression JPEG sur le texte.

Figure 18. Les effets quadrillage typique du JPEG.