133810711-informatique.pdf

146
Ordinateur Ordinateur (PC) Typologies Types d'ordinateurs Ordinateur portable PDA (organiseur) Au cœur de l'ordinateur Processeur Carte mère Boîtier Mémoire Mémoire Mémoire vive (RAM) Mémoire morte (ROM) Carte mémoire flash Cartes mémoire Compact Flash (CF) Memory stick (MS) Multimedia Card (MMC) Secure Digital (SD) Smartmedia (SM) xD Picture card Les bus Bus ISA, MCA, VLB PCI AGP PCI Express Interfaces d'entrée-sortie Port série/parallèle USB FireWire IDE / ATA Serial ATA SCSI PC Card (PCMCIA) Périphériques Périphérique Interruption (IRQ/DMA) Périphériques d'affichage Ecran/moniteur Tube cathodique Ecran LCD/Plasma Périphériques de stockage Disque dur Disque dur SSD Lecteur CD-ROM Lecteur DVD-ROM Blu ray Clé USB Autres périphériques Clavier Souris Imprimante Scanner Modem

Upload: zenaidenadiada

Post on 23-Dec-2015

13 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: 133810711-informatique.pdf

Ordinateur

• Ordinateur (PC)

• Typologies Types d'ordinateurs

Ordinateur portable

PDA (organiseur)

• Au cœur de l'ordinateur Processeur

Carte mère

Boîtier

• Mémoire Mémoire

Mémoire vive (RAM)

Mémoire morte (ROM)

Carte mémoire flash

• Cartes mémoire Compact Flash (CF)

Memory stick (MS)

Multimedia Card (MMC)

Secure Digital (SD)

Smartmedia (SM)

xD Picture card

• Les bus Bus

ISA, MCA, VLB

PCI

AGP

PCI Express

• Interfaces d'entrée-sortie Port série/parallèle

USB

FireWire

IDE / ATA

Serial ATA

SCSI

PC Card (PCMCIA)

• Périphériques Périphérique

Interruption (IRQ/DMA)

• Périphériques d'affichage Ecran/moniteur

Tube cathodique

Ecran LCD/Plasma

• Périphériques de stockage Disque dur

Disque dur SSD

Lecteur CD-ROM

Lecteur DVD-ROM

Blu ray

Clé USB

• Autres périphériques Clavier

Souris

Imprimante

Scanner

Modem

Page 2: 133810711-informatique.pdf

• Cartes d'extension Carte graphique

Carte son

Carte réseau

• BIOS BIOS

• Voir aussi : FAQ matériel

PC (ordinateur personnel)

Introduction à la notion d'ordinateur

La compréhension du vocabulaire informatique représente généralement la principale difficulté à laquelle

se heurtent les acheteurs potentiels d'ordinateurs personnels. En effet, contrairement à un téléviseur,

pour lequel les critères de choix sont assez limités, le choix d'un ordinateur revient à choisir chaque

élément qui le compose et à en connaître les caractéristiques. Ce dossier n'a pas pour but de donner un

sens à toutes les abréviations informatiques (dans la mesure où de nombreux constructeurs ont leurs

propres terminologies), mais il cherche à aider à mieux comprendre les principaux composants d'un

ordinateur, d'en expliquer le fonctionnement et d'en donner les principales caractéristiques.

Présentation de l'ordinateur

Un ordinateur est un ensemble de circuits électroniques permettant de manipuler des données sous

forme binaire, c'est-à-dire sous forme de bits. Le mot « ordinateur » provient de la société IBM France.

François Girard, alors responsable du service promotion générale publicité de l'entreprise IBM France,

eut l'idée de consulter son ancien professeur de lettres à Paris, afin de lui demander de proposer un mot

caractérisant le mieux possible ce que l'on appelait vulgairement un « calculateur » (traduction littérale

du mot anglais « computer »).

Ainsi, Jaques Perret, agrégé de lettres, alors professeur de philologie latine à la Sorbonne, proposa le 16

avril 1955 le mot « Ordinateur » en précisant que le mot « Ordinateur » était un adjectif provenant

duLittré signifiant « Dieux mettant de l'ordre dans le monde ». Ainsi, il expliqua que le concept de « mise

en ordre » était tout à fait adapté.

Types d'ordinateurs

Toute machine capable de manipuler des informations binaires peut être qualifiée d'ordinateur, toutefois

le terme « ordinateur » est parfois confondu avec la notion d'ordinateur personnel (PC, abréviation

depersonal computer), le type d'ordinateur le plus présent sur le marché. Or il existe beaucoup d'autres

types d'ordinateurs (la liste suivante est non exhaustive) :

• Amiga

• Atari

• Apple Macintosh

• stations Alpha

• stations SUN

• stations Silicon Graphics

Page 3: 133810711-informatique.pdf

La suite de ce dossier, aussi générique soit-elle, s'applique ainsi plus particulièrement aux ordinateurs de

type PC, appelés aussi ordinateurs compatibles IBM, car IBM est la firme qui a créé les premiers

ordinateurs de ce type et a longtemps (jusqu'en 1987) été le leader dans ce domaine, à tel point qu'elle

contrôlait les standards, copiés par les autres fabricants.

Constitution de l'ordinateur

Un ordinateur est un ensemble de composants électroniques modulaires, c'est-à-dire des composants

pouvant être remplacés par d'autres composants ayant éventuellement des caractéristiques différentes,

capables de faire fonctionner des programmes informatiques. On parle ainsi de « hardware » pour

désigner l'ensemble des éléments matériels de l'ordinateur et de « software » pour désigner la partie

logicielle.

Les composants matériels de l'ordinateur sont architecturés autour d'une carte principale comportant

quelques circuits intégrés et beaucoup de composants électroniques tels que condensateurs,

résistances, etc. Tous ces composants sont soudés sur la carte et sont reliés par les connexions du

circuit imprimé et par un grand nombre de connecteurs : cette carte est appelée carte mère.

La carte mère est logée dans un boîtier (ou châssis), comportant des emplacements pour les

périphériques de stockage sur la face avant, ainsi que des boutons permettant de contrôler la mise sous

tension de l'ordinateur et un certain nombre de voyants permettant de vérifier l'état de marche de

l'appareil et l'activité des disques durs. Sur la face arrière, le boîtier présente des ouvertures en vis-à-vis

des cartes d'extension et des interfaces d'entrée-sortie connectées sur la carte mère.

Enfin, le boîtier héberge un bloc d'alimentation électrique (appelé communément alimentation), chargé

de fournir un courant électrique stable et continu à l'ensemble des éléments constitutifs de l'ordinateur.

L'alimentation sert donc à convertir le courant alternatif du réseau électrique (220 ou 110 Volts) en une

tension continue de 5 Volts pour les composants de l'ordinateur et de 12 volts pour certains périphériques

internes (disques, lecteurs de CD-ROM, ...). Le bloc d'alimentation est caractérisé par sa puissance, qui

conditionne le nombre de périphériques que l'ordinateur est capable d'alimenter. La puissance du bloc

d'alimentation est généralement comprise entre 200 et 450 Watts.

On appelle « unité centrale », l'ensemble composé du boîtier et des éléments qu'il contient. Les

éléments externes à l'unité centrale sont appelés périphériques.

L'unité centrale doit être connectée à un ensemble de périphériques externes. Un ordinateur est

généralement composé au minimum d'une unité centrale, d'un écran (moniteur), d'un clavier et

d'unesouris, mais il est possible de connecter une grande diversité de périphériques sur les interfaces

d'entrée-sortie (ports séries, port parallèle, port USB, port firewire, etc.) :

• imprimante ,

• scanner ,

• carte son externe ,

• disque dur externe ,

• périphérique de stockage externe ,

• appareil photo ou caméra numérique,

• assistant personnel (PDA),

• etc.

Les familles d'ordinateurs

Familles d'ordinateurs

Page 4: 133810711-informatique.pdf

On distingue généralement plusieurs familles d'ordinateurs selon leur format :

• Les mainframes (en français ordinateurs centraux), ordinateurs possédant une grande

puissance de calcul, des capacités d'entrée-sortie gigantesques et un haut niveau de fiabilité. Les

mainframes sont utilisés dans de grandes entreprises pour effectuer des opérations lourdes de calcul

ou de traitement de données volumineuses. Les mainframes sont généralement utilisés dans des

architectures centralisées, dont ils sont le coeur.

• Les ordinateurs personnels, parmi lesquels on distingue :

• Les ordinateurs de bureau (en anglais desktop computers), composés d'un boîtier

renfermant une carte mère et permettant de raccorder les différents périphériques tels que

l'écran .

• Les ordinateurs portables (en anglais laptop ou notebooks), composé d'un boîtier

intégrant un écran dépliable, un clavier et un grand nombre de périphériques incorporés.

• Les tablettes PC (en anglais tablet PC, également appelées ardoises électroniques), composées

d'un boîtier intégrant un écran tactile ainsi qu'un certain nombre de périphériques incorporés.

• Les centres multimédia (Media Center), représentant une plate-forme matérielle, destinée à une

utilisation dans le salon pour le pilotage des éléments hifi (chaîne hifi, téléviseur, platine DVD, etc.).

• Les assistants personnels (appelés PDA, pour Personal digital Assistant, ou encore handheld,

littéralement «tenu dans la main»), parfois encore qualifiés d'organiseur (en anglais organizer) ou

d'agenda électronique, sont des ordinateurs de poche proposant des fonctionnalités liées à

l'organisation personnelle. Ils peuvent être dotés des fonctions d’un téléphone portable. On parle alors

souvent dans ce cas de smartphone.

• Enfin, les netbooks sont des ordinateurs portables dotés d’un écran de petite dimension

(généralement 12") et dont on a remplacé le disque dur par de la mémoire flash, afin de réduire la

consommation électrique (et le coût).

Ordinateur portable (ou laptop)

Lecture de DVD, jeu vidéo, traitement d'images 3D... L'ordinateur portable possède des fonctions

multimédia et des capacités qui rivalisent sans problème avec celles d'un ordinateur de bureau. En outre,

du fait de sa mobilité, son usage s'en retrouve multiple et varié. Transportable, portable, ultra

portableou mini portable, il existe autant de formats que d'usages. Avec l'apparition du mini portable

ou netbook, c'est l'avènement de la portabilité informatique.

1. 1. Présentation 2. 2. Usages 3. 3. L'écran 4. 4. Le processeur 5. 5. Le disque dur

Page 5: 133810711-informatique.pdf

6. 6. La carte graphique 7. 7. Lecteur graveur 8. 8. Souris et clavier 9. A voir aussi 10. Ressources sur le même sujet

1. Présentation

- Du tout en un

Un ordinateur portable (en anglais laptop ou notebook) est un ordinateur personnel dont la caractéristique

essentielle réside dans la portabilité. A la différence d'un ordinateur fixe, il ne dispose pas d'unité

centrale. Un ordinateur portable est composé de plusieurs éléments permettant son fonctionnement : le

processeur, la carte mère, le disque dur... d'un clavier, d'un écran et d'une souris.

- Des prix variables

Tous ces éléments sont compactés à l'intérieur d'un boitier de faible dimension, d'où le prix généralement

plus élevé d'un ordinateur portable par rapport à un ordinateur fixe. Exception faite pour les minis

portables dont les capacités de base permettent un coût moindre.

- La légèreté : un atout de poids

La taille moyenne d'un portable est de 35 cm de large sur 27cm de profondeur, et de 25 cm sur 17 cm

pour un mini portable. Il existe des ordinateurs portables de grandes dimensions : 40 cm de largeur sur

30 cm de profondeur. Il s'agit en fait de PC transportables dont le poids avoisine souvent les 4kg. La taille

allant de paire avec le poids, plus un ordinateur est petit, plus il est léger et facile à transporter.

- Des pièces intégrées

Comme la plupart des pièces sont intégrées, elles ne peuvent être changées. Il est donc nécessaire de

bien connaître les caractéristiques techniques d'un portable et l'usage que l'on souhaite en faire avant de

l'acquérir. En outre, l'intégration de toutes les pièces par le constructeur permet de minimiser les risques

d'incompatibilités matérielles.

- Autonomie

L'intérêt d'un ordinateur portable est d'être autonome le plus longtemps possible sans avoir besoin d'être

branché sur secteur. Il fonctionne avec une batterie rechargeable sur secteur.

2. Usages

La mobilité et l'encombrement réduit de l'ordinateur portable présentent des intérêts certains au niveau de

son utilisation. Limité au départ à un strict usage bureautique et professionnel, l'ordinateur portable a

évolué vers un usage multimédia complet et extrêmement varié proche du PC fixe : retouche photo, jeux

vidéo, lecture de DVD... Avec le netbook, le portable est revenu à un usage simplifié, mettant l'accent sur

la connexion et la mobilité.

• Avec l'émergence des réseaux sans fil, les pros de la communication peuvent se connecter avec

leur portable depuis presque n'importe quelle zone, du moment qu'elle soit couverte par le WiFi ou la

3G. Petits et légers, les ultraportables et les miniportables / netbook permettent aux nomades de se

connecter au net pour dialoguer sur leur messagerie instantanée, consulter leurs mails, effectuer des

tâches bureautiques simples depuis un café, un train, une salle d'attente équipés Wifi. En se glissant

aisément dans un sac à main, le netbook a su en outre conquérir un large public féminin.

• Joueurs et cinéphiles peuvent s'adonner à leurs passions, où qu'ils soient, sur un portable doté

d'un écran confortable (15" pour un portable, jusqu'à 20" pour un transportable), d'une carte graphique

performante et d'un processeur puissant.

Page 6: 133810711-informatique.pdf

• Mémoire, puissance de calcul... Avec un ordinateur portable pourvu d'un disque dur et d'un

processeur puissants, les professionnels en déplacement peuvent utiliser les mêmes fonctions que

leur ordinateur de bureau et gérer plusieurs logiciels.

• Montage vidéo, traitement photo, mixage de sons... toutes ces applications multimédias sont

également rendues possibles en dehors de chez soi avec des portables qui conjuguent capacité de

stockage importante et vitesse d'exécution. Le nombre d'entrées et de sorties permettent par ailleurs

une grande interactivité avec les accessoires high-tech : les ports USB 2 pour un téléphone mobile,

une clé USB, un appareil photo numérique, un disque dur externe... Le port Firewire (ou IEEE 1394)

pour un caméscope numérique (dont le débit est plus important qu'un port USB), une sortie VGA pour

un moniteur externe, un connecteur S-Vidéo pour la télé...

3. L'écran

• La taille

La taille d'un écran fait partie des critères déterminants dans le choix d'un ordinateur portable. Elle est

souvent corrélée au poids et à la taille de la machine.

Si vous souhaitez vous limiter à un usage bureautique simple, l'achat d'un portable à écran large n'est

peut-être pas justifié.

En revanche si vous voulez un portable pour visionner des films, choisissez un portable à écran

confortable pour vos yeux.

De 10" pour un mini portable / netbook jusqu'à 20" pour un transportable, la taille moyenne d'un écran

d'ordinateur portable est de 15" (1 pouce = 2,54 cm).

• Le format

Le format d'affichage le plus courant est en 4/3 (format télé normal) mais il existe des formats d'écrans

d'ordinateurs portables exotiques, proches du 16:9, tel que le format 15:10, plus adapté à la visualisation

de séquences vidéo (lecture de DVD par exemple).

• Le temps de réponse

D'un point de vue technologique, la plupart des écrans d'ordinateurs portables sont plats et TFT (Thin

Film Transistor) utilisant un affichage LCD (à cristaux liquides). La qualité d'un écran TFT dépend de son

temps de réponse ou latence, c'est-à-dire le temps nécessaire pour descendre et remonter des

informations. Plus le temps de réponse indiqué est bas (en dessous de 20 ms), meilleur il est, plus fluides

sont les images animées. Les écrans à faible de temps de réponse sont plutôt indiqués pour les joueurs

et les écrans dont le temps de réponse est supérieur à 20 ms convient plus à un usage basique.

4. Le processeur

• La fréquence

Le processeur est le cerveau de l'ordinateur, c'est lui qui traite les instructions. Sa vitesse d'exécution est

conditionnée par sa fréquence (en MHz), mais deux processeurs de marques différentes peuvent avoir

des performances tout à fait équivalentes avec des fréquences très différentes.

Pour un usage gourmand en logiciels et en applications multimédias, un ordinateur avec un processeur

puissant (avec une fréquence > 2,4Ghz) est recommandé.

Pour une utilisation plus basique, un processeur de gamme moyenne (=2Ghz) suffit.

Page 7: 133810711-informatique.pdf

Mais aujourd'hui, il vaut mieux considérer la qualité de l'ensemble des composants (carte graphique,

mémoire) que s'en tenir à la seule valeur de la fréquence du processeur.

• La mémoire vive

La quantité de mémoire vive peut avoir une importance considérable sur les performances, notamment

pour des usages multimédias. Elle sert uniquement de zone de transit d'informations (lorsque vous

allumez ou téléchargez un programme par exemple).

• La fréquence de fonctionnement

Outre la quantité de mémoire, il est également important d'être attentif également à sa fréquence de

fonctionnement, correspondant à la fréquence à laquelle vont tourner la plupart des périphériques.

5. Le disque dur

• Capacité

C'est la mémoire de l'ordinateur, le lieu où sont stockés les données et les programmes de l'ordinateur.

On s'intéresse à sa capacité : à partir de 160Go on évite les risques de saturation, à partir de 320Go, on

rejoint l'utilisation d'un PC fixe.

Vous pouvez étendre autant que besoin la capacité de stockage de votre ordinateur portable grâce à un

disque dur externe ou une clé USB (certaines montent jusqu'à 64Go).

Des marques de miniportables ont fait le choix de fonctionner avec un disque dur à mémoire flash (SSD),

ce qui les rend plus résistant aux chocs, plus légers aussi. Leur usage - limité à de la bureautique légère

et à la connexion - peut être enrichi avec des applications multimédias stockées sur une clé USB ou un

disque dur externe.

• Vitesse d'exécution

Pour un confort d'utilisation, on recommande une vitesse de rotation de 5 400 tours/minute minimum

(jusqu'à 7 200 tours/minute).

6. La carte graphique

Le choix de la carte graphique est important, surtout pour faire tourner des jeux vidéo aux graphismes

élaborés, regarder des films, faire de la PAO ou gérer des images en 3D. Comme elle est intégrée à la

carte mère, il vaut mieux vérifier au préalable sa puissance. Les joueurs ont tout intérêt à choisir un

portable avec une carte graphique de marque, compatible avec des programmes indispensables aux

animations comme DirectX 9.

7. Lecteur graveur

Devenus standard, les graveurs DVD double couche ont remplacé peu à peu les combos lecteurs CD et

DVD et graveurs CD. Ils permettent de conserver sur un seul et même support plusieurs Go de données.

Certains portables intègrent même des lecteurs ou lecteur/graveur HD/DVD ou Blu-ray avec des

capacités de stockage allant de 30 Go à 50 Go et plus.

8. Souris et clavier

Si l'ordinateur portable intègre un clavier et un touchpad (pavé tactile), rien n'empêche l'ajout de

périphériques plus confortables. Il existe des « souris de poche » adaptées au format des portables et

Page 8: 133810711-informatique.pdf

miniportables avec un enrouleur de fil intégré et des claviers ergonomiques plus spacieux permettant une

meilleure frappe sur les touches.

A voir aussi

Lors de l'achat d'un ordinateur portable, outre le choix des éléments matériels, il est notamment important

de veiller aux caractéristiques suivantes :

• La température de fonctionnement : Le fonctionnement des différents éléments de l'ordinateur

portable (notamment le processeur) induit une augmentation de la température de l'ordinateur

portable pouvant parfois être gênante (en particulier lorsque la température du clavier devient trop

importante).

Il peut exister un danger dû à la surchauffe, accentué notamment lorsque l'ordinateur portable fonctionne avec l'écran fermé, car celui-ci peut empêcher une bonne dissipation thermique.

• Le bruit : Afin de dissiper la chaleur due au fonctionnement des différents éléments de

l'ordinateur portable (notamment le processeur), les ordinateurs portables sont parfois équipés de

dispositifs d'évacuation de la chaleur tels que des ventilateurs, pouvant créer une gêne auditive

importante. Il en est de même pour les moteurs entraînant la rotation des disques durs ou du

lecteur/graveur de CD/DVD. Il convient donc de se renseigner sur le niveau de bruit de l'ordinateur en

fonctionnement.

• Garantie : L'achat d'un ordinateur portable est un investissement important, il est donc essentiel

de se prémunir des risques liés à un dysfonctionnement en souscrivant à une garantie. La garantie

est d'autant plus essentielle sur un ordinateur portable qu'il n'est pas possible d'interchanger des

éléments (carte graphique, carte son, etc.) comme cela peut être le cas sur des ordinateurs de

bureau. La plupart des offres incluent de facto une garantie de quelques mois à un an, mais il peut

être avisé de prendre une extension de garantie de quelques années afin de couvrir le maximum de

risques.

Veillez à vous renseigner sur le type de dommages couverts par la garantie. Les batteries sont notamment rarement couvertes.

• L'offre logicielle : Les ordinateurs portables sont presque systématiquement équipés

d'un système d'exploitation à l'achat mais certaines offres incluent également un bouquet de logiciels

tels que des outils de bureautique, une encyclopédie ou encore un antivirus qui peuvent s'avérer

utiles. Il peut donc être intéressant de prendre en compte cet aspect lors de l'achat d'un micro

portable.

• La housse de protection : Lorsque l'ordinateur portable est destiné à un usage nomade, une

mallette de transport est nécessaire afin de le protéger et de le transporter ainsi que l'ensemble de

ses accessoires.

Par ailleurs il est vivement conseillé d'investir dans un câble de sécurité (Kensington ComboSaver)

permettant d'attacher l'ordinateur portable à un élément de mobilier fixe grâce à l'encoche standard

présente sur la quasi-totalité des appareils du marché.

Page 9: 133810711-informatique.pdf

PDA

Introduction aux PDA

Un PDA (Personal Digital Assistant, littéralement assistant numérique personnel, aussi appeléorganiseur)

est un ordinateur de poche composé d'un processeur, de mémoire vive, d'un écran tactile et de

fonctionnalités réseau dans un boîtier compact d'extrêmement petite taille.

Utilité du PDA

Le PDA est un ordinateur de poche dont l'usage est prévu originalement dans un but d'organisation.

Un assistant personnel fournit donc généralement en standard les application suivantes :

• Un agenda, pour l'organisation de l'emploi du temps, avec des mécanismes de rappel visuels ou

auditifs. Les rendez-vous et événements planifiés dans l'agenda peuvent être contextualisés, afin de

répondre à des besoins tant professionnels que personnels, grâce à une classification adaptable

(bureau, privé, etc.)

• Un gestionnaire de tâches faisant office d'aide-mémoire pour les tâches à effectuer. Une

priorité, des dates limites ou des mécanismes de rappel peuvent être affectées à chaque tâche.

• Un carnet d'adresses (gestionnaires de contacts), permettant d'avoir à tout moment sous la

mains les coordonnées de ses contacts (numéro de téléphone, adresse postale, adresse de

messagerie, etc.).

• Un logiciel de messagerie, rendant possible la consultation de ses méls ainsi que la rédaction de

nouveaux messages.

Les assistants personnels proposent des outils de bureautique allégés tels qu'un traitement de texte, un

tableur, une calculatrice, des visualiseurs pour un grand nombre de formats de fichiers (fichiers PDF,

images, etc.).

En plus de ces fonctions de base, de plus en plus de PDA proposent des outils multimédias avancés

permettant de lire des vidéos (dans les différents formats, y compris le format DivX), des musiques

(notamment au format mp3) ou des animations Flash.

Les PDA sont également de plus en plus utilisés pour des usages de géolocalisation, de cartographie et

de navigation routière lorsqu'ils sont couplés à un dispositif de géolocalisation (GPS, Global Positionning

System). En effet, pour un faible coût il est possible de disposer d'un système GPS embarqué très

performant permettant une navigation routière à l'aide d'une carte indiquant en permanence sa position,

la vitesse et une représentation visuelle de la route (éventuellement en 3D) avec des instructions à

l'écran et dictées par une voix de synthèse.

Page 10: 133810711-informatique.pdf

Système d'exploitation

Les PDA possèdent des systèmes d'exploitation dont la définition est adaptée à la résolution d'affichage

de l'écran et dont les fonctionnalités correspondent aux caractéristiques de ce type d'appareil.

Il existe plusieurs systèmes d'exploitation pour PDA, correspondant la plupart du temps à des types de

PDA différents et portés par des constructeurs différents, au même titre qu'il existe des ordinateurs Mac

et PC. Les deux principaux systèmes sont :

• PalmOS, promu par la société Palm.

• Windows Mobile ou Pocket PC (anciennement Windows CE), promu par la société Microsoft.

Ces deux systèmes possèdent à peu près les mêmes caractéristiques et les mêmes fonctionnalités avec

une prise en main différentes mais surtout des applications incompatibles entre les deux systèmes.

Il est à noter qu'il existe des systèmes d'exploitation Linux développés spécifiquement pour les deux

types de machines.

Caractéristiques techniques

Lors de l'achat d'un PDA il est notamment important de veiller aux caractéristiques suivantes :

• poids et dimensions : Le PDA est destiné à être emporté partout et doit donc tenir dans la main

ou la poche. Ses dimensions et son poids doivent donc être choisis les plus petits possible, en

gardant à l'esprit le besoin d'ergonomie et de surface d'affichage.

• autonomie : L'autonomie du PDA est fonction des caractéristiques de la batterie.

• Ni-Cad (Nickel / Cadmium) : type de batterie rechargeable devenu obsolète car

souffrant de l'effet mémoire, c'est-à-dire une baisse progressive de la charge maximale lorsque

celle-ci est rechargée alors qu'elle n'est pas complétement "à plat".

• Ni-Mh (Nickel / Métal Hybride): type de batterie rechargeable plus performant que les

batteries Nickel-Cadmium.

• Li-Ion (Lithium / Ion): type de batterie rechargeable équipant la majorité des

ordinateurs portables. Les batteries Li-Ion offrent d'excellentes performances pour un coût

modeste. D'autre part les batteries Li-Ion ne souffrent pas de l'effet mémoire, ce qui signifie qu'il

n'est pas nécessaire de vider complétement la batterie avant de recharger l'appareil.

• Li-Polymer (Lithium / Polymère) : type de batterie rechargeable ayant des

performances équivalentes aux batteries Li-Ion mais beaucoup plus légères dans la mesure où

le liquide électrolytique et le séparateur microporeux des batteries Li-Ion sont remplacés par un

polymère solide, beaucoup plus léger. En contrepartie le temps de charge est plus important et

leur durée de vie est plus faible.

Attention aux pertes de données lorsque la batterie est totalement vidée !

Processeur

1. Présentation 2. Fonctionnement 3. Instruction 4. Registres 5. Mémoire cache

Page 11: 133810711-informatique.pdf

6. Signaux de commande 7. Unités fonctionnelles 8. Transistor 9. Circuits intégrés 10. Familles 11. Jeu d'instruction 12. Architecture CISC 13. Architecture RISC 14. Améliorations technologiques 15. Le parallélisme 16. Le pipeline 17. Technologie superscalaire 18. HyperThreading 19. Multi-coeur 20. Ressources sur le même sujet

Présentation

Le processeur (CPU, pour Central Processing Unit, soit Unité Centrale de Traitement) est le cerveau de

l'ordinateur. Il permet de manipuler des informations numériques, c'est-à-dire des informations codées

sous forme binaire, et d'exécuter les instructions stockées en mémoire.

Le premier microprocesseur (Intel 4004) a été inventé en 1971. Il s'agissait d'une unité de calcul de 4

bits, cadencé à 108 kHz. Depuis, la puissance des microprocesseurs augmente exponentiellement. Quels

sont donc ces petits morceaux de silicium qui dirigent nos ordinateurs?

Fonctionnement

Le processeur (noté CPU, pour Central Processing Unit) est un circuit électronique cadencé au rythme

d'une horloge interne, grâce à un cristal de quartz qui, soumis à un courant électrique, envoie des

impulsions, appelées « top ». La fréquence d'horloge (appelée également cycle, correspondant au

nombre d'impulsions par seconde, s'exprime en Hertz (Hz). Ainsi, un ordinateur à 200 MHz possède une

horloge envoyant 200 000 000 de battements par seconde. La fréquence d'horloge est généralement un

multiple de la fréquence du système (FSB, Front-Side Bus), c'est-à-dire un multiple de la fréquence de

lacarte mère

A chaque top d'horloge le processeur exécute une action, correspondant à une instruction ou une partie

d'instruction. L'indicateur appelé CPI (Cycles Par Instruction) permet de représenter le nombre moyen de

cycles d'horloge nécessaire à l'exécution d'une instruction sur un microprocesseur. La puissance du

processeur peut ainsi être caractérisée par le nombre d'instructions qu'il est capable de traiter par

seconde. L'unité utilisée est le MIPS (Millions d'Instructions Par Seconde) correspondant à la fréquence

du processeur que divise le CPI.

Page 12: 133810711-informatique.pdf

Instruction

Une instruction est l'opération élémentaire que le processeur peut accomplir. Les instructions sont

stockées dans la mémoire principale, en vue d'être traitée par le processeur. Une instruction est

composée de deux champs :

• le code opération, représentant l'action que le processeur doit accomplir ;

• le code opérande, définissant les paramètres de l'action. Le code opérande dépend de

l'opération. Il peut s'agir d'une donnée ou bien d'une adresse mémoire.

Code opération

Champ opérande

Le nombre d'octets d'une instruction est variable selon le type de donnée (l'ordre de grandeur est de 1 à

4 octets).

Les instructions peuvent être classées en catégories dont les principales sont :

• Accès à la mémoire : des accès à la mémoire ou transferts de données entre registres.

• Opérations arithmétiques : opérations telles que les additions, soustractions, divisions ou

multiplication.

• Opérations logiques : opérations ET, OU, NON, NON exclusif, etc.

• Contrôle : contrôles de séquence, branchements conditionnels, etc.

Registres

Lorsque le processeur exécute des instructions, les données sont temporairement stockées dans de

petites mémoires rapides de 8, 16, 32 ou 64 bits que l'on appelle registres. Suivant le type de

processeur le nombre global de registres peut varier d'une dizaine à plusieurs centaines.

Les registres principaux sont :

• le registre accumulateur (ACC), stockant les résultats des opérations arithmétiques et

logiques ;

• le registre d'état (PSW, Processor Status Word), permettant de stocker des indicateurs sur l'état

du système (retenue, dépassement, etc.) ;

• le registre instruction (RI), contenant l'instruction en cours de traitement ;

• le compteur ordinal (CO ou PC pour Program Counter), contenant l'adresse de la prochaine

instruction à traiter ;

• le registre tampon, stockant temporairement une donnée provenant de la mémoire.

Mémoire cache

La mémoire cache (également appelée antémémoire ou mémoire tampon) est une mémoire rapide

permettant de réduire les délais d'attente des informations stockées en mémoire vive. En effet,

la mémoire centrale de l'ordinateur possède une vitesse bien moins importante que le processeur. Il

existe néanmoins des mémoires beaucoup plus rapides, mais dont le coût est très élevé. La solution

Page 13: 133810711-informatique.pdf

consiste donc à inclure ce type de mémoire rapide à proximité du processeur et d'y stocker

temporairement les principales données devant être traitées par le processeur. Les ordinateurs récents

possèdent plusieurs niveaux de mémoire cache :

• La mémoire cache de premier niveau (appelée L1 Cache, pour Level 1 Cache) est

directement intégrée dans le processeur. Elle se subdivise en 2 parties :

• La première est le cache d'instructions, qui contient les instructions issues de la

mémoire vive décodées lors de passage dans les pipelines.

• La seconde est le cache de données, qui contient des données issues de la mémoire

vive et les données récement utilisées lors des opérations du processeur.

Les caches du premier niveau sont très rapides d'accés. Leur délai d'accès tend à s'approcher de celui

des registres internes aux processeurs.

• La mémoire cache de second niveau (appelée L2 Cache, pour Level 2 Cache) est située au

niveau du boîtier contenant le processeur (dans la puce). Le cache de second niveau vient s'intercaler

entre le processeur avec son cache interne et la mémoire vive. Il est plus rapide d'accès que cette

dernière mais moins rapide que le cache de premier niveau.

• La mémoire cache de troisième niveau (appelée L3 Cache, pour Level 3 Cache) est située au

niveau de la carte mère.

Tous ces niveaux de cache permettent de réduire les temps de latence des différentes mémoires lors du

traitement et du transfert des informations. Pendant que le processeur travaille, le contrôleur de cache de

premier niveau peut s'interfacer avec celui de second niveau pour faire des transferts d'informations sans

bloquer le processeur. De même, le cache de second niveau est interfacé avec celui de la mémoire

vive(cache de troisième niveau), pour permettre des transferts sans bloquer le fonctionnement normal du

processeur.

Signaux de commande

Les signaux de commande sont des signaux électriques permettant d'orchestrer les différentes unités

du processeur participant à l'exécution d'une instruction. Les signaux de commandes sont distribués

grâce à un élément appelé séquenceur. Le signal Read / Write, en français lecture / écriture, permet par

exemple de signaler à la mémoire que le processeur désire lire ou écrire une information.

Unités fonctionnelles

Le processeur est constitué d'un ensemble d'unités fonctionnelles reliées entre elles. L'architecture d'un

microprocesseur est très variable d'une architecture à une autre, cependant les principaux éléments d'un

microprocesseur sont les suivants :

• Une unité d'instruction (ou unité de commande, en anglais control unit) qui lit les données

arrivant, les décode puis les envoie à l'unité d'exécution ;L'unité d'instruction est notamment

constituée des éléments suivants :

• séquenceur (ou bloc logique de commande) chargé de synchroniser l'exécution des

instructions au rythme d'une horloge. Il est ainsi chargé de l'envoi des signaux de commande ;

• compteur ordinal contenant l'adresse de l'instruction en cours ;

• registre d'instruction contenant l'instruction suivante.

• Une unité d'exécution (ou unité de traitement), qui accomplit les tâches que lui a données l'unité

d'instruction. L'unité d'exécution est notamment composée des éléments suivants :

Page 14: 133810711-informatique.pdf

• L'unité arithmétique et logique (notée UAL ou en anglais ALU pour Arithmetical and

Logical Unit). L'UAL assure les fonctions basiques de calcul arithmétique et les opérations

logiques (ET, OU, Ou exclusif, etc.) ;

• L'unité de virgule flottante (notée FPU, pour Floating Point Unit), qui accomplit les

calculs complexes non entiers que ne peut réaliser l'unité arithmétique et logique.

• Le registre d'état ;

• Le registre accumulateur.

• Une unité de gestion des bus (ou unité d'entrées-sorties), qui gère les flux d'informations

entrant et sortant, en interface avec la mémoire vive du système ;

Le schéma ci-dessous donne une représentation simplifiée des éléments constituant le processeur

(l'organisation physique des éléments ne correspond pas à la réalité) :

Transistor

Pour effectuer le traitement de l'information, le microprocesseur possède un ensemble d'instructions,

appelé « jeu d'instructions », réalisées grâce à des circuits électroniques. Plus exactement, le jeu

d'instructions est réalisé à l'aide de semiconducteurs, « petits interrupteurs » utilisant l'effet transistor,

découvert en 1947 par John Barden, Walter H. Brattain et William Shockley qui reçurent le prix Nobel en

1956 pour cette découverte.

Un transistor (contraction de transfer resistor, en français résistance de transfert) est un composant

électronique semi-conducteur, possédant trois électrodes, capable de modifier le courant qui le traverse à

l'aide d'une de ses électrodes (appelée électrode de commande). On parle ainsi de «composant actif»,

par opposition aux « composants passifs », tels que la résistance ou le condensateur, ne possédant que

deux électrodes (on parle de « bipolaire »).

Le transistor MOS (métal, oxyde, silicium) est le type de transistor majoritairement utilisé pour la

conception de circuits intégrés. Le transistor MOS est composé de deux zones chargées négativement,

Page 15: 133810711-informatique.pdf

appelées respectivement source (possédant un potentiel quasi-nul) et drain (possédant un potentiel de

5V), séparées par une région chargée positivement, appelée substrat (en anglais substrate). Le substrat

est surmonté d'une électrode de commande, appelée porte (en anglais gate, parfois également

appeléegrille), permettant d'appliquer une tension sur le substrat.

Lorsqu'aucune tension n'est appliquée à l'électrode de commande, le substrat chargé positivement agit

telle une barrière et empêche les électrons d'aller de la source vers le drain. En revanche, lorsqu'une

tension est appliquée à la porte, les charges positives du substrat sont repoussées et il s'établit un canal

de communication, chargé négativement, reliant la source au drain.

Le transistor agit donc globalement comme un interrupteur programmable grâce à l'électrode de

commande. Lorsqu'une tension est appliquée à l'électrode de commande, il agit comme un interrupteur

fermé, dans le cas contraire comme un interrupteur ouvert.

Circuits intégrés

Assemblés, les transistors peuvent constituer des circuits logiques, qui, assemblés à leur tour, constituent

des processeurs. Le premier circuit intégré date de 1958 et a été mis au point par la sociétéTexas

Instruments.

Les transistors MOS sont ainsi réalisés dans des tranches de silicium (appelées wafer, traduisezgaufres),

obtenues après des traitements successifs. Ces tranches de silicium sont alors découpées en éléments

rectangulaires, constituant ce que l'on appelle un « circuit ». Les circuits sont ensuite placés dans des

boîtiers comportant des connecteurs d'entrée-sortie, le tout constituant un « circuit intégré ». La finesse

de la gravure, exprimée en microns (micromètres, notés µm), définit le nombre de transistors par unité de

surface. Il peut ainsi exister jusqu'à plusieurs millions de transistors sur un seul processeur.

Page 16: 133810711-informatique.pdf

La loi de Moore, édictée en 1965 par Gordon E. Moore, cofondateur de la société Intel, prévoyait que les

performances des processeurs (par extension le nombre de transistors intégrés sur silicium) doubleraient

tous les 12 mois. Cette loi a été révisée en 1975, portant le nombre de mois à 18. La loi de Moore se

vérifie encore aujourd'hui.

Dans la mesure où le boîtier rectangulaire possède des broches d'entrée-sortie ressemblant à des pattes,

le terme de « puce électronique » est couramment employé pour désigner les circuits intégrés.

Familles

Chaque type de processeur possède son propre jeu d'instruction. On distingue ainsi les familles de

processeurs suivants, possédant chacun un jeu d'instruction qui leur est propre :

• 80x86 : le « x » représente la famille. On parle ainsi de 386, 486, 586, 686, etc.

• ARM

• IA-64

• MIPS

• Motorola 6800

• PowerPC

• SPARC

• ...

Cela explique qu'un programme réalisé pour un type de processeur ne puisse fonctionner directement sur

un système possédant un autre type de processeur, à moins d'une traduction des instructions,

appeléeémulation. Le terme « émulateur » est utilisé pour désigner le programme réalisant cette

traduction.

Jeu d'instruction

On appelle jeu d'instructions l'ensemble des opérations élémentaires qu'un processeur peut accomplir.

Le jeu d'instruction d'un processeur détermine ainsi son architecture, sachant qu'une même architecture

peut aboutir à des implémentations différentes selon les constructeurs.

Le processeur travaille effectivement grâce à un nombre limité de fonctions, directement câblées sur les

circuits électroniques. La plupart des opérations peuvent être réalisé à l'aide de fonctions basiques.

Certaines architectures incluent néanmoins des fonctions évoluées courante dans le processeur.

Architecture CISC

L'architecture CISC (Complex Instruction Set Computer, soit « ordinateur à jeu d'instruction complexe »)

consiste à câbler dans le processeur des instructions complexes, difficiles à créer à partir des instructions

de base.

L'architecture CISC est utilisée en particulier par les processeurs de type 80x86. Ce type d'architecture

possède un coût élevé dû aux fonctions évoluées imprimées sur le silicium.

D'autre part, les instructions sont de longueurs variables et peuvent parfois nécessiter plus d'un cycle

d'horloge. Or, un processeur basé sur l'architecture CISC ne peut traîter qu'une instruction à la fois, d'où

un temps d'exécution conséquent.

Page 17: 133810711-informatique.pdf

Architecture RISC

Un processeur utilisant la technologie RISC (Reduced Instruction Set Computer, soit « ordinateur à jeu

d'instructions réduit ») n'a pas de fonctions évoluées câblées.

Les programmes doivent ainsi être traduits en instructions simples, ce qui entraîne un développement

plus difficile et/ou un compilateur plus puissant. Une telle architecture possède un coût de fabrication

réduit par rapport aux processeurs CISC. De plus, les instructions, simples par nature, sont exécutées en

un seul cycle d'horloge, ce qui rend l'exécution des programmes plus rapide qu'avec des processeurs

basés sur une architecture CISC. Enfin, de tels processeurs sont capables de traîter plusieurs

instructions simultanément en les traitant en parallèle.

Améliorations technologiques

Au cours des années, les constructeurs de microprocesseurs (appelés fondeurs), ont mis au point un

certain nombre d'améliorations permettant d'optimiser le fonctionnement du processeur.

Le parallélisme

Le parallélisme consiste à exécuter simultanément, sur des processeurs différents, des instructions

relatives à un même programme. Cela se traduit par le découpage d'un programme en plusieurs

processus traités en parallèle afin de gagner en temps d'exécution.

Ce type de technologie nécessite toutefois une synchronisation et une communication entre les différents

processus, à la manière du découpage des tâches dans une entreprise : le travail est divisé en petits

processus distincts, traités par des services différents. Le fonctionnement d'une telle entreprise peut être

très perturbé lorsque la communication entre les services ne fonctionne pas correctement.

Le pipeline

Le pipeline (ou pipelining) est une technologie visant à permettre une plus grande vitesse d'exécution

des instructions en parallélisant des étapes.

Pour comprendre le mécanisme du pipeline, il est nécessaire au préalable de comprendre les phases

d'exécution d'une instruction. Les phases d'exécution d'une instruction pour un processeur contenant un

pipeline « classique » à 5 étages sont les suivantes :

• LI : (Lecture de l'Instruction (en anglais FETCH instruction) depuis le cache ;

• DI : Décodage de l'Instruction (DECODe instruction) et recherche des opérandes (Registre ou

valeurs immédiate);

• EX : Exécution de l'Instruction (EXECute instruction) (si ADD, on fait la somme, si SUB, on fait la

soustraction, etc.);

• MEM : Accès mémoire (MEMory access), écriture dans la mémoire si nécéssaire ou chargement

depuis la mémoire ;

• ER : Ecriture (Write instruction) de la valeur calculée dans les registres.

Les instructions sont organisées en file d'attente dans la mémoire, et sont chargées les unes après les

autres.

Page 18: 133810711-informatique.pdf

Grâce au pipeline, le traitement des instructions nécessite au maximum les cinq étapes précédentes.

Dans la mesure où l'ordre de ces étapes est invariable (LI, DI, EX, MEM et ER), il est possible de créer

dans le processeur un certain nombre de circuits spécialisés pour chacune de ces phases.

L'objectif du pipeline est d'être capable de réaliser chaque étape en parallèle avec les étapes amont et

aval, c'est-à-dire de pouvoir lire une instruction (LI) lorsque la précédente est en cours de décodage (DI),

que celle d'avant est en cours d'exécution (EX), que celle située encore précédemment accède à la

mémoire (MEM) et enfin que la première de la série est déjè en cours d'écriture dans les registres (ER).

Il faut compter en général 1 à 2 cycles d'horloge (rarement plus) pour chaque phase du pipeline, soit 10

cycles d'horloge maximum par instruction. Pour deux instructions, 12 cycles d'horloge maximum seront

nécessaires (10+2=12 au lieu de 10*2=20), car la précédente instruction était déjà dans le pipeline. Les

deux instructions sont donc en traitement dans le processeur, avec un décalage d'un ou deux cycles

d'horloge). Pour 3 instructions, 14 cycles d'horloge seront ainsi nécessaires, etc.

Le principe du pipeline est ainsi comparable avec une chaîne de production de voitures. La voiture passe

d'un poste de travail à un autre en suivant la chaîne de montage et sort complètement assemblée à la

sortie du bâtiment. Pour bien comprendre le principe, il est nécessaire de regarder la chaîne dans son

ensemble, et non pas véhicule par véhicule. Il faut ainsi 3 heures pour faire une voiture, mais pourtant

une voiture est produite toute les minutes !

Il faut noter toutefois qu'il existe différents types de pipelines, de 2 à 40 étages, mais le principe reste le

même.

Technologie superscalaire

La technologie superscalaire (en anglais superscaling) consiste à disposer plusieurs unités de traitement

en parallèle afin de pouvoir traiter plusieurs instructions par cycle.

HyperThreading

La technologie HyperThreading (ou Hyper-Threading, noté HT, traduisez HyperFlots ou HyperFlux)

consiste à définir deux processeurs logiques au sein d'un processeur physique. Ainsi, le système

reconnaît deux processeurs physiques et se comporte en système multitâche en envoyant deux thréads

simultanés, on parle alors de SMT (Simultaneous Multi Threading). Cette « supercherie » permet d'utiliser

au mieux les ressources du processeur en garantissant que des données lui sont envoyées en masse.

Multi-coeur

Un processeur multi-coeur est tout simplement un processeur composé non pas de 1 mais de 2 (ou 4

ou 8) unités de calcul. Ainsi, pour un processeur bi-coeur (ou DualCore) le processeur dispose à

Page 19: 133810711-informatique.pdf

fréquence d'horloge égale d'une puissance de calcul deux fois plus importante. Pour autant, le gain n'est

pas systématiquement visible. En effet, il faut que les logiciels et les systèmes d'exploitation sachent

gérer correctement ces processeurs afin qu'un gain significatif soit perceptible. Ainsi, sous Windows, seul

Vista et Sept exploitent correctement ces processeurs. Dans ce cas, la version 64 bits est conseillée.

Carte mère

1. Présentation de la carte mère 2. Caractéristiques 3. Facteur d'encombrement d'une carte mère 4. Composants intégrés 5. Le chipset 6. L'horloge et la pile du CMOS 7. Le BIOS 8. Le support de processeur 9. Les connecteurs de mémoire vive 10. Les connecteurs d'extension 11. Les connecteurs d'entrée-sortie 12. Ressources sur le même sujet

Présentation de la carte mère

L'élément constitutif principal de l'ordinateur est la carte mère (en anglais « mainboard » ou

«motherboard », parfois abrégé en « mobo »). La carte mère est le socle permettant la connexion de

l'ensemble des éléments essentiels de l'ordinateur.

Page 20: 133810711-informatique.pdf

Comme son nom l'indique, la carte mère est une carte maîtresse, prenant la forme d'un grand circuit

imprimé possédant notamment des connecteurs pour les cartes d'extension, les barrettes de mémoires,

le processeur, etc.

Caractéristiques

Il existe plusieurs façons de caractériser une carte mère, notamment selon les caractéristiques

suivantes :

• le facteur d'encombrement,

• le chipset,

• le type de support de processeur,

• les connecteurs d'entrée-sortie.

Facteur d'encombrement d'une carte mère

On désigne généralement par le terme « facteur d'encombrement » (ou facteur de forme, en

anglaisform factor), la géométrie, les dimensions, l'agencement et les caractéristiques électriques de la

carte mère. Afin de fournir des cartes mères pouvant s'adapter dans différents boîtiers de marques

différentes, des standards ont été mis au point :

• AT baby / AT full format est un format utilisé sur les premiers ordinateurs PC du type 386 ou

486. Ce format a été remplacé par le format ATX possédant une forme plus propice à la circulation de

l'air et rendant l'accès aux composants plus pratique ;

• ATX : Le format ATX est une évolution du format Baby-AT. Il s'agit d'un format étudié pour

améliorer l'ergonomie. Ainsi la disposition des connecteurs sur une carte mère ATX est prévue de

manière à optimiser le branchement des périphériques (les connecteurs IDE sont par exemple situés

du côté des disques). D'autre part, les composants de la carte mère sont orientés parallèlement, de

manière à permettre une meilleure évacuation de la chaleur ;

• ATX standard : Le format ATX standard présente des dimensions classiques de

305x244 mm. Il propose un connecteur AGP et 6 connecteurs PCI.

• micro-ATX : Le format microATX est une évolution du format ATX, permettant d'en

garder les principaux avantages tout en proposant un format de plus petite dimension (244x244

mm), avec un coût réduit. Le format micro-ATX propose un connecteur AGP et 3

connecteurs PCI.

• Flex-ATX : Le format FlexATX est une extension du format microATX afin d'offrir une

certaine flexibilité aux constructeurs pour le design de leurs ordinateurs. Il propose un

connecteur AGP et 2 connecteurs PCI.

• mini-ATX : Le format miniATX est un format compact alternatif au format microATX

(284x208 mm), proposant un connecteur AGP et 4 connecteurs PCI au lieu des 3 du format

microATX. Il est principalement destiné aux ordinateurs de type mini-PC (barebone).

• BTX : Le format BTX (Balanced Technology eXtended), porté par la société Intel, est un format

prévu pour apporter quelques améliorations de l'agencement des composants afin d'optimiser la

circulation de l'air et de permettre une optimisation acoustique et thermique. Les différents

connecteurs (connecteurs de mémoire, connecteurs d'extension) sont ainsi alignés parallèlement,

dans le sens de circulation de l'air. Par ailleurs le microprocesseur est situé à l'avant du boîtier au

niveau des entrées d'aération, où l'air est le plus frais. Le connecteur d'alimentation BTX est le même

que celui des alimentations ATX. Le standard BTX définit trois formats :

• BTX standard, présentant des dimensions standard de 325x267 mm ;

• micro-BTX, de dimensions réduites (264x267 mm) ;

• pico-BTX, de dimensions extrêmement réduites (203x267 mm).

Page 21: 133810711-informatique.pdf

• ITX : Le format ITX (Information Technology eXtended), porté par la société Via, est un format

extrêmement compact prévu pour des configurations exigûes telles que les mini-PC. Il existe deux

principaux formats ITX :

• mini-ITX, avec des dimensions minuscules (170x170 mm) est un emplacement PCI ;

• nano-ITX, avec des dimensions extrêmement minuscules (120x120 mm) et un

emplacement miniPCI.

Ainsi, du choix d'une carte mère (et de son facteur de forme) dépend le choix du boîtier. Le tableau ci-

dessous récapitule les caractéristiques des différents facteurs de forme :

Facteur de forme

DimensionsEmplacements

ATX305 mm x 244 mm

AGP / 6 PCI

microATX244 mm x 244 mm

AGP / 3 PCI

FlexATX229 mm x 191 mm

AGP / 2 PCI

Mini ATX284 mm x 208 mm

AGP / 4 PCI

Mini ITX170 mm x 170 mm

1 PCI

Nano ITX120 mm x 120 mm

1 MiniPCI

BTX325 mm x 267 mm

7

microBTX264 mm x 267 mm

4

picoBTX203 mm x 267 mm

1

Composants intégrés

La carte mère contient un certain nombre d'éléments embarqués, c'est-à-dire intégrés sur son circuit

imprimé :

• Le chipset, circuit qui contrôle la majorité des ressources (interface de bus du processeur,

mémoire cache et mémoire vive, slots d'extension,...),

• L'horloge et la pile du CMOS,

• Le BIOS,

Page 22: 133810711-informatique.pdf

• Le bus système et les bus d'extension.

En outre, les cartes mères récentes embarquent généralement un certain nombre de périphériques

multimédia et réseau pouvant être désactivés :

• carte réseau intégrée ;

• carte graphique intégrée ;

• carte son intégrée ;

• contrôleurs de disques durs évolués.

Le chipset

Le chipset (traduisez jeu de composants ou jeu de circuits) est un circuit électronique chargé de

coordonner les échanges de données entre les divers composants de l'ordinateur (processeur,

mémoire...). Dans la mesure où le chipset est intégré à la carte mère, il est important de choisir une carte

mère intégrant un chipset récent afin de maximiser les possibilités d'évolutivité de l'ordinateur.

Certains chipsets intègrent parfois une puce graphique ou une puce audio, ce qui signifie qu'il n'est pas

nécessaire d'installer une carte graphique ou une carte son. Il est toutefois parfois conseillé de les

désactiver (lorsque cela est possible) dans le setup du BIOS et d'installer des cartes d'extension de

qualité dans les emplacements prévus à cet effet.

L'horloge et la pile du CMOS

L'horloge temps réel (notée RTC, pour Real Time Clock) est un circuit chargé de la synchronisation des

signaux du système. Elle est constituée d'un cristal qui, en vibrant, donne des impulsions (appelés tops

d'horloge) afin de cadencer le système. On appelle fréquence de l'horloge (exprimée en MHz) le nombre

de vibrations du cristal par seconde, c'est-à-dire le nombre de tops d'horloge émis par seconde. Plus la

fréquence est élevée, plus le système peut traiter d'informations.

Lorsque l'ordinateur est mis hors tension, l'alimentation cesse de fournir du courant à la carte mère. Or,

lorsque l'ordinateur est rebranché, le système est toujours à l'heure. Un circuit électronique,

appelé CMOS(Complementary Metal-Oxyde Semiconductor, parfois appelé BIOS CMOS), conserve en

effet certaines informations sur le système, telles que l'heure, la date système et quelques paramètres

essentiels du système.

Le CMOS est continuellement alimenté par une pile (au format pile bouton) ou une batterie située sur la

carte mère. Ainsi, les informations sur le matériel installé dans l'ordinateur (comme par exemple le

nombre de pistes, de secteurs de chaque disque dur) sont conservées dans le CMOS. Dans la mesure

où le CMOS est une mémoire lente, certains systèmes recopient parfois le contenu du CMOS dans la

RAM (mémoire rapide), le terme de « memory shadow » est employé pour décrire ce processus de copie

en mémoire vive.

Le « complémentary metal-oxyde semiconductor », est une technologie de fabrication de transistors,

précédée de bien d'autres, telles que la TTL (« Transistor-transistor-logique »), la TTLS (TTL Schottky)

(plus rapide), ou encore le NMOS (canal négatif) et le PMOS (canal positif).

Le CMOS a permis de mettre des canaux complémentaires sur une même puce. Par rapport à la TTL ou

TTLS, le CMOS est beaucoup moins rapide, mais a consomme en revanche infiniment moins d'énergie,

Page 23: 133810711-informatique.pdf

d'où son emploi dans les horloges d'ordinateurs, qui sont alimentées par des piles. Le terme de CMOS

est parfois utilisé à tort pour désigner l'horloge des ordinateurs.

Lorsque l'heure du système est régulièrement réinitialisée, ou que l'horloge prend du retard, il suffit

généralement d'en changer la pile !

Le BIOS

Le BIOS (Basic Input/Output System) est le programme basique servant d'interface entre le système

d'exploitation et la carte mère. Le BIOS est stocké dans une ROM (mémoire morte, c'est-à-dire une

mémoire en lecture seule), ainsi il utilise les données contenues dans le CMOS pour connaître la

configuration matérielle du système.

Il est possible de configurer le BIOS grâce à une interface (nommée BIOS setup, traduisez configuration

du BIOS) accessible au démarrage de l'ordinateur par simple pression d'une touche (généralement la

touche Suppr. En réalité le setup du BIOS sert uniquement d'interface pour la configuration, les données

sont stockées dans le CMOS. Pour plus d'informations n'hésitez pas à vous reporter au manuel de votre

carte mère).

Le support de processeur

Le processeur (aussi appelé microprocesseur) est le cerveau de l'ordinateur. Il exécute les instructions

des programmes grâce à un jeu d'instructions. Le processeur est caractérisé par sa fréquence, c'est-à-

dire la cadence à laquelle il exécute les instructions. Ainsi, un processeur cadencé à 800 MHz effectuera

grossièrement 800 millions d'opérations par seconde.

La carte mère possède un emplacement (parfois plusieurs dans le cas de cartes mères multi-

processeurs) pour accueillir le processeur, appelé support de processeur. On distingue deux catégories

de supports :

• Slot (en français fente) : il s'agit d'un connecteur rectangulaire dans lequel on enfiche le

processeur verticalement

• Socket (en français embase) : il s'agit d'un connecteur carré possédant un grand nombre de

petits connecteurs sur lequel le processeur vient directement s'enficher

Au sein de ces deux grandes familles, il existe des version différentes du support, selon le type de

processeur. Il est essentiel, quel que soit le support, de brancher délicatement le processeur afin de ne

tordre aucune de ses broches (il en compte plusieurs centaines). Afin de faciliter son insertion, un support

appelé

ZIF (Zero Insertion Force, traduisez force d'insertion nulle) a été créé. Les supports ZIF possèdent une

petite manette, qui, lorsqu'elle est levée, permet l'insertion du processeur sans aucune pression et,

lorsqu'elle est rabaissée, maintient le processeur sur son support.

Le processeur possède généralement un détrompeur, matérialisé par un coin tronqué ou une marque de

couleur, devant être aligné avec la marque correspondante sur le support.

Page 24: 133810711-informatique.pdf

Dans la mesure où le processeur rayonne thermiquement, il est nécessaire d'en dissiper la chaleur pour

éviter que ses circuits ne fondent. C'est la raison pour laquelle il est généralement surmonté

d'undissipateur thermique (appelé parfois refroidisseur ou radiateur), composé d'un métal ayant une

bonne conduction thermique (cuivre ou aluminium), chargé d'augmenter la surface d'échange thermique

du microprocesseur. Le dissipateur thermique comporte une base en contact avec le processeur et des

ailettes afin d'augmenter la surface d'échange thermique. Un ventilateur accompagne généralement le

dissipateur pour améliorer la circulation de l'air autour du dissipateur et améliorer l'échange de chaleur.

Le terme « ventirad » est ainsi parfois utilisé pour désigner l'ensemble Ventilateur + Radiateur. C'est le

ventilateur du boîtier qui est chargé d'extraire l'air chaud du boîtier et permettre à l'air frais provenant de

l'extérieur d'y entrer. Pour éviter les bruits liés au ventilateur et améliorer la dissipation de chaleur, il est

également possible d'utiliser un système de refroidissement à eau (dit watercooling).

Les connecteurs de mémoire vive

La mémoire vive (RAM pour Random Access Memory) permet de stocker des informations pendant tout

le temps de fonctionnement de l'ordinateur, son contenu est par contre détruit dès lors que l'ordinateur

est éteint ou redémarré, contrairement à une mémoire de masse telle que le disque dur, capable de

garder les informations même lorsqu'il est hors tension. On parle de « volatilité » pour désigner ce

phénomène.

Pourquoi alors utiliser de la mémoire vive alors que les disques durs reviennent moins chers à capacité

égale ? La réponse est que la mémoire vive est extrêmement rapide par comparaison aux périphériques

de stockage de masse tels que le disque dur. Elle possède en effet un temps de réponse de l'ordre de

quelques dizaines de nanosecondes (environ 70 pour la DRAM, 60 pour la RAM EDO, et 10 pour la

SDRAM voire 6 ns sur les SDRam DDR) contre quelques millisecondes pour le disque dur.

La mémoire vive se présente sous la forme de barrettes qui se branchent sur les connecteurs de la carte

mère.

Les connecteurs d'extension

Les connecteurs d'extension (en anglais slots) sont des réceptacles dans lesquels il est possible

d'insérer des cartes d'extension, c'est-à-dire des cartes offrant de nouvelles fonctionnalités ou de

meilleures performances à l'ordinateur. Il existe plusieurs sortes de connecteurs :

• Connecteur ISA (Industry Standard Architecture) : permettant de connecter des cartes ISA, les

plus lentes fonctionnant en 16-bit

• Connecteur VLB (Vesa Local Bus): Bus servant autrefois à connecter des cartes graphiques

Page 25: 133810711-informatique.pdf

• Connecteur PCI (Peripheral Component InterConnect) : permettant de connecter des cartes PCI,

beaucoup plus rapides que les cartes ISA et fonctionnant en 32-bit

• Connecteur AGP (Accelerated Graphic Port): un connecteur rapide pour carte graphique.

• Connecteur PCI Express (Peripheral Component InterConnect Exress) : architecture de bus plus

rapide que les bus AGP et PCI.

• Connecteur AMR (Audio Modem Riser): ce type de connecteur permet de brancher des mini-

cartes sur les PC en étant équipés

Les connecteurs d'entrée-sortie

La carte mère possède un certain nombre de connecteurs d'entrées-sorties regroupés sur le « panneau

arrière ».

La plupart des cartes mères proposent les connecteurs suivants :

• Port série , permettant de connecter de vieux périphériques ;

• Port parallèle , permettant notamment de connecter de vieilles imprimantes ;

• Ports USB (1.1, bas débit, ou 2.0, haut débit), permettant de connecter des périphériques plus

récents ;

• Connecteur RJ45 (appelés LAN ou port ethernet) permettant de connecter l'ordinateur à un

réseau. Il correspond à une reseau.php3 carte réseau intégrée à la carte mère ;

• Connecteur VGA (appelé SUB-D15), permettant de connecter un écran. Ce connecteur

correspond à la graphique.php3 carte graphique intégrée ;

• Prises audio (entrée Line-In, sortie Line-Out et microphone), permettant de connecter des

enceintes acoustiques ou une chaîne hi fi, ainsi qu'un microphone. Ce connecteur correspond à

la son.php3 carte son intégrée.

Boîtier PC

Page 26: 133810711-informatique.pdf

1.Le boîtier2. Bloc d'alimentation 3. Facteur de forme 4. Taille 5. Aération 6. Connectique 7. Ressources sur le même sujet

Le boîtier

Le boîtier (ou châssis) de l'ordinateur est le squelette métallique abritant ses différents composants

internes. Les boîtiers ont par ailleurs d'autres utilités telles que l'isolement phonique ou la protection

contre les rayonnements électromagnétiques. Ainsi des normes existent afin de garantir un niveau de

protection conforme à la réglementation en vigueur.

Les éléments de choix principaux d'un boîtier sont son facteur de forme, ses dimensions, le nombre

d'emplacements pour des lecteurs, son alimentation, la connectique en façade et enfin son design et ses

couleurs. Ainsi, si les boîtiers se ressemblaient tous aux débuts du PC, il existe aujourd'hui des boîtiers

de toutes les formes, parfois même transparents afin de permettre aux utilisateurs de faire du tuning à

l'aide par exemple de néons.

Bloc d'alimentation

La plupart des boîtiers sont fournis avec un bloc d'alimentation (en anglais power supply).

L'alimentation permet de fournir du courant électrique à l'ensemble des composants de l'ordinateur. Aux

Etats-Unis les blocs d'alimentation délivrent un courant à 110V et à 60 Hz, tandis qu'en Europe la norme

est 220V à une fréquence de 50 Hz, c'est la raison pour laquelle les blocs d'alimentation possèdent la

plupart du temps un commutateur permettant de choisir le type de tension à délivrer.

Page 27: 133810711-informatique.pdf

Il est essentiel de s'assurer que le commutateur est bien positionné sur le bon voltage afin de ne pas

risquer de détériorer des éléments de l'unité centrale.

Le bloc d'alimentation doit posséder une puissance suffisante pour alimenter les périphériques de

l'ordinateur.

Une attention particulière devra également être portée sur le niveau sonore de l'alimentation.

Facteur de forme

Le facteur de forme (en anglais form factor) désigne le format de l'emplacement prévu pour la carte

mère, les types de connecteurs et leur agencement. Il conditionne ainsi le type de carte mère que le

boîtier peut accueillir.

Taille

La taille du boîtier conditionne le nombre d'emplacements pour les lecteurs en façade, ainsi que le

nombre d'emplacements pour des disques durs en interne. On distingue généralement les catégories

suivantes :

• Grand tour : il s'agit de boîtiers de grande taille (60 à 70 cm de hauteur), possédant 4 à 6

emplacements 5"1/4 et 2 ou 3 emplacements 3"1/2 en façade, ainsi que deux ou trois emplacements

3"1/2 en interne.

• Moyen tour : il s'agit de boîtiers de taille moyenne (40 à 50 cm de hauteur), possédant 3 à 4

emplacements 5"1/4 en façade et deux emplacements 3"1/2.

• Mini tour : il s'agit de boîtiers de petite dimension (35 à 40 cm de hauteur), possédant

généralement 3 emplacements 5"1/4 et deux emplacements 3"1/2 en façade, ainsi que deux

emplacement 3"1/2 en interne.

• Barebone (littéralement « os nu ») ou mini-PC : il s'agit du plus petit format de boîtier (10 à 20

cm de hauteur). La plupart du temps les barebone sont des ordinateurs pré assemblés embarquant

une carte mère ayant un facteur de forme réduit (SFF, pour Small Form Factor). Ils possèdent

généralement un ou deux emplacements 5"1/4 et un emplacement 3"1/2 en façade, ainsi qu'un

emplacement 3"1/2 en interne.

Page 28: 133810711-informatique.pdf

Aération

Un boîtier renferme l'ensemble de l'électronique interne de l'ordinateur. Or, les éléments de l'ordinateur

sont amenés à atteindre des températures élevées. Il est donc impératif de choisir un boîtier possédant

une bonne ventilation, c'est-à-dire un maximum de ventilateurs, ainsi que des aérations. Il est ainsi

conseillé de choisir un boîtier comportant a minima une entrée d'air à l'avant, munie d'un filtre à air

amovible, ainsi que d'une sortie d'air à l'arrière.

Connectique

Pour des raisons évidentes d'ergonomie, de plus en plus de boîtiers proposent un panneau de

connecteurs en façade. Ces connecteurs doivent, pour être fonctionnels, être raccordés en interne à la

carte mère.

Ordinateur - Introduction à la notion de mémoire

Rôle de la mémoire

On appelle « mémoire » tout composant électronique capable de stocker temporairement des données.

On distingue ainsi deux grandes catégories de mémoires :

• la mémoire centrale (appelée également mémoire interne) permettant de mémoriser

temporairement les données lors de l'exécution des programmes. La mémoire centrale est réalisée à

l'aide de micro-conducteurs, c'est-à-dire des circuits électroniques spécialisés rapides. La mémoire

centrale correspond à ce que l'on appelle la mémoire vive.

• la mémoire de masse (appelée également mémoire physique ou mémoire externe) permettant

de stocker des informations à long terme, y compris lors de l'arrêt de l'ordinateur. La mémoire de

masse correspond aux dispositifs de stockage magnétiques, tels que le disque dur, aux dispositifs de

stockage optique, correspondant par exemple aux CD-ROM ou aux DVD-ROM, ainsi

qu'aux mémoires mortes.

Caractéristiques techniques

Les principales caractéristiques d'une mémoire sont les suivantes :

• La capacité, représentant le volume global d'informations (en bits) que la mémoire peut stocker ;

• Le temps d'accès, correspondant à l'intervalle de temps entre la demande de lecture/écriture et

la disponibilité de la donnée ;

• Le temps de cycle, représentant l'intervalle de temps minimum entre deux accès successifs ;

• Le débit, définissant le volume d'information échangé par unité de temps, exprimé en bits par

seconde ;

• La non volatilité caractérisant l'aptitude d'une mémoire à conserver les données lorsqu'elle n'est

plus alimentée électriquement.

Ainsi, la mémoire idéale possède une grande capacité avec des temps d'accès et temps de cycle très

restreints, un débit élevé et est non volatile.

Néanmoins les mémoires rapides sont également les plus onéreuses. C'est la raison pour laquelle des

mémoire utilisant différentes technologiques sont utilisées dans un ordinateur, interfacées les unes avec

les autres et organisées de façon hiérarchique.

Page 29: 133810711-informatique.pdf

Les mémoires les plus rapides sont situées en faible quantité à proximité du processeur et les mémoires

de masse, moins rapides, servent à stocker les informations de manière permanente.

Types de mémoires

Mémoire vive

La mémoire vive, généralement appelée RAM (Random Access Memory, traduisez mémoire à accès

direct), est la mémoire principale du système, c'est-à-dire qu'il s'agit d'un espace permettant de stocker

de manière temporaire des données lors de l'exécution d'un programme.

En effet, contrairement au stockage de données sur une mémoire de masse telle que le disque dur, la

mémoire vive est volatile, c'est-à-dire qu'elle permet uniquement de stocker des données tant qu'elle est

alimentée électriquement. Ainsi, à chaque fois que l'ordinateur est éteint, toutes les données présentes

en mémoire sont irrémédiablement effacées.

Mémoire morte

La mémoire morte, appelée ROM pour Read Only Memory (traduisez mémoire en lecture seule) est un

type de mémoire permettant de conserver les informations qui y sont contenues même lorsque la

mémoire n'est plus alimentée électriquement. A la base ce type de mémoire ne peut être accédée qu'en

lecture. Toutefois il est désormais possible d'enregistrer des informations dans certaines mémoires de

type ROM.

Mémoire flash

La mémoire flash est un compromis entre les mémoires de type RAM et les mémoires mortes. En effet,

la mémoire Flash possède la non-volatilité des mémoires mortes tout en pouvant facilement être

accessible en lecture ou en écriture. En contrepartie les temps d'accès des mémoires flash sont plus

importants que ceux de la mémoire vive.

La mémoire vive (RAM ou mémoire PC)

1.Types de mémoires vives2. Fonctionnement de la mémoire vive 3. Formats de barrettes de mémoire vive

1. DRAM PM 2. DRAM FPM 3. DRAM EDO 4. SDRAM 5. DR-SDRAM (Rambus DRAM) 6. DDR-SDRAM

Page 30: 133810711-informatique.pdf

7. DDR2-SDRAM 8. DDR3-SDRAM 9. Tableau récapitulatif

4. Synchronisation (timings) 5. La correction d'erreurs

1. Bit de parité 2. Barrettes ECC 3. Barrettes avec registre ou tampon (registered ou buffered)

6. Dual Channel 7. Ressources sur le même sujet

Types de mémoires vives

On distingue généralement deux grandes catégories de mémoires vives :

• Les mémoires dynamiques (DRAM, Dynamic Random Access Module), peu coûteuses. Elles

sont principalement utilisées pour la mémoire centrale de l'ordinateur ;

• Les mémoires statiques (SRAM, Static Random Access Module), rapides et onéreuses. Les

SRAM sont notamment utilisées pour les mémoires cache du processeur ;

Fonctionnement de la mémoire vive

La mémoire vive est constituée de centaines de milliers de petits condensateurs emmagasinant des

charges. Lorsqu'il est chargé, l'état logique du condensateur est égal à 1, dans le cas contraire il est à 0,

ce qui signifie que chaque condensateur représente un bit de la mémoire.

Etant donné que les condensateurs se déchargent, il faut constamment les recharger (le terme exact

estrafraîchir, en anglais refresh) à un intervalle de temps régulier appelé cycle de rafraîchissement. Les

mémoires DRAM nécessitent par exemple des cycles de rafraîchissement est d'environ 15

nanosecondes (ns).

Chaque condensateur est couplé à un transistor (de type MOS) permettant de « récupérer » ou de

modifier l'état du condensateur. Ces transistors sont rangés sous forme de tableau (matrice), c'est-à-dire

que l'on accède à une case mémoire (aussi appelée point mémoire) par une ligne et une colonne.

Page 31: 133810711-informatique.pdf

Chaque point mémoire est donc caractérisé par une adresse, correspondant à un numéro de ligne (en

anglais row) et un numéro de colonne (en anglais column). Or cet accès n'est pas instantané et s'effectue

pendant un délai appelé temps de latence. Par conséquent l'accès à une donnée en mémoire dure un

temps égal au temps de cycle auquel il faut ajouter le temps de latence.

Ainsi, pour une mémoire de type DRAM, le temps d'accès est de 60 nanosecondes (35ns de délai de

cycle et 25 ns de temps de latence). Sur un ordinateur, le temps de cycle correspond à l'inverse de la

fréquence de l'horloge, par exemple pour un ordinateur cadencé à 200 MHz, le temps de cycle est de 5

ns (1/(200*106)).

Par conséquent un ordinateur ayant une fréquence élevée et utilisant des mémoires dont le temps

d'accès est beaucoup plus long que le temps de cycle du processeur doit effectuer des cycles

d'attente (en anglais wait state) pour accèder à la mémoire. Dans le cas d'un ordinateur cadencé à 200

MHz utilisant des mémoires de types DRAM (dont le temps d'accès est de 60ns), il y a 11 cycles d'attente

pour un cycle de transfert. Les performances de l'ordinateur sont d'autant diminuées qu'il y a de cycles

d'attentes, il est donc conseillé d'utiliser des mémoires plus rapides.

Formats de barrettes de mémoire vive

Il existe de nombreux types de mémoires vives. Celles-ci se présentent toutes sous la forme de barrettes

de mémoire enfichables sur la carte-mère.

Les premières mémoires se présentaient sous la forme de puces appelées DIP (Dual Inline Package).

Désormais les mémoires se trouvent généralement sous la forme de barrettes, c'est-à-dire des cartes

enfichables dans des connecteurs prévus à cet effet. On distingue habituellement trois types de barrettes

de RAM :

• les barrettes au format SIMM (Single Inline Memory Module) : il s'agit de circuits imprimés dont

une des faces possède des puces de mémoire. Il existe deux types de barrettes SIMM, selon le

nombre de connecteurs :

• Les barrettes SIMM à 30 connecteurs (dont les dimensions sont 89x13mm) sont des

mémoires 8 bits qui équipaient les premières générations de PC (286, 386).

• Les barrettes SIMM à 72 connecteurs (dont les dimensions sont 108x25mm) sont des

mémoires capables de gérer 32 bits de données simultanément. Ces mémoires équipent des PC

allant du 386DX aux premiers Pentium. Sur ces derniers le processeur travaille avec un bus de

données d'une largeur de 64 bits, c'est la raison pour laquelle il faut absolument équiper ces

ordinateurs de deux barrettes SIMM. Il n'est pas possible d'installer des barrettes 30 broches sur

des emplacements à 72 connecteurs dans la mesure où un détrompeur (encoche au centre des

connecteurs) en empêche l'enfichage.

Page 32: 133810711-informatique.pdf

• les barrettes au format DIMM (Dual Inline Memory Module) sont des mémoires 64 bits, ce qui

explique pourquoi il n'est pas nécessaire de les apparier. Les barrettes DIMM possèdent des puces

de mémoire de part et d'autre du circuit imprimé et ont également 84 connecteurs de chaque côté, ce

qui les dote d'un total de 168 broches. En plus de leurs dimensions plus grandes que les barrettes

SIMM (130x25mm) ces barrettes possèdent un second détrompeur pour éviter la confusion.

Il peut être intéressant de noter que les connecteurs DIMM ont été améliorés afin de faciliter leur insertion

grâce à des leviers situés de part et d'autre du connecteur. Il existe en outre des modules de plus petite

taille, appelés SO DIMM (Small Outline DIMM), destinés aux ordinateurs portables. Les barrettes SO

DIMM comportent uniquement 144 broches pour les mémoires 64 bits et 77 pour les mémoires 32 bits.

• les barrettes au format RIMM (Rambus Inline Memory Module, appelées également RD-

RAM ou DRD-RAM) sont des mémoires 64 bits développée par la société Rambus. Elles possèdent

184 broches. Ces barrettes possèdent deux encoches de repérage (détrompeurs), évitant tout risque

de confusion avec les modules précédents.

Compte tenu de leur vitesse de transfert élevée, les barrettes RIMM possèdent un film thermique chargé

d'améliorer la dissipation de la chaleur.

Comme dans le cas des DIMM, il existe des modules de plus petite taille, appelés SO RIMM (Small

Outline RIMM), destinés aux ordinateurs portables. Les barrettes SO RIMM comportent uniquement 160

broches.

DRAM PM

La DRAM (Dynamic RAM, RAM dynamique) est le type de mémoire le plus répandu au début du

millénaire. Il s'agit d'une mémoire dont les transistors sont rangés dans une matrice selon des lignes et

des colonnes. Un transistor, couplé à un condensateur donne l'information d'un bit. 1 octet comprenant 8

bits, une barrette de mémoire DRAM de 256 Mo contiendra donc 256 * 2^10 * 2^10 = 256 * 1024 * 1024 =

268 435 456 octets = 268 435 456 * 8 = 2 147 483 648 bits = 2 147 483 648 transistors. Une barrette de

256 Mo possède ainsi en réalité une capacité de 268 435 456 octets, soit 268 Mo ! Ce sont des mémoires

dont le temps d'accès est de 60 ns.

D'autre part, les accès mémoire se font généralement sur des données rangées consécutivement en

mémoire. Ainsi le mode d'accès en rafale (burst mode) permet d'accéder aux trois données

consécutives à la première sans temps de latence supplémentaire. Dans ce mode en rafale, le temps

d'accès à la première donnée est égal au temps de cycle auquel il faut ajouter le temps de latence, et le

temps d'accès aux trois autres données est uniquement égal aux temps de cycle, on note donc sous la

forme X-Y-Y-Y les quatre temps d'accès, par exemple la notation 5-3-3-3 indique une mémoire pour

laquelle 5 cycles d'horloge sont nécessaires pour accéder à la première donnée et 3 pour les suivantes.

DRAM FPM

Pour accélérer les accès à la DRAM, il existe une technique, appelée pagination consistant à accéder à

des données situées sur une même colonne en modifiant uniquement l'adresse de la ligne, ce qui permet

Page 33: 133810711-informatique.pdf

d'éviter la répétition du numéro de colonne entre la lecture de chacune des lignes. On parle alors

deDRAM FPM (Fast Page Mode). La FPM permet d'obtenir des temps d'accès de l'ordre de 70 à 80

nanosecondes pour une fréquence de fonctionnement pouvant aller de 25 à 33 Mhz.

DRAM EDO

La DRAM EDO (Extended Data Out, soit Sortie des données améliorée parfois également appelé "hyper-

page") est apparue en 1995. La technique utilisée avec ce type de mémoire consiste à adresser la

colonne suivante pendant la lecture des données d'une colonne. Cela crée un chevauchement des accès

permettant de gagner du temps sur chaque cycle. Le temps d'accès à la mémoire EDO est donc

d'environ 50 à 60 nanosecondes pour une fréquence de fonctionnement allant de 33 à 66 Mhz.

Ainsi, la RAM EDO, lorsqu'elle est utilisée en mode rafale permet d'obtenir des cycles de la forme 5-2-2-

2, soit un gain de 4 cycles sur l'accès à 4 données. Dans la mesure où la mémoire EDO n'acceptait pas

des fréquences supérieures à 66 Mhz, elle a disparu au bénéfice de la SDRAM.

SDRAM

La SDRAM (Synchronous DRAM, traduisez RAM synchrone), apparue en 1997, permet une lecture des

données synchronisée avec le bus de la carte-mère, contrairement aux mémoires EDO et FPM

(qualifiées d'asynchrones) possédant leur propre horloge. La SDRAM permet donc de s'affranchir des

temps d'attente dus à la synchronisation avec la carte-mère. Celle-ci permet d'obtenir un cycle en mode

rafale de la forme 5-1-1-1, c'est-à-dire un gain de 3 cycles par rapport à la RAM EDO. De cette façon la

SDRAM est capable de fonctionner avec une cadence allant jusqu'à 150 Mhz, lui permettant d'obtenir des

temps d'accès d'environ 10 ns.

DR-SDRAM (Rambus DRAM)

La DR-SDRAM (Direct Rambus DRAM ou encore RDRAM) est un type de mémoire permettant de

transférer les données sur un bus de 16 bits de largeur à une cadence de 800Mhz, ce qui lui confère une

bande passante de 1,6 Go/s. Comme la SDRAM, ce type de mémoire est synchronisé avec l'horloge du

bus pour améliorer les échanges de données. En contrepartie, la mémoire RAMBUS est une technologie

propriétaire, ce qui signifie que toute entreprise désirant construire des barrettes de RAM selon cette

technologie doit reverser des droits (royalties) aux sociétés RAMBUS et Intel.

DDR-SDRAM

La DDR-SDRAM (Double Data Rate SDRAM) est une mémoire basée sur la technologie SDRAM,

permettant de doubler le taux de transfert de la SDRAM à fréquence égale.

La lecture ou l'écriture de données en mémoire est réalisé sur la base d'une horloge. Les mémoires

DRAM standard utilisent une méthode appelé SDR (Single Data Rate) consistant à lire ou à écrire une

donnée à chaque front montant.

Page 34: 133810711-informatique.pdf

La DDR permet de doubler la fréquence des lectures/écritures, avec une horloge cadencée à la même

fréquence, en envoyant les données à chaque front montant, ainsi qu'à chaque front descendant.

Les mémoires DDR possèdent généralement une appellation commerciale du type PCXXXX où «XXXX»

représente le débit en Mo/s.

DDR2-SDRAM

La mémoire DDR2 (ou DDR-II) permet d'atteindre des débits deux fois plus élevés que la DDR à

fréquence externe égale.

On parle de QDR (Quadruple Data Rate ou quad-pumped)pour désigner la méthode de lecture et

d'écriture utilisée. La mémoire DDR2 utilise en effet deux canaux séparés pour la lecture et pour

l'écriture, si bien qu'elle est capable d'envoyer ou de recevoir deux fois plus de données que la DDR.

La DDR2 possède également un plus grand nombre de connecteurs que la DDR classique (240 pour la

DDR2 contre 184 pour la DDR).

DDR3-SDRAM

Le DDR3 SDRAM améliore les performances par rapport au DDR2, mais surtout diminue la

consommation électrique. En effet, celle-ci est de 40 % inférieure, en particulier grâce à une baisse du

voltage utilisé, une finesse de gravure accrue. Si le débit théorique de ces barrettes peut dépasser les 10

Go/s, les temps de latence sont restés dans les mêmes ordres de grandeur que ceux des DDR2.

Les barrettes DDR3 ont 240 connecteurs comme les DDR2 mais ne sont absolument pas compatibles

(des détrompeurs empêchent l'insertion).

Tableau récapitulatif

Le tableau ci-dessous donne la correspondance entre la fréquence de la carte-mère (FSB), celle de la

mémoire (RAM) et son débit :

Page 35: 133810711-informatique.pdf

Mémoire Appellation Fréquence E/S Fréquence mémoire Débit

DDR200 PC1600 100 MHz 100 MHz 1,6 Go/s

DDR266 PC2100 133 MHz 133 MHz 2,1 Go/s

DDR333 PC2700 166 MHz 166 MHz 2,7 Go/s

DDR400 PC3200 200 MHz 200 MHz 3,2 Go/s

DDR433 PC3500 217 MHz 217 MHz 3,5 Go/s

DDR466 PC3700 233 MHz 233 MHz 3,7 Go/s

DDR500 PC4000 250 MHz 250 MHz 4 Go/s

DDR533 PC4200 266 MHz 266 MHz 4,2 Go/s

DDR538 PC4300 269 MHz 269 MHz 4,3 Go/s

DDR550 PC4400 275 MHz 275 MHz 4,4 Go/s

DDR2-400 PC2-3200 200 MHz 100 MHz 3,2 Go/s

DDR2-533 PC2-4300 266 MHz 133 MHz 4,3 Go/s

DDR2-667 PC2-5300 333 MHz 166 MHz 5,3 Go/s

DDR2-675 PC2-5400 337 MHz 168 MHz 5,4 Go/s

DDR2-800 PC2-6400 400 MHz 200 MHz 6,4 Go/s

DDR2-1066 PC2-8500 533 MHz 266 MHz 8,5 Go/s

DDR2-1100 PC2-8800 560 MHz 280 MHz 8,8 Go/s

DDR2-1200 PC2-9600 600 MHz 300 MHz 9,6 Go/s

DDR3-800 PC3-6400 400 MHz 100 MHz 6,4 Go/s

DDR3-1066 PC3-8500 533 MHz 133 MHz 8,5 Go/s

DDR3-1333 PC3-10600 666 MHz 166 MHz 10,7 Go/s

DDR3-1600 PC3-12800 800 MHz 200 MHz 12,8 Go/s

Page 36: 133810711-informatique.pdf

Synchronisation (timings)

Il n'est pas rare de voir des notations du type 3-2-2-2 ou 2-3-3-2 pour décrire le paramétrage de la

mémoire vive. Cette suite de quatre chiffres décrit la synchronisation de la mémoire (en anglais timing),

c'est-à-dire la succession de cycles d'horloge nécessaires pour accéder à une donnée stockée en

mémoire vive. Ces quatre chiffres correspondent généralement, dans l'ordre, aux valeurs suivantes :

• CAS delay ou CAS latency (CAS signifiant Column Address Strobe) : il s'agit du nombre de

cycles d'horloge s'écoulant entre l'envoi de la commande de lecture et l'arrivée effective de la donnée.

Autrement dit, il s'agit du temps d'accès à une colonne.

• RAS Precharge Time (noté tRP, RAS signifiant Row Address Strobe) : il s'agit du nombre de

cycles d'horloge entre deux instructions RAS, c'est-à-dire entre deux accès à une ligne. opération.

• RAS to CAS delay (noté parfois tRCD) : il s'agit du nombre de cycles d'horloge correspondant

au temps d'accés d'une ligne à une colonne.

• RAS active time (noté parfois tRAS) : il s'agit du nombre de cycles d'horloge correspondant au

temps d'accés à une ligne.

Les cartes mémoires sont équipées d'un dispositif appelé SPD (Serial Presence Detect), permettant

auBIOS de connaître les valeurs nominales de réglage définies par le fabricant. Il s'agit

d'une EEPROM dont les données seront chargées par le BIOS si l'utilisateur choisi le réglage « auto ».

La correction d'erreurs

Certaines mémoires possèdent des mécanismes permettant de pallier les erreurs afin de garantir

l'intégrité des données qu'elles contiennent. Ce type de mémoire est généralement utilisé sur des

systèmes travaillant sur des données critiques, c'est la raison pour laquelle on trouve ce type de mémoire

dans les serveurs.

Bit de parité

Les barrettes avec bit de parité permettent de s'assurer que les données contenues dans la mémoire

sont bien celles que l'on désire. Pour ce faire, un des bits de chaque octet stocké en mémoire sert à

conserver la somme des bits de données.

Le bit de parité vaut 1 lorsque la somme des bits de données est impaire et 0 dans le cas contraire.

De cette façon les barrettes avec bit de parité permettent de vérifier l'intégrité des données mais ne

permettent pas de corriger les erreurs. De plus pour 9 Mo de mémoire, seulement 8 serviront à stocker

des données, dans la mesure où le dernier mégaoctet conservera les bits de parité.

Barrettes ECC

Les barrettes de mémoire ECC (Error Correction Coding) sont des mémoires possédant plusieurs bits

dédiés à la correction d'erreur (on les appelle ainsi bits de contrôle). Ces barrettes, utilisées

principalement dans les serveurs, permettent de détecter les erreurs et de les corriger.

Barrettes avec registre ou tampon (registered ou buffered)

Ces barrettes ont un registre entre les puces de DRAM et le contrôleur mémoire du système (dans le

chipset ou dans le processeur). Ce registre retient les données pendant un cycle d'horloge avant qu'elles

ne soient envoyées vers le contrôleur mémoire. Ce processus augmente la fiabilité du transfert de

données, au détriment du temps de traitement, en retard d'un cycle d'horloge par rapport à de la mémoire

Page 37: 133810711-informatique.pdf

sans registre. Ces modules de mémoire avec registre ne sont généralement utilisés que dans les

serveurs.

Dual Channel

Certains contrôleurs mémoire proposent un double canal (en anglais Dual Channel) pour la mémoire. Il

s'agit d'exploiter les modules de mémoire par paire afin de cumuler la bande passante et ainsi exploiter

au maximum les capacités du système. Il est essentiel, lors de l'utilisation du Dual Channel, d'utiliser des

barrettes identiques par paire (fréquence, capacité et préférentiellement de même marque).

La mémoire morte (ROM)

La mémoire morte (ROM)

Il existe un type de mémoire permettant de stocker des données en l'absence de courant électrique, il

s'agit de la ROM (Read Only Memory, dont la traduction littérale est mémoire en lecture seule)

appeléemémoire morte, parfois mémoire non volatile car elle ne s'efface pas lors de la mise hors tension

du système.

Ce type de mémoire permet notamment de conserver les données nécessaires au démarrage de

l'ordinateur. En effet, ces informations ne peuvent être stockées sur le disque dur étant donné que les

paramètres du disque (essentiels à son initialisation) font partie de ces données vitales à l'amorçage.

Différentes mémoires de type ROM contiennent des données indispensables au démarrage, c'est-à-dire :

• Le BIOS est un programme permettant de piloter les interfaces d'entrée-sortie principales du

système, d'où le nom de BIOS ROM donné parfois à la puce de mémoire morte de la carte-mère qui

l'héberge.

• Le chargeur d'amorce: un programme permettant de charger le système d'exploitation en

mémoire (vive) et de le lancer. Celui-ci cherche généralement le système d'exploitation sur le lecteur

de disquette, puis sur le disque dur, ce qui permet de pouvoir lancer le système d'exploitation à partir

d'une disquette système en cas de dysfonctionnement du système installé sur le disque dur.

• Le Setup CMOS, c'est l'écran disponible à l'allumage de l'ordinateur permettant de modifier les

paramètres du système (souvent appelé BIOS à tort...).

• Le Power-On Self Test (POST), programme exécuté automatiquement à l'amorçage du système

permettant de faire un test du système (c'est pour cela par exemple que vous voyez le système

"compter" la RAM au démarrage).

Etant donné que les ROM sont beaucoup plus lentes que les mémoires de types RAM (une ROM a un

temps d'accès de l'ordre de 150 ns tandis qu'une mémoire de type SDRAM a un temps d'accès d'environ

10 ns), les instructions contenues dans la ROM sont parfois copiées en RAM au démarrage, on parle

alors de shadowing (en français cela pourrait se traduire par ombrage, mais on parle généralement

demémoire fantôme).

Les types de ROM

Les ROM ont petit à petit évolué de mémoires mortes figées à des mémoires programmables, puis

reprogrammables.

Page 38: 133810711-informatique.pdf

ROM

Les premières ROM étaient fabriquées à l'aide d'un procédé inscrivant directement les

données binairesdans une plaque de silicium grâce à un masque. Ce procédé est maintenant obsolète.

PROM

Les PROM (Programmable Read Only Memory) ont été mises au point à la fin des années 70 par la

firmeTexas Instruments. Ces mémoires sont des puces constituées de milliers de fusibles (ou bien de

diodes) pouvant être "grillés" grâce à un appareil appelé « programmateur de ROM », appliquant une

forte tension (12V) aux cases mémoire devant être marquées. Les fusibles ainsi grillés correspondent à

des 0, les autres à des 1.

EPROM

Les EPROM (Erasable Programmable Read Only Memory) sont des PROM pouvant être effacées. Ces

puces possèdent une vitre permettant de laisser passer des rayons ultra-violets. Lorsque la puce est en

présence de rayons ultra-violets d'une certaine longueur d'onde, les fusibles sont reconstitués, c'est-à-

dire que tous les bits de la mémoire sont à nouveau à 1. C'est pour cette raison que l'on qualifie ce type

de PROM d'effaçable.

EEPROM

Les EEPROM (Electrically Erasable Read Only Memory) sont aussi des PROM effaçables, mais

contrairement aux EPROM, celles-ci peuvent être effacées par un simple courant électrique, c'est-à-dire

qu'elles peuvent être effacées même lorsqu'elles sont en position dans l'ordinateur.

Il existe une variante de ces mémoires appelée mémoires flash (également ROM Flash ou Flash

EPROM). Contrairement aux EEPROM classiques, utilisant 2 à 3 transistors par bit à mémoriser, la Flash

EPROM utilise un seul transistor. D'autre part l'EEPROM peut-être écrite et lue mot par mot, alors que la

Flash ne peut être effacée que par pages (la taille des pages étant en constante diminution).

Enfin la densité de la mémoire Flash est plus importante, ce qui permet la réalisation de puces contenant

plusieurs centaines de Mégaoctets. Des EEPROM sont ainsi préférentiellement utilisées pour la

mémorisation de données de configuration et la mémoire Flash pour du code programmable

(programmes informatiques).

On qualifie de flashage l'action consistant à reprogrammer une EEPROM.

Carte mémoire (mémoire Flash)

Introduction à la mémoire Flash

La mémoire flash est une mémoire à semi-conducteurs, non volatile et réinscriptible, c'est-à-dire une

mémoire possédant les caractéristiques d'une mémoire vive mais dont les données ne se volatilisent pas

lors d'une mise hors tension. Ainsi la mémoire flash stocke les bits de données dans des cellules de

mémoire, mais les données sont conservées en mémoire lorsque l'alimentation électrique est coupée.

En raison de sa vitesse élevée, de sa durabilité et de sa faible consommation, la mémoire flash est idéale

pour de nombreuses applications - comme les appareils photos numériques, les téléphones cellulaires,

les imprimantes, les assistants personnels (PDA), les ordinateurs portables, ou les dispositifs de lecture

Page 39: 133810711-informatique.pdf

ou d'enregistrement sonore tels que les baladeurs mp3. De plus ce type de mémoire ne possède pas

d'éléments mécaniques, ce qui leur confère une grande résistance aux chocs.

Les types de cartes mémoire

Il existe un grand nombre de formats de cartes mémoires non compatibles entre-eux, portés par presque

autant de constructeurs. Parmi ces formats de cartes mémoire les plus courants sont :

• Les cartes Compact Flash

• Les cartes Secure Digital (appelées SD Card)

• Les cartes Memory Stick

• Les cartes SmartMedia

• Les cartes MMC (MultimediaCard)

• Les cartes xD picture card

Tableau comparatif

CarteDimensions (mm)

Volume (mm3)

Masse (g)

Broches

Taux de transfert max.

Taille max. théorique

Taille max. actuelle

Compact Flash type I

43 x 36 x 3,3

5 108 3,3 50 20 Mo/s 137 Go 128 Go

Compact Flash type II

43 x 36 x 5 7 740 4 50 20 Mo/s 137 Go 12 Go

SmartMedia37 x 45 x 0,8

1 265 2 22 2 Mo/s 128 Mo 128 Mo

MMC24 x 32 x 1,4

1 075 1,3 7 20 Mo/s 128 Go 8 Go

MMC Plus24 x 32 x 1,4

1 075 1,3 7 52 Mo/s 128 Go 4 Go

RS-MMC MMC Mobile

24 x 16 x 1,4

538 1,3 13 8 Mo/s 128 Go 2 Go

MMC Micro14 x 12 x 1,1

185 < 1 13 128 Go 2 Go

Memory Stick Standard, Pro

21,5 x 50 x 2,8

3 010 4 10 2 Mo/s 128 Mo 128 Mo

Memory Stick Duo,

20 x 31 x 1,6

992 2 10 20 Mo/s 32 Go 16 Go

Page 40: 133810711-informatique.pdf

Pro Duo

Memory Stick Pro-HG

20 x 31 x 1,6

992 2 10 60 Mo/s 32 Go 32 Go

Memory Stick Micro M2

12,5 x 15 x 1,2

225 2 10 20 Mo/s 32 Go 8 Go

SD24 x 32 x 2,1

1 613 2 9 20 Mo/s 32 Go 32 Go

mini SD20 x 21,5 x 1,4

602 1 11 12 Mo/s 32 Go 4 Go

micro SD 15 x 11 x 1 165 0,3 8 10 Mo/s 32 Go 12 Go

xD25 x 20 x 1,8

890 2,8 18 9 Mo/s 8 Go 2 Go

Lecteurs de cartes mémoire

Il est à noter l'existence de lecteurs de cartes mémoire multi-formats pouvant être connectés la plupart du

temps sur un port USB.

Carte mémoire Compact Flash

Compact Flash

La mémoire Compact Flash (notée parfois CF) est un type de carte mémoire créé en 1994 par la

firmeSanDisk. La mémoire Compact Flash est constituée d'un contrôleur mémoire et de mémoire flash

contenues dans un boîtier de faible dimension (42.8mm de largeur et 36.4mm de hauteur), de taille

inférieure à une petite boite d'allumettes, et pesant 11.4 grammes.

Il existe deux types de cartes Compact Flash de dimensions différentes :

• Les cartes Compact Flash type I, possédant une épaisseur de 3.3mm ;

• Les cartes Compact Flash type II, possédant une épaisseur de 5mm.

Page 41: 133810711-informatique.pdf

Les cartes CompactFlash sont conformes à la norme PCMCIA/ATA si ce n'est que le connecteur

possède 50 broches au lieu des 68 broches des cartes PCMCIA. Ainsi il est possible d'enficher une carte

CompactFlash dans un emplacement PCMCIA passif de type II.

La version CF+ permet un débit de 16 Mo/s (voire 66 Mo/s) et une capacité de 137 Go.

Memory Stick (MS Card)

Memory stick

La mémoire Memory Stick (notée MS ou MS Card) est un type de carte mémoire créé conjointement par

Sony et SanDisk en janvier 2000.

L'architecture des cartes Memory Stick est basée sur des circuits de mémoire flash (EEPROM) de type

NAND.

La mémoire Memory stick possède de petites dimensions (21.5mm x 50.0mm x 2.8mm), équivalentes à

celles d'une petite boîte d'allumettes, et pèse à peine 4 grammes.

L'accès aux données est réalisée par l'intermédiaire d'un connecteur latéral possédant 10 broches,

permettant d'atteindre un taux de transfert de 14.4 Mb/s et jusqu'à 19.6 Mb/s en pointe.

Il existe deux types de cartes Memory Stick, la mémoire Memory Stick dite «normale» et la mémoire

«Magic Gate» permettant la protection des fichiers protégés par droit d'auteur.

Ce format a été remplacé par le Memory Stick Duo de dimensions plus petites (31 x 20 x 1,6 mm).

Cartes MMC (Multimedia Card)

Page 42: 133810711-informatique.pdf

MMC - Multimedia Card

La mémoire Multimedia Card (notée MMC) est un type de carte mémoire créé conjointement

parSanDisk et Siemens en novembre 1997.

Son architecture est basée sur une combinaison de mémoire morte (ROM) pour les applications en

lecture seule et de mémoire flash pour les besoins en lecture/écriture.

La mémoire MMC possède de très petites dimensions (24.0mm x 32.0mm x 1.4mm), équivalentes à

celles d'un timbre poste, et pèse à peine 2.2 grammes.

Il existe deux types de cartes MMC possédant des voltages différents :

• Les cartes MMC 3.3V, possédant une encoche à gauche

• Les cartes MMC 5V, possédant une encoche à droite

L'accès aux données est réalisée par l'intermédiaire d'un connecteur latéral possédant 7 broches,

permettant d'atteindre un taux de transfert de 2 Mb/s, et potentiellement jusqu’à 2.5 MB/s.

Carte SD / SD Card (Secure Digital)

Secure Digital

La mémoire Secure Digital (notée SD ou SD Card) est un type de carte mémoire créé par Matsushita

Electronic, SanDisk et Toshiba en janvier 2000. La mémoire Secure Digital est une mémoire

spécifiquement développée pour répondre aux exigences de sécurité nouvellement apparues dans les

domaines des dispositifs électroniques audio et vidéo. Elle inclut ainsi un mécanisme de protection

dudroit d'auteur qui répond au standard SDMI (Secure Digital Music Initiative).

L'architecture des cartes SD est basée sur des circuits de mémoire flash (EEPROM) de type NAND.

La mémoire Secure Digital possède de très petites dimensions (24.0mm x 32.0mm x 2.1mm),

équivalentes à celles d'un timbre poste, et pèse à peine 2 grammes.

Page 43: 133810711-informatique.pdf

L’accès aux données est réalisé par l’intermédiaire d’un connecteur latéral possédant 9 broches,

permettant d’atteindre un taux de transfert maximal de 10 Mo/s pour la norme 1.01, et de 22,5 Mo/s pour

la norme 1.1.

Le temps d’accès à la mémoire SD est d’environ 25 µs pour le premier accès et de cycles de 50 ns pour

les suivants.

La norme SDHC (High Capacity) ou SD 2.0 permet de construire des cartes de plus de 4 Go. De mêmes

dimensions que les SD classiques, les SDHC utilisent un mode d’adressage différent, ce qui empêche

leur utilisation sur du matériel non compatible HC.

Carte SmartMedia

SmartMedia

La mémoire SmartMedia est un type de carte mémoire créé par Toshiba et Samsung.

Son architecture est basée sur des circuits de mémoire flash (EEPROM) de type NAND

La mémoire SmartMedia possède de très petites dimensions (45.0mm x 37.0mm x 0.76mm),

équivalentes à celles d'un timbre poste, et pèse à peine 2 grammes.

Il existe deux types de cartes SmartMedia possédant des voltages différents :

• Les cartes SmartMedia 3.3V possèdent une encoche à droite

• Les cartes SmartMedia 5V possèdent une encoche à gauche

Page 44: 133810711-informatique.pdf

L'accès aux données est réalisé par l'intermédiaire d'une puce possédant 22 broches. Quelle que soit la

capacité de la carte Smartmedia, les dimensions et l'emplacement de la puce sont les mêmes.

Le temps d'accès à la mémoire est d'environ 25µs pour le premier accès et de cycles de 50 ns pour les

suivants.

Compatibilité

Il existe des adaptateurs permettant d'insérer une carte SmartMedia dans un emplacement PCMCIA, afin

de permettre le transfert des données directement d'une carte SmartMedia vers un ordinateur portable.

Ce format n’est plus fabriqué et est désormais remplacé par le SD ou le xD.

Carte xD Picture Card

xD Picture card

La mémoire xD Picture (pour eXtreme Digital) est un type de carte mémoire créé par Fuji et Olympus en

août 2002.

L'architecture des cartes xD est basée sur des circuits de mémoire flash (EEPROM) de type NAND.

La mémoire xD picture card possède de très petites dimensions (20.0mm x 25.0mm x 1.7mm), plus

petites que celles d'un timbre poste, et pèse à peine 2 grammes.

L'accès aux données est réalisée par l'intermédiaire d'un connecteur latéral possédant 18 broches,

permettant d'atteindre un taux de transfert de 1.3 Mb/s et potentiellement jusqu’à 3 MB/s en écriture et

d'environ 5 Mb/s en lecture.

Les cartes xD Picture sont prévues pour atteindre, à terme, une capacité de 8 Go.

Qu'est-ce qu'un bus informatique ?

Page 45: 133810711-informatique.pdf

Introduction à la notion de bus

On appelle bus, en informatique, un ensemble de liaisons physiques (câbles, pistes de circuits imprimés,

etc.) pouvant être exploitées en commun par plusieurs éléments matériels afin de communiquer.

Les bus ont pour but de réduire le nombre de « voies » nécessaires à la communication des différents

composants, en mutualisant les communications sur une seule voie de données. C'est la raison pour

laquelle la métaphore d'« autoroute de données » est parfois utilisée.

Dans le cas où la ligne sert uniquement à la communication de deux composants matériels, on parle

deport matériel (port série, port parallèle, etc.).

Caractéristiques d'un bus

Un bus est caractérisé par le volume d'informations transmises simultanément. Ce volume, exprimé

enbits, correspond au nombre de lignes physiques sur lesquelles les données sont envoyées de manière

simultanée. Une nappe de 32 fils permet ainsi de transmettre 32 bits en parallèle. On parle ainsi de

«largeur » pour désigner le nombre de bits qu'un bus peut transmettre simultanément.

D'autre part, la vitesse du bus est également définie par sa fréquence (exprimée en Hertz), c'est-à-dire le

nombre de paquets de données envoyés ou reçus par seconde. On parle de cycle pour désigner chaque

envoi ou réception de données.

De cette façon, il est possible de connaître le débit maximal du bus (ou taux de transfert maximal), c'est-

à-dire la quantité de données qu'il peut transporter par unité de temps, en multipliant sa largeur par sa

fréquence. Un bus d'une largeur de 16 bits, cadencé à une fréquence de 133 MHz possède donc un débit

égal à :

16 * 133.106 = 2128*106 bit/s,

soit 2128*106/8 = 266*106 octets/s

soit 266*106 /1000 = 266*103 Ko/s

soit 259.7*103 /1000 = 266 Mo/s

Sous-ensembles de bus

En réalité chaque bus est généralement constitué de 50 à 100 lignes physiques distinctes, classées en

trois sous-ensembles fonctionnels :

• Le bus d'adresses (appelé parfois bus d'adressage ou bus mémoire) transporte les adresses

mémoire auxquelles le processeur souhaite accéder pour lire ou écrire une donnée. Il s'agit d'un bus

unidirectionnel.

• Le bus de données véhicule les instructions en provenance ou à destination du processeur. Il

s'agit d'un bus bidirectionnel.

• Le bus de contrôle (parfois bus de commandes) transporte les ordres et les signaux de

synchronisation en provenance de l’unité de commande et à destination de l'ensemble des

composants matériels. Il s'agit d'un bus directionnel dans la mesure où il transmet également les

signaux de réponse des éléments matériels.

Page 46: 133810711-informatique.pdf

Les principaux bus

On distingue généralement sur un ordinateur deux principaux bus :

• le bus système (appelé aussi bus interne, en anglais internal bus ou front-side bus, noté FSB).

Le bus système permet au processeur de communiquer avec la mémoire centrale du système

(mémoire vive ou RAM).

• le bus d'extension (parfois appelé bus d'entrée/sortie) permet aux divers composants de la

carte-mère (USB, série, parallèle, cartes branchées sur les connecteurs PCI, disques durs, lecteurs et

graveurs de CD-ROM, etc.) de communiquer entre eux mais il permet surtout l'ajout de nouveaux

périphériques grâce aux connecteurs d'extension (appelés slots) connectés sur le bus d'entrées-

sorties.

Le chipset

On appelle chipset (en français jeu de composants) l'élément chargé d'aiguiller les informations entre les

différents bus de l'ordinateur afin de permettre à tous les éléments constitutifs de l'ordinateur de

communiquer entre eux. Le chipset était originalement composé d'un grand nombre de composants

électroniques, ce qui explique son nom. Il est généralement composé de deux éléments :

• Le NorthBridge (Pont Nord ou Northern Bridge, appelé également contrôleur mémoire) est

chargé de contrôler les échanges entre le processeur et la mémoire vive, c'est la raison pour laquelle

il est situé géographiquement proche du processeur. Il est parfois appelé GMCH, pour Graphic and

Memory Controller Hub.

• Le SouthBridge (Pont Sud ou Southern Bridge, appelé également contrôleur d'entrée-

sortie oucontrôleur d'extension) gère les communications avec les périphériques d'entrée-sortie. Le

pont sud est également appelé ICH (I/O Controller Hub).

On parle généralement de bridge (en français pont) pour désigner un élément d'interconnexion entre

deux bus.

Il est intéressant de noter que, pour communiquer, deux bus ont besoin d'avoir la même largeur. Cela

explique pourquoi les barrettes de mémoire vive doivent parfois être appariées sur certains systèmes (par

Page 47: 133810711-informatique.pdf

exemple sur les premiers Pentium, dont la largeur du bus processeur était de 64 bits, il était nécessaire

d'installer des barrettes mémoire d'une largeur de 32 bits par paire).

Voici un tableau récapitulant les caractéristiques des principaux bus :

NormeLargeur du bus (bits)

Vitesse du bus (MHz)

Bande passante (Mo/sec)

ISA 8-bit 8 8.3 7.9

ISA 16-bit 16 8.3 15.9

EISA 32 8.3 31.8

VLB 32 33 127.2

PCI 32-bit 32 33 127.2

PCI 64-bit 2.1 64 66 508.6

AGP 32 66 254.3

AGP(x2 Mode) 32 66x2 528

AGP(x4 Mode) 32 66x4 1056

AGP(x8 Mode) 32 66x8 2112

ATA33 16 33 33

ATA100 16 50 100

ATA133 16 66 133

Serial ATA (S-ATA) 1 180

Serial ATA II (S-ATA2) 2 380

USB 1 1.5

USB 2.0 1 60

Firewire 1 100

Firewire 2 1 200

SCSI-1 8 4.77 5

SCSI-2 - Fast 8 10 10

Page 48: 133810711-informatique.pdf

SCSI-2 - Wide 16 10 20

SCSI-2 - Fast Wide 32 bits

32 10 40

SCSI-3 - Ultra 8 20 20

SCSI-3 - Ultra Wide 16 20 40

SCSI-3 - Ultra 2 8 40 40

SCSI-3 - Ultra 2 Wide 16 40 80

SCSI-3 - Ultra 160 (Ultra 3)

16 80 160

SCSI-3 - Ultra 320 (Ultra 4)

16 80 DDR 320

SCSI-3 - Ultra 640 (Ultra 5)

16 80 QDR 640

Les bus ISA, MCA et VLB

Bus d'extension

On appelle bus d'extension (parfois Bus de périphérique ou en anglais expansion bus) les bus possédant

des connecteurs permettant d'ajouter des cartes d'extension (périphériques) à l'ordinateur. Il existe

différents types de bus internes normalisés caractérisés par :

• leur forme,

• le nombre de broches de connexion,

• le type de signaux (fréquence, données, etc).

Le bus ISA

La version originale du bus ISA (Industry Standard Architecture), apparue en 1981 avec le PC XT, était

un bus d'une largeur de 8 bits cadencé à une fréquence de 4,77 MHz.

En 1984, avec l'apparition du PC AT (processeur Intel 286), la largeur du bus est passée à 16 bits et la

fréquence successivement de 6 à 8 MHz, puis finalement 8,33 MHz, offrant ainsi un débit théorique

maximal de 16 Mo/s (en pratique seulement 8 Mo/s dans la mesure où un cycle sur deux servait à

l'adressage).

Le bus ISA permettait le bus mastering, c'est-à-dire qu'il permettait de communiquer directement avec

les autres périphériques sans passer par le processeur. Une des conséquences du bus mastering est

l'accès direct à la mémoire (DMA, pour Direct Memory Access). Toutefois le bus ISA ne permettait

d'adresser que les 16 premiers mégaoctets de la mémoire vive.

Jusqu'à la fin des années 1990 le bus ISA équipait la quasi-totalité des ordinateurs de type PC, puis il a

été progressivement remplacé par le bus PCI, offrant de meilleures performances.

• Connecteur ISA 8 bits :

Page 49: 133810711-informatique.pdf

• Connecteur ISA 16 bits :

Le bus MCA

Le bus MCA (Micro Channel Architecture) est un bus propriétaire amélioré conçu par IBM en 1987 afin

d'équiper leur gamme d'ordinateurs PS/2. Ce bus, d'une largeur de 16 et 32 bits, était incompatible avec

le bus ISA et permettait d'obtenir un taux de transfert de 20 Mo/s.

Le bus EISA

Le bus EISA (Extended Industry Standard Architecture), a été mis au point en 1988 par un consortium de

sociétés (AST, Compaq, Epson, Hewlett-Packard, NEC, Olivetti, Tandy, Wyse and Zenith), afin de

concurrencer le bus propriétaire MCA lancé par IBM l'année précédente. Le bus EISA utilisait des

connecteurs de même dimension que le connecteur ISA, mais avec 4 rangées de contacts au lieu de 2,

permettant ainsi un adressage sur 32 bits.

Les connecteurs EISA étaient plus profonds et les rangées de contacts supplémentaires étaient placées

en dessous des rangées de contacts ISA. Il était ainsi possible d'enficher une carte ISA dans un

connecteur EISA. Elle rentrait cependant moins profondément dans le connecteur (grâce à des ergots) et

n'utilisait ainsi que les rangées de contacts supérieures (ISA).

Notion de bus local

Les bus d'entrée-sortie traditionnels, tels que le bus ISA, MCA ou EISA, sont directement reliés au bus

principal et sont donc forcés de fonctionner à la même fréquence, or certains périphériques d'entrée-

sortie nécessitent une faible bande passante tandis que d'autres ont besoin de débits plus élevés : il

existe donc des goulots d'étranglement sur le bus (en anglais le terme « bottleneck », littéralement

« goulot de bouteille » est couramment utilisé). Afin de remédier à ce problème l'architecture dite de

« bus local » (en anglais local bus) propose de tirer partie de la vitesse du bus processeur (FSB) en

s'interfaçant directement sur ce dernier.

Le bus VLB

En 1992 le bus local VESA (VLB pour VESA Local Bus) a été mis au point par l'association VESA(Video

Electronics Standard Association sous l'égide de la société NEC) afin de proposer un bus local dédié aux

systèmes graphiques. Il s'agit d'un connecteur ISA 16-bits auquel vient s'ajouter un connecteur

supplémentaire de 16 bits :

Le bus VLB est ainsi un bus 32-bit prévu initialement pour fonctionner à une fréquence de 33 MHz

(fréquence des premiers PC 486 de l'époque). Le bus local VESA a été utilisé sur les modèles suivants

de 486 (respectivement 40 et 50 MHz) ainsi que sur les tout premiers Pentium, mais il a rapidement été

remplacé par le bus PCI.

Bus PCI

Page 50: 133810711-informatique.pdf

Le bus PCI

Le bus PCI (Peripheral Component Interconnect) a été mis au point par Intel le 22 juin 1992.

Contrairement au bus VLB il ne s'agit pas à proprement parler d'un bus local mais d'un bus intermédiaire

situé entre le bus processeur (NorthBridge) et le bus d'entrées-sorties (SouthBridge).

Connecteurs PCI

Les connecteurs PCI sont généralement présents sur les cartes mères au nombre de 3 ou 4 au minimum

et sont en général reconnaissables par leur couleur blanche (normalisée).

L'interface PCI existe en 32 bits, avec un connecteur de 124 broches, ou en 64 bits, avec un connecteur

de 188 broches. Il existe également deux niveaux de signalisation :

• 3.3V, destiné aux ordinateurs portables ;

• 5V, destiné aux ordinateurs de bureau.

La tension de signalisation ne correspond pas à la tension d'alimentation de la carte mais aux seuils de

tension pour le codage numérique de l'information.

Il existe 2 types de connecteurs 32 bits :

• Connecteur PCI 32 bits, 5 V :

• Connecteur PCI 32 bits, 3.3 V :

Les connecteurs PCI 64 bits proposent des broches supplémentaires, mais peuvent néanmoins accueillir

les cartes PCI 32 bits. Il existe 2 types de connecteurs 64 bits :

• Connecteur PCI 64 bits, 5 V :

• Connecteur PCI 64 bits, 3.3 V :

Interopérabilité

D'une manière générale, il n'est pas possible de se tromper lors du branchement d'une carte PCI dans un

emplacement PCI. En effet, dans la mesure où la carte s'enfiche correctement, elle est compatible, dans

le cas contraire des détrompeurs empêcheront son installation.

Page 51: 133810711-informatique.pdf

Il existe des cartes d'extension possédant des connecteurs dits « universels « (en anglais universal),

c'est-à-dire possédant les deux types de détrompeurs (deux encoches). Ces cartes d'extension sont

capables de détecter la tension de signalisation et de s'y adapter et peuvent ainsi être insérées

indépendamment dans des emplacements 3.3 V ou 5 V.

Révisions du bus

Le bus PCI, dans sa version initiale, possède une largeur de 32 bits et est cadencé à 33 MHz ce qui lui

permet d'offrir un débit théorique de 132 Mo/s en 32 bits. Sur les architectures 64 bits le bus fonctionne à

64 bits et propose un taux de transfert théorique de 264 Mo/s

Un groupement d'intérêt constitué d'un grand nombre de constructeurs, baptisé PCI-SIG (PCI Special

Interests Group), a vu le jour afin de faire évoluer le standard PCI. Des révisions du bus ont ainsi été

publiées. La version 2.0 du 30 avril 1993 définit la géométrie des connecteurs et des cartes additionnelles

et lui permet d'être cadencé à 66 MHz, contre 33 MHz pour la version 1.0, et double ainsi son taux de

transfert théorique, pour atteindre 266 Mo/s en 32 bits.

Le 1er juin 1995, la révision 2.1 du bus PCI améliore son utilisation à 66 MHz. Les ingénieurs prévoient à

cette époque une évolution progressive de la tension de signalisation de 5 V vers une signalisation en 3.3

V.

La version 2.2 du bus PCI, parue le 18 décembre 1998, permet le branchement à chaud des

périphériques (hot plug).

La révision 2.3, éditée le 29 mars 2002, supprime la possibilité d'utiliser des cartes additionnelles 5V,

mais gard la possibilité d'utiliser des cartes supportant les deux tensions pour assurer une compatibilité

descendante. La révision 3.0 du standard PCI supprime toute possibilité d'utiliser des cartes compatibles

5V.

En septembre 1999, une évolution majeure du bus PCI voit le jour, baptisée PCI-X. Le bus PCI-X 1.0

supporte des fréquences de 66, 100 et 133 MHz. Le bus PCI-X est pleinement compatible avec le format

PCI et permet ainsi d'utiliser des cartes additionnelles au format PCI conventionnel dans des

emplacements PCI-X et vice-versa.

La révision 2.0 du bus PCI-X supporte des fréquence de 66, 100, 133, 266 et 533 MHz et permet

d'atteindre des débits de l'ordre de 4.27 Go/s en 64 bits.

Le tableau ci-dessous récapitule les différentes révisions du bus PCI :

Révision

Date de sortie

Fréquence

VoltageLargeur

PCI 1.0 1992 33 MHz Néant32 bits 133 Mo/s

64 bits 266 Mo/s

PCI 2.0 1993 33 MHz 3.3 V / 5 V32 bits 132 Mo/s

64 bits 264 Mo/s

PCI 2.1 199533 MHz 3.3 V / 5 V

32 bits 132 Mo/s

64 bits 264 Mo/s

66 MHz 3.3 V 32 bits 264 Mo/s

Page 52: 133810711-informatique.pdf

64 bits 528 Mo/s

PCI 2.2 1998

33 MHz 3.3 V / 5 V32 bits 132 Mo/s

64 bits 264 Mo/s

66 MHz 3.3 V32 bits 264 Mo/s

64 bits 528 Mo/s

PCI 2.3 2002

33 MHz 3.3 V / 5 V32 bits 132 Mo/s

64 bits 264 Mo/s

66 MHz 3.3 V32 bits 264 Mo/s

64 bits 528 Mo/s

PCI-X 1.0

1999

66 MHz 3.3 V32 bits 264 Mo/s

64 bits 528 Mo/s

100 MHz 3.3 V32 bits 400 Mo/s

64 bits 800 Mo/s

133 MHz 3.3 V32 bits 532 Mo/s

64 bits 1064 Mo/s

PCI-X 2.0

200266 MHz 3.3 V

32 bits 264 Mo/s

64 bits 528 Mo/s

100 MHz 3.3 V32 bits 400 Mo/s

64 bits 800 Mo/s

133 MHz 3.3 V32 bits 532 Mo/s

64 bits 1064 Mo/s

266 MHz3.3 V / 1.5 V

32 bits 1064 Mo/s

64 bits 2128 Mo/s

533 MHz 3.3 V / 1.5 V

32 bits 2128 Mo/s

64 bits 4256 Mo/s

Page 53: 133810711-informatique.pdf

Bus AGP

Présentation du bus AGP

Le bus AGP (sigle de Accelerated Graphics Port, soit littéralement port graphique accéléré) est apparu en

Mai 1997, sur des chipsets à base de «Slot One», puis est apparu par la suite sur des supports à base de

Super 7 afin de permettre de gérer les flux de données graphiques devenant trop importants pour le bus

PCI. Ainsi le bus AGP est directement relié au bus processeur (FSB, Front Side Bus) et bénéficie de la

même fréquence, donc d'une bande passante élevée.

L'interface AGP a été mise au point spécifiquement pour la connexion de la carte graphique en lui

ouvrant un canal direct d'accès à la mémoire (DMA, Direct Memory Access), sans passer par

le contrôleur d'entrée-sortie. Les cartes utilisant ce bus graphique ont donc théoriquement besoin de

moins de mémoire embarquée, puisqu'elles peuvent accéder directement aux données graphiques (par

exemple des textures) stockées dans la mémoire centrale, leur coût de revient est donc théoriquement

plus faible.

La version 1.0 du bus AGP, travaillant à une tension de 3.3 V, propose un mode 1X permettant d'envoyer

8 octets tous les deux cycles ainsi qu'un mode 2x permettant le transfert de 8 octets par cycle.

En 1998 la version 2.0 du bus AGP a apporté un mode AGP 4X permettant l'envoi de 16 octets par cycle.

La version 2.0 du bus AGP étant alimentée à une tension de 1.5 V, des connecteurs dits "universels"

(AGP 2.0 universal) sont apparus, supportant les deux tensions.

La version 3.0 du bus AGP, apparue en 2002, a permis de doubler le débit de l'AGP 2.0 en proposant un

mode AGP 8x.

Caractéristiques du bus AGP

Le port AGP 1X est cadencé à 66 MHz, contre 33 MHz pour le bus PCI, ce qui lui offre un débit de 264

Mo/s (contre 132 Mo/s à partager entre les différentes cartes pour le bus PCI), soit de bien meilleures

performances, notamment pour l'affichage de scènes 3D complexes.

Avec l'apparition du port AGP 4X, le débit est passé à 1 Go/s. Cette génération de carte est alimentée en

25 W. La génération de carte suivante se nomme AGP Pro et est alimentée en 50W.

La norme AGP Pro 8x propose un débit de 2 Go/s.

Les débits des différentes normes AGP sont les suivants :

• AGP 1X : 66,66 MHz x 1(coef.) x 32 bits /8 = 266.67 Mo/s

• AGP 2X : 66,66 MHz x 2(coef.) x 32 bits /8 = 533.33 Mo/s

• AGP 4X : 66,66 MHz x 4(coef.) x 32 bits /8 = 1,06 Go/s

• AGP 8X : 66,66 MHz x 8(coef.) x 32 bits /8 = 2,11 Go/s

Page 54: 133810711-informatique.pdf

Il est à noter que les différentes normes AGP conservent une compatibilité ascendante, c'est-à-dire qu'un

emplacement AGP 8X pourra accueillir des cartes AGP 4X ou AGP 2X.

Connecteurs AGP

Les cartes mères récentes sont équipées d'un connecteur AGP général reconnaissable par sa couleur

marron (normalisée). Il existe trois types de connecteurs :

• Connecteur AGP 1,5 volts :

• Connecteur AGP 3,3 volts :

• Connecteur AGP universel :

Récapitulatif

Voici un tableau récapitulant les caractéristiques des différentes caractéristiques des versions et modes

AGP :

AGP Tension Mode

AGP 1.0 3.3 V 1x, 2x

AGP 2.0 1.5 V1x, 2x, 4x

AGP 2.0 universal

1.5 V, 3.3 V

1x, 2x, 4x

AGP 3.0 1.5 V 4x, 8x

Bus PCI Express (PCI-E)

Le bus PCI Express

Le bus PCI Express (Peripheral Component Interconnect Express, noté PCI-E ou 3GIO pour «Third

Generation I/O»), est un bus d'interconnexion permettant l'ajout de cartes d'extension dans l'ordinateur.

Page 55: 133810711-informatique.pdf

Le bus PCI Express a été mis au point en juillet 2002. Contrairement au bus PCI, qui fonctionne en

interfaceparallèle, le bus PCI Express fonctionne en interface série, ce qui lui permet d'obtenir une bande

passante beaucoup plus élevée que ce dernier.

Caractéristiques du bus PCI Express

Le bus PCI Express se décline en plusieurs versions, 1X, 2X, 4X, 8X, 12X, 16X et 32X, permettant

d'obtenir des débits compris entre 250 Mo/s et 8 Go/s, soit près de 4 fois le débit maximal des ports AGP

8X. Ainsi, avec un coût de fabrication similaire à celui du port AGP, le bus PCI Express est amené à le

remplacer progressivement.

Connecteurs PCI Express

Les connecteurs PCI Express sont incompatibles avec les anciens connecteurs PCI et possèdent des

tailles variables et une plus faible consommation électrique. Une des caractéristiques intéressantes du

bus PCI Express est la possibilité de brancher ou débrancher des composants à chaud, c'est-à-dire sans

éteindre ou redémarrer la machine. Les connecteurs PCI Express sont reconnaissables grâce à leur

petite taille et leur couleur anthracite :

• Le connecteur PCI Express 1X possède 36 connecteurs et est destiné à un usage d'entrées-

sorties à haut débit :

• Le connecteur PCI Express 4X possède 64 connecteurs et est destiné à un usage sur serveurs :

• Le connecteur PCI Express 8X possède 98 connecteurs et est destiné à un usage sur serveurs :

• Le connecteur PCI Express 16X possède 164 connecteurs, et mesure 89 mm de long et a

vocation à servir de port graphique :

Le standard PCI Express a également vocation à supplanter la technologie PC Card sous la forme de

connecteurs « PCI Express Mini Card ». De plus, contrairement aux connecteurs PCI dont l'usage était

Page 56: 133810711-informatique.pdf

limité à la connectique interne, le standard PCI Express permet de connecter des périphériques externes

à l'aide de câbles. Pour autant il ne se positionne pas en concurrence des ports USB ou FireWire.

Port série et port parallèle

Introduction aux ports d'entrée-sortie

Les ports d'entrée-sortie sont des éléments matériels de l'ordinateur, permettant au système de

communiquer avec des éléments extérieurs, c'est-à-dire d'échanger des données, d'où l'appellation

d'interface d'entrée-sortie (notée parfois interface d'E/S).

Port série

Les ports série (également appelés RS-232, nom de la norme à laquelle ils font référence) représentent

les premières interfaces ayant permis aux ordinateurs d'échanger des informations avec le "monde

extérieur". Le terme série désigne un envoi de données via un fil unique : les bits sont envoyés les uns à

la suite des autres (reportez-vous à la section transmission de données pour un cours théorique sur les

modes de transmission).

A l'origine les ports série permettaient uniquement d'envoyer des données, mais pas d'en recevoir, c'est

pourquoi des ports bidirectionnels ont été mis au point (ceux qui équipent les ordinateurs actuels le sont);

les ports séries bidirectionnels ont donc besoin de deux fils pour effectuer la communication.

La communication série se fait de façon asynchrone, cela signifie qu'aucun signal de synchronisation

(appelé horloge) n'est nécessaire: les données peuvent être envoyées à intervalle de temps arbitraire. En

contrepartie, le périphérique doit être capable de distinguer les caractères (un caractère a une longueur

de 8 bits) parmi la suite de bits qui lui est envoyée.

C'est la raison pour laquelle dans ce type de transmission, chaque caractère est précédé d'un bit de

début (appelé bit START) et d'un bit de fin (bit STOP). Ces bits de contrôle, nécessaires pour une

transmission série, gaspillent 20% de la bande passante (pour 10 bits envoyés, 8 servent à coder le

caractère, 2 servent à assurer la réception).

Les ports série sont généralement intégrés à la carte mère, c'est pourquoi des connecteurs présents à

l'arrière du boîtier, et reliés à la carte mère par une nappe de fils, permettent de connecter un élément

extérieur. Les connecteurs séries possèdent généralement 9 ou 25 broches et se présentent sous la

forme suivante (respectivement connecteurs DB9 et DB25) :

Un ordinateur personnel possède généralement de un à quatre ports séries.

Page 57: 133810711-informatique.pdf

Port parallèle

La transmission de données en parallèle consiste à envoyer des données simultanément sur plusieurs

canaux (fils). Les ports parallèle présents sur les ordinateurs personnels permettent d'envoyer

simultanément 8 bits (un octet) par l'intermédiaire de 8 fils.

Les premiers ports parallèles bidirectionnels permettaient d'atteindre des débits de l'ordre de 2.4Mb/s.

Toutefois des ports parallèles améliorés ont été mis au point afin d'obtenir des débits plus élevés :

• Le port EPP (Enhanced Parralel Port, port parallèle amélioré) a permis d'atteindre des débits de

l'ordre de 8 à 16 Mbps

• Le port ECP (Enhanced Capabilities Port, port à capacités améliorées), mis au point par Hewlett

Packard et Microsoft. Il reprend les caractéristiques du port EPP en lui ajoutant un support Plug and

Play, c'est-à-dire la possibilité pour l'ordinateur de reconnaître les périphériques branchés

Les ports parallèles sont, comme les ports série, intégrés à la carte mère. Les connecteurs DB25

permettent de connecter un élément extérieur (une imprimante par exemple).

Le bus USB (Universal Serial Bus)

Présentation du bus USB

Le bus USB (Universal Serial Bus, en français Bus série universel) est, comme son nom l'indique, basé

sur une architecture de type série. Il s'agit toutefois d'une interface entrée-sortie beaucoup plus rapide

que les ports série standards. L'architecture qui a été retenue pour ce type de port est en série pour deux

raisons principales :

• l'architecture série permet d'utiliser une cadence d'horloge beaucoup plus élevée qu'une interface

parallèle, car celle-ci ne supporte pas des fréquences trop élevées (dans une architecture à haut

débit, les bits circulant sur chaque fil arrivent avec des décalages, provoquant des erreurs) ;

• les câbles série coûtent beaucoup moins cher que les câbles parallèles.

Les normes USB

Ainsi, dès 1995, le standard USB a été élaboré pour la connexion d’une grande variété de périphériques.

Le standard USB 1.0 propose deux modes de communication :

• 12 Mb/s en mode haute vitesse,

• 1.5 Mb/s à basse vitesse.

Page 58: 133810711-informatique.pdf

Le standard USB 1.1 apporte quelques clarifications aux constructeurs de périphériques USB mais ne

modifie en rien le débit. Les périphériques certifiés USB 1.1 portent le logo suivant :

La norme USB 2.0 permet d'obtenir des débits pouvant atteindre 480 Mbit/s. Les périphériques certifiés

USB 2.0 portent le logo suivant :

En l'absence de logo la meilleure façon de déterminer s'il s'agit de périphériques USB à bas ou haut débit

est de consulter la documentation du produit dans la mesure où les connecteurs sont les mêmes.

La compatibilité entre périphériques USB 1.0, 1.1 et 2.0 est assurée. Toutefois l'utilisation d'un

périphérique USB 2.0 sur un port USB à bas débit (i.e. 1.0 ou 1.1), limitera le débit à 12 Mbit/s maximum.

De plus, le système d'exploitation est susceptible d'afficher un message expliquant que le débit sera

bridé.

Types de connecteurs

Il existe deux types de connecteurs USB :

• Les connecteurs dits de type A, dont la forme est rectangulaire et servant généralement pour des

périphériques peu gourmands en bande passante (clavier, souris, webcam, etc.) ;

• Les connecteurs dits de type B, dont la forme est carrée et utilisés principalement pour des

périphériques à haut débit (disques durs externes, etc.).

• 1. Alimentation +5V (VBUS) 100mA maximum

• 2. Données (D-)

• 3. Données (D+)

• 4. Masse (GND)

Page 59: 133810711-informatique.pdf

Fonctionnement du bus USB

L’architecture USB a pour caractéristique de fournir l’alimentation électrique aux périphériques qu’elle

relie, dans la limite de 15 W maximum par périphérique. Elle utilise pour cela un câble composé de quatre

fils (la masse GND, l’alimentation VBUS et deux fils de données appelés D- et D+).

La norme USB permet le chaînage des périphériques, en utilisant une topologie en bus ou en étoile. Les

périphériques peuvent alors être soit connectés les uns à la suite des autres, soit ramifiés.

La ramification se fait à l’aide de boîtiers appelés « hubs » (en français concentrateurs), comportant une

seule entrée et plusieurs sorties. Certains sont actifs (fournissant de l’énergie électrique), d’autres passifs

(alimentés par l'ordinateur).

La communication entre l’hôte (l’ordinateur) et les périphériques se fait selon un protocole (langage de

communication) basé sur le principe de l’anneau à jeton (token ring). Cela signifie que la bande passante

est partagée temporellement entre tous les périphériques connectés. L’hôte (l'ordinateur) émet un signal

de début de séquence chaque milliseconde (ms), intervalle de temps pendant lequel il va donner

simultanément la « parole » à chacun d’entre eux. Lorsque l’hôte désire communiquer avec un

périphérique, il émet un jeton (un paquet de données, contenant l’adresse du périphérique, codé sur 7

bits) désignant un périphérique, c'est donc l'hôte qui décide du « dialogue » avec les périphériques. Si le

périphérique reconnaît son adresse dans le jeton, il envoie un paquet de données (de 8 à 255 octets) en

réponse, sinon il fait suivre le paquet aux autres périphériques connectés. Les données ainsi échangées

sont codées selon le codage NRZI.

Puisque l’adresse est codée sur 7 bits, 128 périphériques (2^7) peuvent être connectés simultanément à

un port de ce type. Il convient en réalité de ramener ce chiffre à 127 car l’adresse 0 est une adresse

réservée. (cf plus loin).

Page 60: 133810711-informatique.pdf

A raison d'une longueur de câble maximale entre deux périphériques de 5 mètres et d'un nombre

maximal de 5 hubs (alimentés), il est possible de créer une chaîne longue de 25 mètres !

Les ports USB supportent le Hot plug and play. Ainsi, les périphériques peuvent être branchés sans

éteindre l’ordinateur (branchement à chaud, en anglais hot plug). Lors de la connexion du périphérique

à l’hôte, ce dernier détecte l’ajout du nouvel élément grâce au changement de la tension entre les fils D+

et D-. A ce moment, l’ordinateur envoie un signal d’initialisation au périphérique pendant 10 ms, puis lui

fournit du courant grâce aux fils GND et VBUS (jusqu’à 100mA). Le périphérique est alors alimenté en

courant électrique et récupère temporairement l’adresse par défaut (l’adresse 0). L’étape suivante

consiste à lui fournir son adresse définitive (c’est la procédure d’énumération). Pour cela, l’ordinateur

interroge les périphériques déjà branchés pour connaître la leur et en attribue une au nouveau, qui en

retour s’identifie. L’hôte, disposant de toutes les caractéristiques nécessaires est alors en mesure de

charger le pilote approprié.

Le bus Firewire (iLink / IEEE 1394)

Présentation du bus Firewire (IEEE 1394)

Le bus IEEE 1394 (nom de la norme à laquelle il fait référence) a été mis au point à la fin de l’année 1995

afin de fournir un système d’interconnexion permettant de faire circuler des données à haute vitesse en

temps réel. La société Apple lui a donné le nom commercial « Firewire », qui est devenu le plus usité.

Sony lui a également donné le nom commercial de i.Link, tandis que Texas Instrument lui a préféré le

nom de Lynx.

Il s'agit ainsi d'un port, équipant certains ordinateurs, permettant de connecter des périphériques

(notamment des caméras numériques) à très haut débit. Il existe ainsi des cartes d'extension

(généralement au format PCI ou PC Card / PCMCIA ) permettant de doter un ordinateur de connecteurs

FireWire. Les connecteurs et câbles FireWire sont repérables grâce à leur forme, ainsi qu'à la présence

du logo suivant :

Les normes FireWire

Il existe différentes normes FireWire permettant d'obtenir les débits suivants :

NormeDébit théorique

IEEE 1394a

IEEE 1394a-S100

100 Mbit/s

Page 61: 133810711-informatique.pdf

IEEE 1394a-S200

200 Mbit/s

IEEE 1394a-S400

400 Mbit/s

IEEE 1394b

IEEE 1394b-S800

800 Mbit/s

IEEE 1394b-S1200

1200 Mbit/s

IEEE 1394b-S1600

1600 Mbit/s

IEEE 1394b-S3200

3200 Mbit/s

La norme IEEE 1394b est également appelée FireWire 2 ou FireWire Gigabit.

Connecteurs Firewire

Il existe différents connecteurs FireWire pour chacune des normes IEEE 1394.

• La norme IEEE 1394a définit deux connecteurs :

• Les connecteurs 1394a-1995 :

• Les connecteurs 1394a-2000 appelés mini-DV car ils sont utilisés sur les caméras

vidéo numériques DV (Digital Video) :

• La norme IEEE 1394b définit deux types de connecteurs dessinés de façon à ce que les prises

1394b-Beta puissent s'enficher dans les connecteurs Beta et Bilingual mais que les prises 1394b

Bilingual ne puissent s'enficher que dans les connecteurs Bilingual :

• Les connecteurs 1394b Bêta :

Page 62: 133810711-informatique.pdf

• Les connecteurs 1394b Bilingual :

Fonctionnement du bus Firewire

Le bus IEEE 1394 suit à peu près la même structure que le bus USB, si ce n’est qu’il utilise un câble

composé de six fils (deux paires pour les données et pour l’horloge, et deux fils pour l’alimentation

électrique) lui permettant d’obtenir un débit de 800 Mb/s (il devrait atteindre prochainement 1.6 Gb/s,

voire 3.2 Gb/s à plus long terme). Ainsi, les deux fils dédiés à une horloge montrent la différence majeure

qui existe entre le bus USB et le bus IEEE 1394, c'est-à-dire la possibilité de fonctionner selon deux

modes de transfert :

• le mode de transfert asynchrone : Le mode de transfert asynchrone est basé sur une

transmission de paquets à intervalles de temps variables. Cela signifie que l’hôte envoie un paquet de

données et attend de recevoir un accusé de réception du périphérique. Si l’hôte reçoit un accusé de

réception, il envoie le paquet de données suivant, sinon le paquet est à nouveau réexpédié au bout

d’un temps d’attente.

• le mode isochrone : Le mode de transfert isochrone permet l’envoi de paquets de données de

taille fixe à intervalle de temps régulier. Un noeud, appelé Cycle Master est chargé d'envoyer un

paquet de synchronisation (appelé Cycle Start packet) toutes les 125 microsecondes. De cette façon

aucun accusé de réception n’est nécessaire, ce qui permet de garantir un débit fixe. De plus, étant

donné qu’aucun accusé de réception n’est nécessaire, l’adressage des périphériques est simplifié et

la bande passante économisée permet de gagner en vitesse de transfert.

Autre innovation du standard IEEE 1394 : la possibilité d’utiliser des ponts, systèmes permettant de relier

plusieurs bus entre eux. En effet, l’adressage des périphériques se fait grâce à un identificateur de nœud

(c’est-à-dire de périphérique) codé sur 16 bits. Cet identificateur est scindé en deux champs : un champ

de 10 bits permettant de désigner le pont et un champ de 6 bits spécifiant le nœud. Il est donc possible

de relier 1023 ponts (soit 210 -1), sur chacun desquels il peut y avoir 63 nœuds (soit 26 -1), il est ainsi

possible d’adresser 65535 périphériques ! Le standard IEEE 1394 permet aussi le Hot plug’n play, mais

alors que le bus USB est destiné à l’utilisation de périphériques peu gourmands en ressources (souris ou

clavier par exemple), la bande passante de l’IEEE 1394 la destine à des utilisations multimédias sans

précédents (acquisition vidéo, etc.)

ATA, IDE et EIDE

Page 63: 133810711-informatique.pdf

Tour d'horizon

Le standard ATA (Advanced Technology Attachment) est une interface standard permettant la connexion

de périphériques de stockage sur les ordinateurs de type PC. Le standard ATA a été mis au point le 12

mai 1994 par l'ANSI (document X3.221-1994).

Malgré l'appellation officielle "ATA", ce standard est plus connue sous le terme

commercial IDE(Integrated Drive Electronics) ou Enhanced IDE (EIDE ou E-IDE).

Le standard ATA est originalement prévu pour connecter des disques durs, toutefois une extension

nommée ATAPI (ATA Packet Interface) a été développée afin de pouvoir interfacer d'autres

périphériques de stockage (lecteurs de CD-ROM, lecteurs de DVD-ROM, etc) sur une interface ATA.

Depuis l'émergence de la norme Serial ATA (notée S-ATA ou SATA), permettant de transférer les

données en série, le terme « Parallel ATA » (noté PATA ou P-ATA) remplace parfois l'appellation "ATA"

afin de marquer le contraste entre les deux normes.

Principe

La norme ATA permet de relier des périphériques de stockage directement à la carte mère grâce à

unenappe IDE (en anglais ribbon cable) généralement composée de 40 fils parallèles et de trois

connecteurs (un connecteur pour la carte mère, généralement bleu, et les connecteurs restants pour

deux périphériques de stockage, respectivement noir et gris).

Sur la nappe un des périphériques doit être déclaré comme maître (master), l'autre en esclave (slave).

Par convention le connecteur à l'extrémité (noir) est réservé au périphérique maître et le connecteur du

milieu (gris) au périphérique esclave. Un mode appelé cable select (noté CS ou C/S) permet de définir

automatiquement le périphérique maître et l'esclave pour peu que le BIOS de l'ordinateur supporte cette

fonctionnalité.

Modes PIO

La transmission des données se fait grâce à un protocole appelé PIO (Programmed Input/Output)

permettant aux périphériques d'échanger des données avec la mémoire vive à l'aide de commandes

gérées directement par le processeur. Toutefois, de gros transferts de données peuvent rapidement

imposer une grosse charge de travail au processeur et ralentir l'ensemble du système. Il existe 5 modes

PIO définissant le taux de transfert maximal :

Page 64: 133810711-informatique.pdf

Mode PIO

Débit (Mo/s)

Mode 0 3.3

Mode 1 5.2

Mode 2 8.3

Mode 3 11.1

Mode 4 16.7

Modes DMA

La technique du DMA (Direct Memory Access) permet de désengorger le processeur en permettant à

chacun des périphériques d'accéder directement à la mémoire. On distingue deux types de modes DMA :

• Le DMA dit "single word" (en français mot simple) permettant de transmettre un mot simple (2

octets soient 16 bits) à chaque session de transfert,

• Le DMA dit "multi-word" (en français mots multiples) permettant de transmettre successivement

plusieurs mots à chaque session de transfert.

Le tableau suivant liste les différents modes DMA et les taux de transfert associés :

Mode DMADébit (Mo/s)

0 (Single word)

2.1

1 (Single word)

4.2

2 (Single word)

8.3

0 (Multiword)

4.2

1 (Multiword)

13.3

2 (Multiword)

16.7

Page 65: 133810711-informatique.pdf

Ultra DMA

Le standard ATA est à l'origine basé sur un mode de transfert asynchrone, c'est-à-dire que les envois

commandes et les envois de données sont cadencés à la fréquence du bus et se font à chaque front

montant (en anglais rising edge) du signal de l'horloge (strobe). Toutefois les envois des données et des

commandes ne se font pas simultanément, c'est-à-dire qu'une commande ne peut être envoyée tant que

la donnée n'a pas été reçue et inversement.

Pour augmenter le taux de transfert des données il peut donc sembler logique d'augmenter la fréquence

du signal d'horloge. Toutefois sur une interface où les données sont envoyées en parallèle l'augmentation

de la fréquence pose des problèmes d'interférence électromagnétiques.

Ainsi l'Ultra DMA (parfois noté UDMA) a été pensé dans le but d'optimiser au maximum l'interface ATA.

La première idée de l'Ultra DMA consiste à utiliser les front montants ainsi que les fronts descendants

(falling edges) du signal pour les transferts soit un gain de vitesse de 100% (avec un débit passant de

16.6 Mo/s à 33.3 Mo/s). De plus l'Ultra DMA introduit l'utilisation de codes CRC pour détecter les erreurs

de transmission. Ainsi les différents modes Ultra DMA définissent la fréquence de transfert des données.

Lorsqu'une erreur est rencontrée (lorsque le CRC reçu ne correspond pas aux données) le transfert

passe dans un mode Ultra DMA inférieur, voire sans Ultra DMA.

Mode Ultra DMADébit (Mo/s)

UDMA 0 16.7

UDMA 1 25.0

UDMA 2 (Ultra-ATA/33)

33.3

UDMA 3 44.4

UDMA 4 (Ultra-ATA/66)

66.7

UDMA 5 (Ultra-ATA/100)

100

UDMA 6 (Ultra-ATA/133)

133

A partir de l'Ultra DMA mode 4 un nouveau type de nappe a été introduit afin de limiter les interférences ;

il s'agit d'une nappe ajoutant 40 fils de masse (soit un total de 80), entrecalés avec les fils de données

afin de les isoler et possédant les mêmes connecteurs que la nappe de 40 fils.

Page 66: 133810711-informatique.pdf

Seuls les modes Ultra DMA 2, 4, 5 et 6 sont réellement implémentés par les disques durs.

Les normes ATA

Le standard ATA se décline en plusieurs versions, ayant vu le jour successivement :

ATA-1

Le standard ATA-1, connu sous le nom de IDE, permet la connexion de deux périphériques sur une

nappe de 40 fils et propose une transmission 8 ou 16 bits avec un débit de l'ordre de 8.3 Mo/s. ATA-

1 définit et supporte les modes PIO (Programmed Input/Output) 0, 1 et 2 ainsi que le mode DMA

multiword (Direct Memory Access) 0.

ATA-2

Le standard ATA-2, connu sous le nom de EIDE (parfois Fast ATA, Fast ATA-2 ou Fast IDE), permet la

connexion de deux périphériques sur une nappe de 40 fils et propose une transmission 8 ou 16 bits avec

un débit de l'ordre de 16.6 Mo/s.

ATA-2 permet le support des modes PIO 0, 1, 2, 3 et 4 et modes DMA multiword 0, 1 et 2. De plus,

ATA-2 définit permet de repousser la limite de la taille maximale de disque de 528 Mo imposée par la

norme ATA-1 à 8.4 Go grâce au LBA (Large Block Addressing).

ATA-3

Le standard ATA-3 (également appelé ATA Attachment 3 Interface) représente une révision mineure de

l'ATA-2 (avec une compatibilité descendante) et fut publié en 1997 sous le standard X3.298-1997. Le

standard ATA-3 apporte les améliorations suivantes :

• Fiabilité améliorée : L'ATA-3 permet d'augmenter la fiabilité des transferts à haute vitesse.

• Le S.M.A.R.T (Self-Monitoring Analysis and Reporting Technology, traduisez Technologie d'auto

surveillance, d'analyse et de rapport) : il s'agit d'une fonction destinée à améliorer la fiabilité et à

prévenir les pannes.

• Fonction de sécurité : les périphériques peuvent être protégés à l'aide d'un mot de passe ajouté

dans le BIOS. Au démarrage de l'ordinateur, celui-ci vérifie que le mot de passe codé dans le BIOS

correspond à celui stocké sur le disque. Cela permet notamment d'empêcher l'utilisation du disque sur

une autre machine.

ATA-3 n'introduit pas de nouveau mode mais supporte les modes PIO 0, 1, 2, 3 et 4 ainsi que les modes

DMA 0, 1 et 2.

ATA-4

Le standard ATA-4, ou Ultra-ATA/33, a été défini en 1998 sous sous le standard ANSI NCITS 317-1998.

ATA-4 modifie le mode LBA afin de porter la capacité maximale des disques à 128 Go.

Page 67: 133810711-informatique.pdf

En effet, le mode LBA permet un adressage codé par un nombre binaire de 28 bits. Or chaque secteur

représente 512 octets, ainsi la capacité maximale exacte d'un disque dur en mode LBA est la suivante :

228*512 = 137 438 953 472 octets

137 438 953 472/(1024*1024*1024)= 128 Go

ATA-5

En 1999 le standard ATA-5 définit deux nouveaux modes de transfert :

Ultra-DMA mode 3 et 4 (le mode 4 est aussi appelé Ultra ATA/66 ou Ultra DMA/66) De plus il propose la

détection automatique du type de nappes utilisées (80 ou 40 fils).

ATA-6

Depuis 2001 ATA-6 définit le support de l'Ultra DMA/100 (aussi appelé Ultra DMA mode 5 ou Ultra-

ATA100) permettant d'atteindre des débits théoriques de 100 Mo/s.

D'autre part ATA-6 définit une nouvelle fonctionnalité, appelée Automatic Acoustic Management (AAM),

permettant d'ajuster automatiquement la vitesse d'accès aux disques supportant cette fonction afin d'en

réduire le bruit de fonctionnement.

Enfin, la norme ATA-6 permet un mode d'adressage des secteurs du disque dur sur 48 bits, appelé

LBA48 (Logical Block Addressing 48 bits). Grâce au LBA48, il est possible d'utiliser des disques durs de

2^48 secteurs de 512 octets, soit une capacité de maximale de 2 pétaoctets.

ATA-7

ATA-7 définit le support de l'Ultra DMA/133 (aussi appelé Ultra DMA mode 6 ou Ultra-ATA133)

permettant d'atteindre des débits théoriques de 133 Mo/s.

Tableau récapitulatif

NomNorme ANSI

SynonymeMode (PIO/DMA)

Débit (Mo/s)

Commentaires

ATA-1ANSI X3.221-1994

IDE

PIO mode 0

3,3

PIO mode 1

5,2

PIO mode 2

8,3

DMA mode 0

8,3

Page 68: 133810711-informatique.pdf

ATA-2ANSI X3.279-1996

EIDE, Fast ATA, Fast ATA-2

PIO mode 3

11,1

LBA 28 bits

PIO mode 4

16,7

DMA mode 1

13,3

DMA mode 2

16,7

ATA-3ANSI X3.298-1997

PIO mode 3

11,1

SMART, LBA 28 bits

PIO mode 4

16,7

DMA mode 1

13,3

DMA mode 2

16,7

ATA-4/ATAPI-4

ANSI NCITS 317-1998

Ultra-ATA/33, UDMA 33, Ultra DMA 33

UDMA mode 0

16,7Ultra DMA 33 et support des CD-ROM (ATAPI)

UDMA mode 1

25,0

UDMA mode 2

33,3

ATA-5/ATAPI-5

ANSI NCITS 340-2000

Ultra-ATA/66, UDMA 66, Ultra DMA 66

UDMA mode 3

44,4Ultra DMA 66, utilisation d'un câble de 80 broches

UDMA mode 4

66,7

ATA-6/ATAPI-6

ANSI NCITS 347-2001

Ultra-ATA/100,

UDMA 100 Ultra DMA 100, LBA48 et norme

Page 69: 133810711-informatique.pdf

UDMA 100, Ultra DMA 100

mode 5AAC (Automatic Acoustic Management)

ATA-7/ATAPI-7

ANSI NCITS 361-2002

Ultra-ATA/133, UDMA 133, Ultra DMA 133

UDMA mode 6

133 Ultra DMA 133

Serial ATA (SATA ou S-ATA)

Introduction

Le standard Serial ATA (S-ATA ou SATA) est un bus standard permettant la connexion de périphériques

de stockage haut débit sur les ordinateurs de type PC.

Le standard Serial ATA est apparu en février 2003 afin de pallier les limitations de la norme ATA (plus

connue sous le nom "IDE" et rétro-activement appelée Parallel ATA), qui utilise un mode de transmission

en parallèle. En effet, le mode de transmission en parallèle n'est pas prévu pour supporter des

fréquences élevées en raison des problèmes liés aux interférences électromagnétiques entre les

différents fils.

Les câbles et périphériques à la norme S-ATA peuvent notamment être reconnu par la présence du logo

suivant :

Principe du Serial ATA

Le standard Serial ATA est basé sur une communication en série. Une voie de données est utilisée pour

transmettre les données et une autre voie sert à la transmission d'accusés de réception. Sur chacune de

ces voies les données sont transmises en utilisant le mode de transmission LVDS (Low Voltage

Differential Signaling) consistant à transférer un signal sur un fil et son opposé sur un second fil afin de

permettre au récepteur de reconstituer le signal par différence. Les données de contrôle sont transmises

sur la même voie que les données en utilisant une séquence de bits particulière pour les distinguer.

Ainsi la communication demande deux voies de transmission, chacune effectuée via deux fils, soit un

total de quatre fils pour la transmission.

Page 70: 133810711-informatique.pdf

Connecteurs Serial-ATA

Le câble utilisé par le Serial ATA est un câble rond composé de sept fils et terminé par un connecteur de

8 mm :

Trois fils servent à la masse et les deux paires servent à la transmission de données.

Le connecteur d'alimentation est également différent : il est composé de 15 broches permettant

d'alimenter le périphérique en 3.3V, 5V ou 12V et possède une allure similaire au connecteur de

données :

Caractéristiques techniques

Le Serial ATA permet d'obtenir des débits de l'ordre de 187.5 Mo/s (1,5 Gb/s), or chaque octet est

transmis avec un bit de démarrage (start bit) et un bit d'arrêt (stop bit), soit un débit utile théorique de 150

Mo/s (1,2 Gb/s). Le standard Serial ATA II devrait permettre d'avoisiner les 375 Mo/s (3 Gb/s), soit 300

Mo/s utiles théoriques, puis à terme 750 Mo/s (6 Gb/s), soit 600 Mo/s utiles théoriques.

Les câbles Serial ATA peuvent mesurer jusqu'à 1 mètre de long (contre 45 cm pour les nappes IDE). De

plus, le faible nombre de fils dans une gaine ronde permet plus de souplesse et une meilleure circulation

de l'air dans le boîtier qu'avec des nappes IDE (même si des nappes IDE rondes existent). Contrairement

à la norme ATA, les périphériques Serial ATA sont seuls sur chaque câble et il n'est plus nécessaire de

définir des "périphériques maîtres" et des "périphériques esclaves"

D'autre part, la norme Serial ATA permet le raccordement à chaud des périphériques (Hot Plug).

eSATA

Par ailleurs, il existe une version de connecteurs destinés au stockage externe appelés External SATA ou

eSATA. La longueur maximale de câble est alors de 2 m.

La norme eSATA est similaire à la norme SATA, à la différence près qu’elle est destinée à la connexion

de disques externes (vous trouverez sur les cartes mères récentes un port eSATA à l’arrière de celles-ci).

Il est donc possible de trouver des boîtiers externes eSATA offrant des débits similaires à ceux des

disques durs internes (beaucoup plus performants donc que les boîtiers USB classiques).

Par exemple, le boîtier Vantec NexStar 3 permet de connecter un disque dur SATA via le port eSATA

mais également par USB ou FireWire si votre carte mère n’est pas de dernière génération.

SCSI

Page 71: 133810711-informatique.pdf

Présentation de l'interface SCSI

Le standard SCSI (Small Computer System Interface) est une interface permettant la connexion de

plusieurs périphériques de types différents sur un ordinateur par l’intermédiaire d’une carte,

appeléeadaptateur SCSI ou contrôleur SCSI (connecté généralement par l'intermédiaire d'un

connecteur PCI).

Le nombre de périphériques pouvant être branchés dépend de la largeur du bus SCSI. En effet, avec un

bus 8 bits il est possible de connecter 8 unités physiques, contre 16 pour un bus 16 bits. Le contrôleur

SCSI représentant une unité physique à part entière, le bus peut donc accepter 7 (8 - 1) ou 15 (16 - 1)

périphériques.

Adressage des périphériques

L’adressage des périphériques se fait grâce à des numéros d’identification. Le premier numéro est l’ID, il

s’agit d’un numéro permettant de désigner le contrôleur intégré à chaque périphérique (celui-ci est défini

grâce à des cavaliers à positionner sur chaque périphérique SCSI ou bien logiciellement). En effet, le

périphérique peut avoir jusqu’à 8 unités logiques (par exemple un lecteur de CD-ROM comportant

plusieurs tiroirs). Les unités logiques sont repérées par un identificateur appelé LUN (Logical Unit

Number). Enfin, un ordinateur peut comporter plusieurs cartes SCSI, c’est pourquoi un numéro de carte

est assigné à chacune d’entre-elles.

De cette façon, pour communiquer avec un périphérique, l’ordinateur doit donner une adresse de la forme

« numéro de carte - ID - LUN ».

SCSI asymétrique et différentiel

Deux types de bus SCSI existent :

• le bus asymétrique, noté SE (pour Single Ended), basé sur une architecture parallèle dans

laquelle chaque canal circule sur un fil, ce qui le rend sensible aux interférences. Les nappes SCSI en

mode SE possèdent donc 8 fils dans le cas de transmission 8 bits (on parle alors de narrow, signifiant

"étroit") ou 16 fils pour un câble 16 bits (appelé wide, dont la traduction est "large") Il s'agit du type de

bus SCSI le plus répandu

• le bus différentiel permet le transport des signaux sur une paire de fils. L’information est codée

par différence entre les deux fils (chacun véhiculant la tension opposée) afin de compenser les

perturbations électromagnétiques, ce qui permet une distance de câblage importante (de l'ordre de 25

mètres). On distingue généralement le mode LVD (Low Voltage Differential, en français différentiel

basse tension), basé sur des signaux 3.3V, et le mode HVD (High Voltage differential, en

françaisdifférentiel haute tension), utilisant des signaux 5V. Les périphériques utilisant ce type de

transmission, plus rare, portant généralement l'inscription "DIFF".

Les connecteurs des deux catégories de périphériques sont les mêmes, mais les signaux électriques ne

le sont pas, il faut donc veiller à identifier les périphériques (grâce aux symboles prévus à cet effet) afin

de ne pas les détériorer !

Les normes SCSI

Les normes SCSI définissent les paramètres électriques des interfaces d’entrées-sorties. Le

standardSCSI-1 date de 1986, il définissait des commandes standard permettant le contrôle des

Page 72: 133810711-informatique.pdf

périphériques SCSI sur un bus cadencé à 4,77 MHz d'une largeur de 8 bits, ce qui lui permettait d'offrir

des débits de l'ordre de 5 Mo/s.

Toutefois un grand nombre de ces commandes étaient optionnelles, c’est pourquoi en 1994 la norme

SCSI-2 a été adoptée. Elle définit 18 commandes appelées CCS (Common Command Set). Diverses

versions du standard SCSI-2 ont été définies :

• Le Wide SCSI-2 est basé sur un bus de largeur 16 bits (au lieu de 8) et permet d'offrir un débit de

10Mo/s ;

• Le Fast SCSI-2 est un mode synchrone rapide permettant de passer de 5 à 10 Mo/s pour le SCSI

standard, et de 10 à 20 Mo/s pour le Wide SCSI-2 (baptisé pour l'occasion Fast Wide SCSI-2);

• Les modes Fast-20 et Fast-40 permettent respectivement de doubler et quadrupler ces débits.

La norme SCSI-3 intègre de nouvelles commandes, et permet le chaînage de 32 périphériques ainsi

qu'un débit maximal de 320 Mo/s (en mode Ultra-320).

Le tableau suivant récapitule les caractéristiques des différentes normes SCSI :

NormeLargeur du bus

Vitesse du bus

Bande passante

Connectique

SCSI-1(Fast-5 SCSI) 8 bits 4.77 MHz 5 Mo/sec50 broches(bus asymétrique ou différentiel)

SCSI-2 - Fast-10 SCSI 8 bits 10 MHz 10 Mo/sec50 broches(bus asymétrique ou différentiel)

SCSI-2 - Wide 16 bits 10 MHz 20 Mo/sec50 broches(bus asymétrique ou différentiel)

SCSI-2 - Fast Wide 32 bits

32 bits 10 MHz 40 Mo/sec68 broches(bus asymétrique ou différentiel)

SCSI-2 - Ultra SCSI-2(Fast-20 SCSI)

8 bits 20 MHz 20 Mo/sec50 broches(bus asymétrique ou différentiel)

SCSI-2 - Ultra Wide SCSI-2

16 bits 20 MHz 40 Mo/sec

SCSI-3 - Ultra-2 SCSI(Fast-40 SCSI)

8 bits 40 MHz 40 Mo/sec

SCSI-3 - Ultra-2 Wide 16 bits 40 MHz 80 Mo/sec 68 broches(bus

Page 73: 133810711-informatique.pdf

SCSI différentiel)

SCSI-3 - Ultra-160(Ultra-3 SCSI ou Fast-80 SCSI)

16 bits 80 MHz 160 Mo/sec68 broches(bus différentiel)

SCSI-3 - Ultra-320(Ultra-4 SCSI ou Fast-160 SCSI)

16 bits80 MHz DDR

320 Mo/sec68 broches(bus différentiel)

SCSI-3 - Ultra-640 (Ultra-5 SCSI)

1680 MHz QDR

640 Mo/sec68 broches(bus différentiel)

Bus PC Card (PCMCIA)

Présentation du bus PC Card

Le bus PC Card a été mis au point en 1989 par le consortium PCMCIA (Personal Computer Memory

Card International Association, d'où le nom donné parfois au bus) afin d'étendre les capacités d'accueil

de périphériques des ordinateurs portables.

Caractéristiques techniques

Les périphériques PCMCIA sont au format carte de crédit (54 mm par 85 mm) et possèdent un

connecteur de 68 broches.

Il existe trois types de facteur de forme (form factor) correspondant à trois épaisseurs standard :

TypeLargeur (mm)

Longueur (mm)

épaisseur (mm)

PC Card Type I

54 85 3.3

Page 74: 133810711-informatique.pdf

PC Card Type II

54 85 5.0

PC Card Type III

54 85 10.5

Les cartes de type I sont généralement utilisées pour des cartes d'extension de mémoire. Les cartes de

type II servent habituellement pour des périphériques de communication (modem, carte réseau, carte

réseau sans fil) et de petits disques durs. Enfin les cartes de type III, beaucoup plus épaisses, sont en

général réservées à des périphériques embarquant des éléments mécaniques (disques dur de grosse

capacité).

CardBus

A partir de 1995 la norme CardBus (parfois appelée PC Card 32-bit) est apparue, permettant des

transferts de données en 32 bits, cadencés à une fréquence de 33 MHz avec une tension de 3V (contre

5.5 pour le PCMCIA).

Périphérique

Notion de périphérique

On appelle « périphérique » un matériel électronique pouvant être raccordé à un ordinateur par

l'intermédiaire de l'une de ses interfaces d'entrée-sortie (port série, port parallèle, bus USB, bus

firewire,interface SCSI, etc.), le plus souvant par l'intermédiaire d'un connecteur. Il s'agit donc des

composants de l'ordinateur externes à l'unité centrale.

On distingue habituellement les catégories de périphériques suivantes :

• périphériques d'affichage : il s'agit de périphériques de sortie, fournissant une représentation

visuelle à l'utilisateur, tels qu'un moniteur (écran).

• périphériques de stockage : il s'agit d'un périphérique d'entrée-sortie capable de stocker les

informations de manière permanent (disque dur, lecteur de CD-ROM, lecteur de DVD-ROM, etc.) ;

• périphériques d'acquisition. Ils permettent à l'ordinateur d'acquérir des données telles

particulières, telles que des données vidéo, on parle alors d'acquisition vidéo ou bien d'images

numérisées (scanner) ;

• périphériques d'entrée : ce sont des périphériques capables uniquement d'envoyer des

informations à l'ordinateur, par exemple les dispositifs de pointage (souris) ou bien le clavier.

Carte d'extension

On appelle « carte d'extension » un matériel électronique sous forme de carte pouvant être raccordé à

un ordinateur par l'intermédiaire de l'un de ses connecteurs d'extension (ISA, PCI, AGP, PCI Express,

etc.).

Il s'agit de composants connectés directement à la carte mère et situés dans l'unité centrale, permettant

de doter l'ordinateur de nouvelles fonctionnalités d'entrée-sortie.

Les principales cartes d'extension sont notamment :

Page 75: 133810711-informatique.pdf

• La carte graphique ;

• La carte son ;

• La carte réseau.

Interruptions matérielles (IRQ) et conflits

Notion d'interruption

Puisque le processeur ne peut pas traiter plusieurs informations simultanément (il traite une information à

la fois), un programme en cours d'exécution peut, grâce à une interruption, être momentanément

suspendu, le temps que s'exécute une routine d'interruption. Le programme interrompu peut ensuite

reprendre son exécution. Il existe 256 adresses d'interruption différentes.

Une interruption devient une interruption matérielle lorsqu'elle est demandée par un composant matériel

de l'ordinateur. En effet, il existe dans l'ordinateur de nombreux périphériques. Ceux-ci ont généralement

besoin d'utiliser les ressources du système, ne serait-ce que pour communiquer avec lui.

Lorsqu'un périphérique souhaite accéder à une ressource, il envoie une demande d'interruption au

processeur pour qu'il lui prête son attention. Ainsi, les périphériques ont un numéro d'interruption, que l'on

appelle IRQ (Interruption ReQuest, soit « requête d'interruption »). A titre d'image, chaque périphérique

tire une « ficelle » reliée à une cloche pour signaler à l'ordinateur qu'il veut qu'il lui prête attention.

Cette « ficelle » est en fait une ligne physique qui relie chaque connecteur d'extension, ainsi que chaque

interface d'entrée-sortie, à la carte mère. Pour un emplacement ISA 8 bits par exemple, il existe 8 lignes

IRQ reliant les slots ISA 8 bits à la carte mère(IRQ0 à IRQ7). Ces IRQ sont contrôlés par un « contrôleur

d'interruption » chargé de « donner la parole » à l'IRQ ayant la plus grande priorité.

Avec l'apparition de slots 16 bits, les IRQ 8 à 15 ont été ajoutés, il a donc fallu ajouter un second

contrôleur d'interruption. La liaison entre les deux groupes d'interruptions se fait par l'intermédiaire de

l'IRQ 2 reliée à l'IRQ 9 (appelée « cascade »). La cascade vient donc en quelque sorte "insérer" les IRQ

8 à 15 entre les IRQ 1 et 3 :

La priorité étant donnée par ordre d'IRQ croissant, et les IRQ 8 à 15 étant insérées entre les IRQ 1 et 3,

l'ordre de priorité est donc le suivant :

0 > 1 > 8 > 9 > 10 > 11 > 12 > 13 > 14 > 15 > 3 > 4 > 5 > 6 > 7

DMA

Les périphériques ont régulièrement besoin d'« emprunter de la mémoire » au système afin de s'en servir

comme zone de tampon (en anglais buffer), c'est-à-dire une zone de stockage temporaire permettant

d'enregistrer rapidement des données en entrée ou en sortie.

Un canal d'accès direct à la mémoire, appelé DMA (Direct Memory Access soit Accès direct à la

mémoire), a ainsi été défini pour y remédier.

Le canal DMA désigne un accès à un emplacement de la mémoire vive (RAM) de l’ordinateur, repéré par

une « adresse de début » (ou «RAM Start Address» en anglais) et une « adresse de fin ». Cette méthode

permet à un périphérique d'emprunter des canaux spéciaux qui lui donnent un accès direct à la mémoire,

sans faire intervenir le microprocesseur, afin de le décharger de ces tâches.

Page 76: 133810711-informatique.pdf

Un ordinateur de type PC possède 8 canaux DMA. Les quatre premiers canaux DMA ont une largeur de

bande de 8 bits tandis que les DMA 4 à 7 ont une largeur de bande de 16 bits.

Les canaux DMA sont généralement assignés comme suit :

• DMA0 - libre

• DMA1 - (carte son)/ libre

• DMA2 - contrôleur de disquettes

• DMA3 - port parallèle (port imprimante)

• DMA4 - contrôleur d'accès direct à la mémoire

(renvoi vers DMA0)

• DMA5 - (carte son)/ libre

• DMA6 - (SCSI)/ libre

• DMA7 - disponible

Adresses de base

Les périphériques ont parfois besoin d'échanger des informations avec le système, c'est pourquoi des

adresses mémoire leur sont assignées pour l'envoi et la réception de données. Ces adresses sont

appelées «adresses de base» (les termes suivants sont également parfois utilisés : «ports

d'entrée/sortie», «ports d'E/S», «adresse d'E/S», «adresses de ports d'E/S», «ports de base», ou en

anglais I/O address qui signifie «Input/Output Address», littéralement «Adresse d'entrée - sortie»).

C'est par l'intermédiaire de cette adresse de base que le périphérique peut communiquer avec le système

d'exploitation. Il ne peut donc exister qu'une adresse de base unique par périphérique.

Voici une liste de quelques adresses de base courantes :

• 060h - clavier

• 170h/376h - contrôleur IDE secondaire

• 1F0h/3F6h - contrôleur IDE primaire

• 220h - carte son

• 300h - carte réseau

• 330h - carte adaptatrice SCSI

• 3F2h - contrôleur de lecteur de disquettes

• 3F8h - COM1

• 2F8h - COM2

• 3E8h - COM3

• 2E8h - COM4

• 378h - LPT1

• 278h - LPT2

Tous ces éléments sont toutefois transparents pour l'utilisateur , c'est-à-dire qu'il n'a pas à s'en

préoccuper.

Conflits matériels

Une interruption est une ligne reliant un périphérique au processeur. L'interruption est matérielle

lorsqu'elle est demandée par un composant matériel du PC. C'est le cas, par exemple, lorsqu'une touche

a été frappée et que le clavier veut attirer l'attention du processeur sur cet événement. Cependant, les

Page 77: 133810711-informatique.pdf

256 interruptions ne peuvent pas toutes être demandées comme des interruptions matérielles et les

différents périphériques appellent toujours des interruptions bien précises.

Ainsi, lors de l'installation de cartes d'extension, il faut veiller, au moment de la configuration, à ce que la

même interruption ne soit pas utilisée par deux périphériques différents, auquel cas cela provoque un

«conflit matériel », aboutissant à un dysfonctionnement d'un des deux périphériques.

En effet, si deux périphériques utilisent la même interruption, le système ne saura pas les distinguer. Un

conflit matériel ne se produit pas uniquement pour deux périphériques ayant la même interruption

matérielle, un conflit peut également se produire lorsque deux périphériques possèdent la même adresse

d'entrées/sorties ou utilisent les mêmes canaux DMA.

Configuration des IRQ

L'IRQ d'une carte d'extension peut être modifiée afin de lui allouer un numéro d'IRQ non utilisé par un

autre périphérique.

• Sur les anciens périphériques il est fixé grâce à des cavaliers (jumpers), présents sur la carte.

• Sur les cartes récentes (comportant un BIOS Plug & Play), le paramétrage des ressources (IRQ,

DMA, Adresses d'entrée-sortie) est automatique. Il peut également être réalisé grâce au système

d'exploitation ou bien à l'aide d'utilitaires fourni avec la carte d'extension. Le mode plug & play doit

parfois être désactivé pour pouvoir modifier les paramètres manuellement.

Il n'est pas toujours évident de trouver des ressources libres pour tous les périphériques, voici donc une

liste non exhaustive de ressources généralement utilisées, ne pouvant donc pas être assignées

manuellement :

IRQ

Périphérique

0 Horloge interne

1 clavier

2contrôleur d'interruptions programmable Renvoi vers les IRQ 8 à 15

3 port de communication COM2/COM4

4 port de communication COM1/COM3

5 libre

6 contrôleur de disquettes

7 port imprimante LPT1

8 CMOS (Horloge temps réel)

9 libre

10 libre

Page 78: 133810711-informatique.pdf

11 libre

12 port souris PS2/libre

13processeur numérique de données(Coprocesseur arithmétique)

14 contrôleur de disques durs primaire (IDE)

15 contrôleur de disques durs secondaire (IDE)

Les ports COM1 et COM4 ainsi que les ports COM2 et COM3 utilisent les mêmes interruptions. Cela

peut paraître illogique dans la mesure où une même interruption ne peut pas être utilisée par deux

périphériques. En réalité il est possible d'utiliser le port COM1 ainsi que le port COM4 (ainsi que le port

COM2 et le port COM3) à condition que ceux-ci ne soient pas actifs simultanément. Dans le cas

contraire l'ordinateur peut se bloquer ou avoir un comportement anormal.

Résolution des conflits matériels

En cas de problème matériel, la première chose à faire est de tenter d'isoler le problème afin de

déterminer quel périphérique pose problème. Cela signifie qu'il faut tenter d'éliminer toutes les variables

possibles jusqu'à la découverte de l'élément responsable :

• en ouvrant le capot de la machine et en ôtant petit à petit les éléments susceptibles de provoquer

un conflit ;

• en désactivant les périphériques par voie logicielle dans le système d'exploitation.

Le moniteur ou écran d'ordinateur

Introduction aux écrans d'ordinateur

On appelle écran (ou moniteur) le périphérique d'affichage de l'ordinateur. On distingue habituellement

deux familles d'écrans :

• Les écrans à tube cathodique (notés CRT pour Cathod Ray Tube), équipant la majorité des

ordinateurs de bureau. Il s'agit de moniteurs volumineux et lourds, possédant une consommation

électrique élevée.

• Les écrans plats équipant la totalité des ordinateurs portables, les assistants personnels (PDA),

les appareils photo numérique, ainsi qu'un nombre de plus en plus grand d'ordinateurs de bureau. Il

s'agit d'écrans peu encombrants en profondeur (d'où leur nom), légers et possédant une faible

consommation électrique.

Caractéristiques techniques

Les moniteurs sont souvent caractérisés par les données suivantes :

• La définition: c'est le nombre de points (pixel) que l'écran peut afficher, ce nombre de points est

généralement compris entre 640x480 (640 points en longueur, 480 points en largeur) et 2048x1536,

mais des résolutions supérieures sont techniquement possibles. Le tableau ci-dessous donne les

définitions conseillées selon la taille de la diagonale :

Page 79: 133810711-informatique.pdf

Diagonale

Définition

15" 800x600

17" 1024x768

19"1280x1024

21"1600x1200

• La taille : Elle se calcule en mesurant la diagonale de l'écran et est exprimée en pouces (un

pouce équivaut à 2,54 cm). Il faut veiller à ne pas confondre la définition de l'écran et sa taille. En effet

un écran d'une taille donnée peut afficher différentes définitions, cependant de façon générale les

écrans de grande taille possèdent une meilleure définition. Les tailles standard des écrans sont les

suivantes (liste non exhaustive) :

• 14 pouces, soit une diagonale de 36 cm environ ;

• 15 pouces, soit une diagonale de 38 cm environ ;

• 17 pouces, soit une diagonale de 43 cm environ ;

• 19 pouces, soit une diagonale de 48 cm environ ;

• 21 pouces. soit une diagonale de 53 cm environ ;

• Le pas de masque (en anglais dot pitch): C'est la distance qui sépare deux luminophores; plus

celle-ci est petite plus l'image est précise. Ainsi un pas de masque inférieur ou égal à 0,25 mm

procurera un bon confort d'utilisation, tandis que les écrans possédant des pas de masque supérieurs

ou égaux à 0,28 mm seront à proscrire.

• La résolution: Elle détermine le nombre de pixels par unité de surface (pixels par pouce linéaire

(en anglais DPI: Dots Per Inch, traduisez points par pouce). Une résolution de 300 dpi signifie 300

colonnes et 300 rangées de pixels sur un pouce carré ce qui donnerait donc 90000 pixels sur un

pouce carré. La résolution de référence de 72 dpi nous donne un pixel de 1"/72 (un pouce divisé par

72) soit 0.353mm, correspondant à un point pica (unité typographique anglo-saxonne).

Les modes graphiques

On appelle mode graphique le mode d'affichage des informations à l'écran, en terme de définition et de

nombre de couleurs. Il représente ainsi la capacité d'une carte graphique à gérer des détails ou celle

d'unécran de les afficher.

MDA

La mode MDA (Monochrome Display Adapter), apparu en 1981, est le mode d'affichage des écrans

monochromes fournissant un affichage en mode texte de 80 colonnes par 25 lignes. Ce mode permettait

d'afficher uniquement des caractères ASCII.

CGA

Le mode CGA (color graphic adapter) est apparu en 1981 peu après le mode MDA avec l'arrivée du PC

(personal computer). Ce mode graphique permettait :

Page 80: 133810711-informatique.pdf

• un affichage en mode texte amélioré, permettant d'afficher les caractères avec 4 couleurs

• un affichage en mode graphique permettant d'afficher les pixels en 4 couleurs avec une

résolution de 320 pixels par 200 (notée 320x200)

EGA

Le mode EGA (Enhanced Graphic Adapter) est apparu au début des années 1985. Il permettait d'afficher

16 couleurs avec une résolution de 640 par 350 pixels (notée 640x350), soit des graphismes beaucoup

plus fins qu'en mode CGA.

VGA

Le mode VGA (Video graphics Array) a vu le jour en 1987. Il permet une résolution de 720x400 en mode

texte et une résolution de 640 par 480 (640x480) en mode graphique 16 couleurs. Il permet également

d'afficher 256 couleurs avec une définition de 320x200 (mode également connu sous le nom

de MCGApour Multi-Colour Graphics Array). Le VGA est rapidement devenu le mode d'affichage

minimum pour les ordinateurs de type PC.

XGA

In 1990, IBM a introduit le XGA (eXtended Graphics Array). La version 2 de ce mode d'affichage,

baptiséXGA-2 offrait une résolution de 800 x 600 en 16 millions de couleurs et de 1024 x 768 en 65536

couleurs.

SVGA

Le mode SVGA (Super Video Graphics Array) est un mode graphique permettant d'afficher 256 couleurs

à des résolutions de 640x200, 640x350 et 640x480. Le SVGA permet également d'afficher des définitions

supérieures telles que le 800x600 ou le 1024x768 en affichant moins de couleurs.

VESA

Afin de pallier le manque de standardisation des modes graphiques un consortium réunissant les

principaux fabricants de cartes graphiques s'est créé (le VESA, Video Electronic Standard Association)

afin de mettre au point des standards graphiques.

SXGA

Le standard SXGA (Super eXtended Graphics Array) défini par le consortium VESA fait référence à une

résolution de 1280 x 1024 en 16 millions de couleurs. Ce mode a pour caractéristique d'avoir un ration de

5:4 contrairement aux autres modes (VGA, SVGA, XGA, UXGA).

UXGA

Le mode UXGA (Ultra eXtended Graphics Array) définit une résolution de 1600 x 1200 avec 16 millions

de couleurs.

Page 81: 133810711-informatique.pdf

WXGA

Le mode WXGA (Wide eXtended Graphics Array) définit une résolution de 1280 x 800 avec 16 millions

de couleurs.

WSXGA

Le mode WSXGA (Wide Super eXtended Graphics Array) définit une résolution de 1600 x 1024 avec 16

millions de couleurs.

WSXGA+

Le mode WSXGA+ (Wide Super eXtended Graphics Array+) définit une résolution de 1680 x 1050 avec

16 millions de couleurs.

WUXGA

Le mode WUXGA (Wide Ultra eXtended Graphics Array) définit une résolution de 1920 x 1200 avec 16

millions de couleurs.

QXGA

Le mode QXGA (Quad eXtended Graphics Array) définit une résolution de 2048 x 1536 avec 16 millions

de couleurs.

QSXGA

Le mode QSXGA (Quad Super eXtended Graphics Array) définit une résolution de 2560 x 2048 avec 16

millions de couleurs.

QUXGA

Le mode QUXGA (Quad Ultra eXtended Graphics Array) définit une résolution de 3200 x 2400 avec 16

millions de couleurs.

tableau récapitulatif

Le tableau suivant récapitule les différentes résolutions, ainsi que le ratio correspondant :

Format d'affichage

Résolution horizontale

Résolution verticale

Nombre de pixels

Ratio

VGA 640 480 307 200 1

SVGA 800 600 480 000 1,56

XGA 1024 768 786 432 2,56

SXGA 1280 1024 1 310 720 4,27

Page 82: 133810711-informatique.pdf

SXGA+ 1400 1050 1 470 000 4,78

SXGA+ 1280 1024 1 310 720 4,27

UXGA 1600 1200 1 920 00 6,25

QXGA 2048 1536 3 145 728 10,2

QSXGA 2560 2048 5,242,800 17,1

QUXGA 3200 2400 7,680,000 25

Les normes d'énergie et de rayonnement

Il existe de nombreuses normes s'appliquant aux moniteurs permettant de garantir la qualité de ceux-ci

ainsi que d'assurer le consommateur que le matériel a été conçu de manière à limiter le rayonnement dû

aux émissions d'ondes électrostatiques et à réduire la consommation d'énergie.

Ainsi, à la fin des années 80 la norme MPR1 a été élaborée par une autorité suédoise afin de mesurer

l'émission de rayonnements par les matériels émettant des ondes électrostatiques. Cette norme fut

amendée en 1990 pour donner la norme MPR2, reconnue internationalement.

En 1992, la confédération suédoise des employés professionels (Swedish Confederation of Professional

Employees) introduit le standard TCO décrivant le niveau d'émission de rayonnements non plus en terme

de niveau de sécurité minimal mais en terme de niveau minimal possible techniquement.

La norme TCO a subit des révisions en 1992, 1995 et 1999 afin de donner respectivement lieu aux

normesTCO92, TCO95 et TCO99.

En 1993, un consortium de fabricants de matériel informatique (VESA, Video Electronics Standards

Association) créa la norme DPMS (Display Power Management Signalling) proposant 4 modes de

fonctionnement pour les appareils s'y conformant :

• En marche.

• En veille (standby), avec une consommation inférieure à 25W.

• En suspension, avec une consommation inférieure à 8W. Dans ce mode le canon à électrons est

éteint, ce qui implique un délai de remise en route plus grand qu'en veille.

• En arrêt.

Écran à tube cathodique (CRT)

1. Le moniteur à tube cathodique

Page 83: 133810711-informatique.pdf

2. Le moniteur couleur 3. Caractéristiques techniques 4. Ressources sur le même sujet

Le moniteur à tube cathodique

Les moniteurs (écrans d'ordinateur) sont la plupart du temps des tubes cathodiques (notés CRT,

soitcathode ray tube ou en français tube à rayonnement cathodique), c'est à dire un tube en verre sous

vide dans lequel un canon à électrons émet un flux d'électrons dirigés par un champ électrique vers un

écran couvert de petits éléments phosphorescents.

Le canon à électrons est constitué d'une cathode, c'est-à-dire une électrode métallique chargée

négativement, d'une ou plusieurs anodes (électrodes chargées positivement). La cathode émet des

électrons attirés par l'anode. L'anode agit ainsi comme un accélérateur et un concentrateur pour les

électrons afin de constituer un flux d'électrons dirigé vers l'écran.

Un champ magnétique est chargé de dévier les électrons de gauche à droite et de bas en haut. Il est créé

grâce à deux bobines X et Y sous tension (appelées déflecteurs) servant respectivement à dévier le flux

horizontalement et verticalement.

L'écran est recouvert d'une fine couche d'éléments phosphorescents, appelés luminophores, émettant de

la lumière par excitation lorsque les électrons viennent les heurter, ce qui constitue un point lumineux

appelé pixel.

En activant le champ magnétique, il est possible de créer un balayage de gauche à droite, puis vers le

bas une fois arrivé en bout de ligne.

Ce balayage n'est pas perçu par l'oeil humain grâce à la persistance rétinienne, essayez par exemple

d'agiter votre main devant votre écran pour visualiser ce phénomène : vous voyez votre main en

plusieurs exemplaires !

Page 84: 133810711-informatique.pdf

Grâce à ce balayage, combiné avec l'activation ou non du canon à électrons, il est possible de faire

"croire" à l'oeil que seuls certains pixels sont "allumés" à l'écran.

Le moniteur couleur

Un moniteur noir et blanc permet d'afficher des dégradés de couleur (niveaux de gris) en variant

l'intensité du rayon.

Pour les moniteurs couleur, trois faisceaux d'électrons (correspondant à trois cathodes) viennent chacun

heurter un point d'une couleur spécifique : un rouge, un vert et un bleu (RGB, correspondant à Red,

Green, Blue ou en français RVB, Rouge, vert, bleu).

Trois points de couleur sont ainsi appelée une triade (en anglais triad ou dot trio).

Les luminophores bleus sont réalisés à base de sulfure de zinc, les verts en sulfure de zinc et de

cadmium. Les rouges enfin sont plus difficile à réaliser, et sont faits à partir d'un mélange d'yttrium et

europium, ou bien d'oxyde de gadolinium.

Cependant ces luminophores sont si proches les uns des autres que l'oeil n'a pas un pouvoir séparateur

assez fort pour les distinguer: il voit une couleur composée de ces trois couleurs. Essayez de mettre une

minuscule goutte d'eau sur le verre de votre moniteur: celle-ci faisant un effet de loupe va faire apparaître

les luminophores.

De plus, pour éviter des phénomènes de bavure (un électron destiné à frapper un luminophore vert

percutant le bleu) une grille métallique appelée masque est placée devant la couche de luminophores

afin de guider les flux d'électrons.

On distingue selon le masque utilisé plusieurs catégories d'écrans cathodiques :

• Les tubes FST-Invar (Flat Square Tube) dont les luminophores sont ronds. Ces moniteurs

utilisent une grille appelée masque (ou shadow mask en anglais). Ils donnent une image nette et de

bonnes couleurs mais possèdent l'inconvénient de déformer et d'assombrir l'image dans les coins.

• Les tubes Diamondtron de Mitsubishi et Trinitron de Sony dont le masque est constitué de

fentes verticales (appelée aperture grille ou grille à fentes verticales), laissant passer plus d'électrons

et procurant donc une image plus lumineuse.

• Les tubes Cromaclear de Nec dont le masque est constitué d'un système hybride avec des

fentes en forme d'alvéoles constituant la meilleure technologie des trois.

Page 85: 133810711-informatique.pdf

Caractéristiques techniques

Les moniteurs CRT sont caractérisés par les données suivantes :

• La taille : Elle se calcule en mesurant la diagonale de l'écran et est exprimée en pouces (un

pouce équivaut à 2,54 cm). Il faut veiller à ne pas confondre la définition de l'écran et sa taille. En effet

un écran d'une taille donnée peut afficher différentes définitions, cependant de façon générale les

écrans de grande taille possèdent une meilleure définition.

• Le pas de masque (en anglais dot pitch) : il représente la distance qui sépare deux

luminophores de même couleur. Plus le pas de masque est petit, meilleure est la qualité de l'image.

Ainsi un pas de masque inférieur ou égal à 0,25 mm procurera un bon confort d'utilisation, tandis que

les écrans possédant des pas de masque supérieurs ou égaux à 0,28 mm seront à proscrire.

• La résolution : elle détermine le nombre de pixels par unité de surface (pixels par pouce linéaire

(en anglais DPI: Dots Per Inch, traduisez points par pouce). Une résolution de 300 dpi signifie 300

colonnes et 300 rangées de pixels sur un pouce carré ce qui donnerait donc 90000 pixels sur un

pouce carré. La résolution de référence de 72 dpi nous donne un pixel de 1"/72 (un pouce divisé par

72) soit 0.353 mm, correspondant à un point pica (unité typographique anglo saxonne). Les termes «

résolution » et « définition » sont souvent confondus à tort dans la presse.

• La fréquence de balayage vertical (refresh rate en anglais) : Elle représente le nombre

d'images qui sont affichées par seconde, ou plus exactement le nombre de rafraîchissement de

l'image par seconde. On l'appelle ainsi également taux de rafraîchissement, elle est exprimée en

Hertz. Plus cette valeur est élevée meilleur est le confort visuel (on ne voit pas l'image scintiller), il faut

donc qu'elle soit bien supérieure à 67 Hz (limite inférieure à partir de laquelle l'oeil voit véritablement

l'image "clignoter"). La plupart des personnes ne perçoivent plus de scintillement (en anglais flicker) à

partir de 70 Hz, ainsi une valeur supérieure ou égale à 75 Hz conviendra généralement.

Écran plat

Les moniteurs à écran plat

Les moniteurs à écran plat (notés parfois FPD pour Flat panel display) se généralisent de plus en plus

dans la mesure où leur facteur d'encombrement et leur poids sont très inférieurs à ceux des écrans

CRTtraditionnels.

De plus, les technologies utilisées dans les écrans plats sont moins consommatrices d'énergie

(consommation inférieure à 10W contre 100W pour les écrans CRT) et n'émettent pas de rayonnement

électromagnétique.

La technologie LCD

La technologie LCD (Liquid Crystal Display) est basée sur un écran composé de deux plaques parallèles

rainurées transparentes, orientées à 90°, entre lesquelles est coincée une fine couche de liquide

contenant des molécules (cristaux liquides) qui ont la propriété de s'orienter lorsqu'elles sont soumises à

du courant électrique.

Combiné à une source de lumière, la première plaque striée agit comme un filtre polarisant, ne laissant

passer que les composantes de la lumière dont l'oscillation est parallèle aux rainures.

Page 86: 133810711-informatique.pdf

En l'absence de tension électrique, la lumière est bloquée par la seconde plaque, agissant comme un

filtre polarisant perpendiculaire.

Sous l'effet d'une tension, les cristaux vont progressivement s'aligner dans le sens du champ électrique et

ainsi pouvoir traverser la seconde plaque !

En contrôlant localement l'orientation de ces cristaux il est possible de constituer des pixels. On distingue

habituellement deux types d'écrans plats selon le système de commande permettant de polariser les

cristaux :

• Les écrans dits à « matrice passive », dont les pixels sont contrôlés par ligne et par colonne.

Ainsi les pixels sont adressés par lignes et par colonne grâce à des conducteurs transparents situés

dans la dalle. Le pixel s'allume lors de son adressage et s'éteint entre deux balayages.

• Les écrans dits à « matrice active », dont chaque pixel est contrôlé individuellement.

Que les écrans soient à matrice active ou passive, ils ont besoin d'une source lumineuse pour

fonctionner. Les termes suivants définissent la manière par laquelle l'écran est éclairé :

• Les écrans réflectifs sont des écrans éclairés par devant, par une lumière artificielle ou tout

simplement par la lumière ambiante (comme c'est le cas pour la plupart des montres digitales).

• Les écrans transmissifs utilisent un rétro éclairage pour afficher les informations. Ce type

d'écran est particulièrement adapté pour un usage en intérieur ou dans des conditions de faible

éclairage et fournissent habituellement une image contrasté et lumineuse. En contrepartie, ils

deviennent difficilement lisibles utilisés en extérieur (en plein soleil par exemple).

• Les écrans transflectifs utilisent un rétro éclairage ainsi qu'un polariseur composé d'un matériau

translucide capable de transmettre la lumière d'arrière plan tout en réfléchissant une partie de la

Page 87: 133810711-informatique.pdf

lumière ambiante. Ce type d'écran convient en particulier aux appareils destinés à une utilisation tant

en intérieur qu'en extérieur (appareils photo numérique, PDA).

Écrans plasma

La technologie plasma (PDP, Plasma Display Panel) est basée sur une émission de lumière grâce à

l'excitation d'un gaz. Le gaz utilisé dans les écrans plasma est un mélange d'argon (90%) et de xénon

(10%). Du gaz est contenu dans des cellules, correspondant aux pixels, dans lesquelles sont adressées

une électrode ligne et une électrode colonne permettant d'exciter le gaz de la cellule. En modulant la

valeur de la tension appliquée entre les électrodes et la fréquence de l'excitation il est possible de définir

jusqu'à 256 valeurs d'intensités lumineuses. Le gaz ainsi excité produit un rayonnement lumineux

ultraviolet (donc invisible pour l'œil humain. Grâce à des luminophores respectivement bleus, verts et

rouges répartis sur les cellules le rayonnement lumineux ultraviolet est converti en lumière visible, ce qui

permet d'obtenir des pixels (composés de 3 cellules) de 16 millions de couleurs (256 x 256 x 256).

La technologie plasma permet d'obtenir des écrans de grande dimension avec de très bonnes valeurs de

contrastes mais le prix d'un écran plasma reste élevé. De plus la consommation électrique est plus de 30

fois supérieure à celle d'un écran LCD.

Les caractéristiques

Les écrans plats sont souvent caractérisés par les données suivantes :

• La définition : il s'agit du nombre de points (pixels) que l'écran peut afficher, ce nombre de points

est généralement compris entre 640x480 (640 points en longueur, 480 points en largeur) et

1600x1200, mais des résolutions supérieures sont techniquement possibles.

• La taille : Elle se calcule en mesurant la diagonale de l'écran et est exprimée en pouces (un

pouce équivaut à 2,54 cm). Il faut veiller à ne pas confondre la définition de l'écran et sa taille. En effet

un écran d'une taille donnée peut afficher différentes définitions, cependant de façon générale les

écrans de grande taille possèdent une meilleure définition.

• La résolution : Elle détermine le nombre de pixels par unité de surface (pixels par pouce linéaire

(en anglais DPI: Dots Per Inch, traduisez points par pouce). Une résolution de 300 dpi signifie 300

colonnes et 300 rangées de pixels sur un pouce carré ce qui donnerait donc 90000 pixels sur un

pouce carré. La résolution de référence de 72 dpi nous donne un pixel de 1"/72 (un pouce divisé par

72) soit 0.353mm, correspondant à un point pica (unité typographique anglo-saxonne).

• Le temps de réponse : Défini par la norme internationale ISO 13406-2, il correspond à la durée

nécessaire afin de faire passer un pixel du blanc au noir, puis de nouveau au blanc. Le temps de

réponse (défini en millisecondes) doit être choisi le plus petit possible (pragmatiquement, inférieur à

25 ms).

• La luminance : Exprimée en candelas par mètre carré (Cd/m<sup>2</sup>, elle permet de

définir la « luminosité » de l'écran. L'ordre de grandeur de la luminance est d'environ 250

cd/m<sup>2</sup>.

• L'angle de vision vertical et horizontal : Exprimée en degrés, il permet de définir l'angle à partir

duquel la vision devient difficile lorsque l'on n'est plus face à l'écran.

Disque dur

1. Le rôle du disque dur 2. Structure 3. Fonctionnement 4. Mode bloc

Page 88: 133810711-informatique.pdf

5. Mode 32 bits 6. Caractéristiques techniques 7. Ressources sur le même sujet

Le rôle du disque dur

Le disque dur est l'organe de l'ordinateur servant à conserver les données de manière permanente,

contrairement à la mémoire vive, qui s'efface à chaque redémarrage de l'ordinateur, c'est la raison pour

laquelle on parle parfois de mémoire de masse pour désigner les disques durs.

Le disque dur est relié à la carte-mère par l'intermédiaire d'un contrôleur de disque dur faisant

l'interface entre le processeur et le disque dur. Le contrôleur de disque dur gère les disques qui lui sont

reliés, interprête les commandes envoyées par le processeur et les achemine au disque concerné. On

distingue généralement les interfaces suivantes :

• IDE

• SCSI

• Serial ATA

Avec l'apparition de la norme USB, des boîtiers externes permettant de connecter un disque dur sur un

port USB ont fait leur apparition, rendant le disque dur facile à installer et permettant de rajouter de la

capacité de stockage pour faire des sauvegardes. On parle ainsi de disque dur externe par opposition

aux disques durs internes branchés directement sur la carte mère, mais il s'agit bien des mêmes disques,

si ce n'est qu'ils sont connectés à l'ordinateur par l'intermédiaire d'un boîtier branché sur un port USB.

Structure

Un disque dur est constitué non pas d'un seul disque, mais de plusieurs disques rigides (en anglais hard

disk signifie disque dur) en métal, en verre ou en céramique, empilés à une très faible distance les uns

des autres et appelés

plateaux (en anglais platters).

Page 89: 133810711-informatique.pdf

Les disques tournent très rapidement autour d'un axe (à plusieurs milliers de tours par minute

actuellement) dans le sens inverse des aiguilles d'une montre. Un ordinateur fonctionne de

manièrebinaire, c'est-à-dire que les données sont stockées sous forme de 0 et de 1 (appelés bits). Il

existe sur les disques durs des millions de ces bits, stockés très proches les uns des autres sur une fine

couche magnétique de quelques microns d'épaisseur, elle-même recouverte d'un film protecteur.

La lecture et l'écriture se fait grâce à des têtes de lecture (en anglais heads) situées de part et d'autre

de chacun des plateaux. Ces têtes sont des électro-aimants qui se baissent et se soulèvent pour pouvoir

lire l'information ou l'écrire. Les têtes ne sont qu'à quelques microns de la surface, séparées par une

couche d'air provoquée par la rotation des disques qui crée un vent d'environ 250km/h ! De plus ces têtes

sont mobiles latéralement afin de pouvoir balayer l'ensemble de la surface du disque.

Cependant, les têtes sont liées entre elles et une tête seulement peut lire ou écrire à un moment donné.

On parle donc de cylindre pour désigner l'ensemble des données stockées verticalement sur la totalité

des disques.

L'ensemble de cette mécanique de précision est contenu dans un boîtier totalement hermétique, car la

moindre particule peut détériorer la surface du disque. Vous pouvez donc voir sur un disque des

opercules permettant l'étanchéité, et la mention "Warranty void if removed" qui signifie littéralement "la

garantie expire si retiré" car seuls les constructeurs de disques durs peuvent les ouvrir (dans des salles

blanches, exemptes de particules).

Fonctionnement

Les têtes de lecture/écriture sont dites « inductives », c'est-à-dire qu'elles sont capables de générer un

champ magnétique. C'est notamment le cas lors de l'écriture : les têtes, en créant des champs positifs ou

négatifs, viennent polariser la surface du disque en une très petite zone, ce qui se traduira lors du

passage en lecture par des changements de polarité induisant un courant dans la tête de lecture, qui sera

ensuite transformé par un convertisseur analogique numérique (CAN) en 0 et en 1 compréhensibles par

l'ordinateur.

Page 90: 133810711-informatique.pdf

Les têtes commencent à inscrire des données à la périphérie du disque (piste 0), puis avancent vers le

centre. Les données sont organisées en cercles concentriques appelés « pistes », créées par

leformatage de bas niveau.

Les pistes sont séparées en quartiers (entre deux rayons) que l'on appelle secteurs, contenant les

données (au minimum 512 octets par secteur en général).

On appelle cylindre l'ensemble des données situées sur une même piste sur des plateaux différents

(c'est-à-dire à la verticale les unes des autres) car cela forme dans l'espace un "cylindre" de données.

Page 91: 133810711-informatique.pdf

On appelle enfin cluster (ou en français unité d'allocation) la zone minimale que peut occuper un fichier

sur le disque. En effet le système d'exploitation exploite des blocs qui sont en fait

plusieurs secteurs(entre 1 et 16 secteurs). Un fichier minuscule devra donc occuper plusieurs secteurs

(un cluster).

Sur les anciens disques durs, l'adressage se faisait ainsi de manière physique en définissant la position

de la donnée par les coordonnées cylindre / tête / secteur (en anglais CHS pour Cylinder / Head /

Sector).

Mode bloc

Le mode bloc et le transfert 32 bits permettent d'exploiter pleinement les performances de votre disque

dur. Le mode bloc consiste à effectuer des transferts de données par bloc, c'est-à-dire par paquets de

512 octets généralement, ce qui évite au processeur d'avoir à traiter une multitude de minuscules

paquets d'un bit. Le processeur a alors du "temps" pour effectuer d'autres opérations.

Ce mode de transfert des données n'a malheureusement une véritable utilité que sous d'anciens

systèmes d'exploitation (tels que MS-DOS), car les systèmes d'exploitation récents utilisent leur propre

gestionnaire de disque dur, ce qui rend ce gestionnaire obsolète.

Une option du BIOS (IDE HDD block mode ou Multi Sector Transfer) permet parfois de déterminer le

nombre de blocs pouvant être gérés simultanément. Ce nombre se situe entre 2 et 32. Si vous ne le

connaissez pas, plusieurs solutions s'offrent à vous :

• consulter la documentation de votre disque dur ;

• rechercher les caractéristiques du disque sur internet ;

• déterminer expérimentalement en effectuant des tests.

Le mode bloc peut toutefois générer des erreurs sous certains systèmes, à cause d'une redondance de

gestionnaire de disque dur. La solution consiste alors à désactiver l'un des deux gestionnaires :

• la gestion logicielle du mode 32-bit sous le système d'exploitation ;

• le mode bloc dans le BIOS.

Mode 32 bits

Le mode 32 bits (par opposition au mode 16 bits) est caractérisé par un transfert des données sur 32 bits.

Le transfert sur 32 bits correspond à 32 portes qui s'ouvrent et se ferment simultanément. En mode 32

bits, deux mots (ensemble de bits) de 16 bits sont transmis successivement, puis assemblés.

Le gain de performance lié au passage du mode 16 bits au mode 32 bits est généralement insignifiant.

Quoiqu'il en soit il n'est la plupart du temps plus possible de choisir le mode, car la carte mère détermine

automatiquement le type de mode à adopter en fonction du type de disque dur.

La détermination automatique du mode 32 bits peut toutefois ralentir les lecteurs de CD-ROM IDE dont la

vitesse est supérieure à 24x lorsqu'ils sont seuls sur une nappe IDE. En effet, dans le cas où le lecteur de

CD-ROM est seul sur la nappe, le BIOS peut ne pas détecter sa compatibilité avec le mode 32 bits

(puisqu'il cherche un disque dur), auquel cas il passe en mode 16 bits. La vitesse de transfert (appelée

par abus de langage taux de transfert) est alors en dessous du taux de transfert annoncé par le

constructeur.

Page 92: 133810711-informatique.pdf

La solution dans ce genre de cas consiste à brancher sur la même nappe que le lecteur de CD-ROM un

disque dur supportant le mode 32 bits.

Caractéristiques techniques

• Capacité : volume de données pouvant être stockées sur le disque.

• Taux de transfert (ou débit) : quantité de données pouvant être lues ou écrites sur le disque par

unité de temps. Il s'exprime en bits par seconde.

• Vitesse de rotation : vitesse à laquelle les plateaux tournent, exprimée en tours par minutes

(notésrpm pour rotations par minute). La vitesse des disques durs est de l'ordre de 7200 à 15000 rpm.

Plus la vitesse de rotation d'un disque est élevée meilleur est le débit du disque. En revanche, un

disque possédant une vitesse de rotation élevé est généralement plus bruyant et chauffe plus

facilement.

• Temps de latence (aussi appelé délai rotationnel) : temps écoulé entre le moment où le disque

trouve la piste et le moment où il trouve les données.

• Temps d'accès moyen : temps moyen que met la tête pour se positionner sur la bonne piste et

accéder à la donnée. Il représente donc le temps moyen que met le disque entre le moment où il a

reçu l'ordre de fournir des données et le moment où il les fournit réellement. Il doit ainsi être le plus

court possible.

• Densité radiale : nombre de pistes par pouce (tpi: Track per Inch).

• Densité linéaire : nombre de bits par pouce sur une piste donnée (bpi: Bit per Inch).

• Densité surfacique : rapport de la densité linéaire sur la densité radiale (s'exprime en bits par

pouce carré).

• Mémoire cache (ou mémoire tampon) : quantité de mémoire embarquée sur le disque dur. La

mémoire cache permet de conserver les données auxquelles le disque accède le plus souvent afin

d'améliorer les performances globales ;

• Interface : il s'agit de la connectique du disque dur. Les principales interfaces pour disques durs

sont les suivantes :

• IDE/ATA ;

• Serial ATA ;

• SCSI ;

• Il existe par ailleurs des boîtiers externes permettant de connecter des disques durs

en USB oufirewire.

Disque dur SSD

Disque dur SSD

La mémoire flash peut remplacer dans certains cas un disque dur. On parle dans ce cas de

disques SSD(Solid State Drive). La traduction en lecteur à état solide fait référence aux composants

électroniques dont il est constitué, par opposition aux disques durs classiques disposant de parties

mécaniques mobiles.

Le terme anglais solid state désigne un appareil ou composant électronique à semi-conducteurs, donc

sans pièces mobiles.

Page 93: 133810711-informatique.pdf

Avantages d'un disque dur SSD

Son principal avantage est son temps d’accès particulièrement faible, généralement de 0,1 ms. Sa

consommation électrique est également plus faible, en particulier en veille. Par ailleurs, le silence total et

sa résistance accrue aux chocs sont des atouts incontournables.

Ces disques utilisent généralement une interface SATA et sont disponibles en 3" ½ ou 2" ½.

Inconvénients d'un disque dur SSD

Pour autant, le nombre d’écritures sur une même zone du « disque » est limité à quelques centaines de

milliers (ce qui est rapidement atteint en cas d’utilisation de mémoire virtuelle ou de fichiers de log). En

attendant des solutions pour contourner ce défaut, augmenter la capacité (à ce jour, 256 Go maximum) et

surtout réduire le coût, les utilisations du SSD comme disque principal restent limitées à certaines

applications telles que les mini PC.

Type de puces

Il existe deux puces différentes sur les SSD. Les puces MLC et SLC.

La puce MLC

Elle est l'abréviation de "Multi-Level Cell" literralement cellule à multi-niveaux. Cette puce est utilisée

dans les SSD grand public.

• Son avantage réside dans son faible coût de production.

• Ces inconvénients sont qu'elle ne permet pas d'atteindre d'importantse vitesses de transfert, elle

consomme beaucoup plus, et à une durée de vie plus faible que la puce SLC.

La puce SLC

Elle est l'abréviation de "Single Level Cell", ce qui signifie cellule à un niveau. On trouve cette puce dans

les SSD professionnel, ainsi que dans les SSD haut de gamme.

• Elle présente l'avante d'avoir des vitesses de transfert accrues, une consommation moins

importante, et une durée de vie plus importante que la puce MLC.

• Son seul inconvénient est son coût de fabrication trés elevé.

CD, CD audio et CD-ROM

Le Compact Disc a été inventé par Sony et Philips en 1981 afin de constituer un support audio compact

de haute qualité permettant un accès direct aux pistes numériques. Il a été officiellement lancé en octobre

1982. En 1984, les spécifications du Compact Disc ont été étendues (avec l'édition du Yellow Book) afin

de lui permettre de stocker des données numériques.

La géométrie du CD

Le CD (Compact Disc) est un disque optique de 12 cm de diamètre et de 1.2 mm d'épaisseur

(l'épaisseur peut varier de 1.1 à 1.5 mm) permettant de stocker des informations numériques, c'est-à-dire

correspondant à 650 Mo de données informatiques (soient 300 000 pages dactylographiées) ou bien

Page 94: 133810711-informatique.pdf

jusqu'à 74 minutes de données audio. Un trou circulaire de 15 mm de diamètre en son milieu permet de

le centrer sur la platine de lecture.

La composition du CD

Le CD est constitué d'un substrat en matière plastique (polycarbonate) et d'une fine pellicule métallique

réfléchissante (or 24 carat ou alliage d'argent). La couche réfléchissante est recouverte d'une laque anti-

UV en acrylique créant un film protecteur pour les données. Enfin, une couche supplémentaire peut être

ajoutée afin d'obtenir une face supérieure imprimée.

La couche réfléchissante possède de petites alvéoles. Ainsi lorsque le laser traverse le substrat de

polycarbonate, la lumière est réfléchie sur la couche réfléchissante, sauf lorsque le laser passe sur une

alvéole, c'est ce qui permet de coder l'information.

Cette information est stockée sur 22188 pistes gravées en spirales (il s'agit en réalité d'une seule piste

concentrique).

Les CD achetés dans le commerce sont pressés, c'est-à-dire que les alvéoles sont réalisées grâce à du

plastique injecté dans un moule contenant le motif inverse. Une couche métallique est ensuite coulée sur

le substrat en polycarbonate, et cette couche métallique est elle-même prise sous une couche

protectrice.

Les CD vierges par contre (CD-R) possèdent une couche supplémentaire (située entre le substrat et la

couche métallique) composée d'un colorant organique (en anglais dye) pouvant être marqué (le

termebrûler est souvent utilisé) par un laser de forte puissance (10 fois celle nécessaire pour la lecture).

C'est donc la couche de colorant qui permet d'absorber ou non le faisceau de lumière émis par le laser.

Page 95: 133810711-informatique.pdf

Les colorants les plus souvent utilisés sont :

• La cyanine de couleur bleue, donnant une couleur verte lorsque la couche métallique est en or

• La pthalocyanine de couleur "vert clair", donnant une couleur dorée lorsque la couche

métallique est en or

• L'AZO, de couleur bleu foncé

Etant donné que l'information n'est plus stockée sous forme de cavité mais par une marque "colorée",

une pré-spirale (en anglais pre-groove) est présente dans le support vierge afin d'aider le graveur à

suivre le chemin en spirale, ce qui évite la présence d'une mécanique de précision sur les graveurs de

CD-R.

D'autre part, cette spirale ondule selon une sinusoïdale, appelée wobble, possédant une amplitude de +/-

0.03µm (30nm) et une fréquence de 22,05kHz. Le wobble permet de donner une information au graveur

sur la vitesse à laquelle il doit graver. Cette information est appelée ATIP (Absolute Time in PreGroove).

Fonctionnement

La tête de lecture est composé d'un laser (Light Amplification by Stimulated Emission of Radiation)

émettant un faisceau lumineux et d'une cellule photoélectrique chargée de capter le rayon réfléchi. Le

laser utilisé par les lecteurs de CD est un laser infrarouge (possédant une longueur d'onde de 780 nm)

car il est compact et peu coûteux. Une lentille située à proximité du CD focalise le faisceau laser sur les

alvéoles.

Un miroir semi réfléchissant permet à la lumière réfléchie d'atteindre la cellule photoélectrique, comme

expliqué sur le dessin suivant :

Page 96: 133810711-informatique.pdf

Un chariot est chargé de déplacer le miroir de façon à permettre à la tête de lecture d'accéder à

l'intégralité du CD-ROM.

On distingue généralement deux modes de fonctionnement pour la lecture de CD :

• La lecture à vitesse linéaire constante (notée CLV soit constant linear velocity). Il s'agit du

mode de fonctionnement des premiers lecteurs de CD-ROM, basé sur le fonctionnement des lecteurs

de CD audio ou bien même des vieux tourne-disques. Lorsqu'un disque tourne, la vitesse des pistes

situées au centre est moins importante que celle des pistes situées sur l'extérieur, ainsi il est

nécessaire d'adapter la vitesse de lecture (donc la vitesse de rotation du disque) en fonction de la

position radiale de la tête de lecture. Avec ce procédé la densité d'information est la même sur tout le

support, il y a donc un gain de capacité. Les lecteurs de CD audio possèdent une vitesse linéaire

comprise entre 1.2 et 1.4 m/s.

• La lecture à vitesse de rotation angulaire constante (notée CAV pour constant angular

velocity) consiste à ajuster la densité des informations selon l'endroit où elles se trouvent afin d'obtenir

le même débit à vitesse de rotation égale en n'importe quel point du disque. Cela crée donc une faible

densité de données à la périphérie du disque et une forte densité en son centre.

La vitesse de lecture du lecteur de CD-ROM correspondait à l'origine à la vitesse de lecture d'un CD

audio, c'est-à-dire un débit de 150 ko/s. Cette vitesse a par la suite été prise comme référence et

notée 1x. Les générations suivantes de lecteurs de CD-ROM ont été caractérisées par des multiples de

cette valeur. Le tableau suivant donne les équivalences entre les multiples de 1x et le débit :

DébitTemps de réponse

1x 150 ko/s 400 à 600 ms

2x 300 ko/s 200 à 400 ms

3x 450 ko/s 180 à 240 ms

4x 600 ko/s 150 à 220 ms

6x 900 ko/s 140 à 200 ms

8x 1200 ko/s120 à 180 ms

10x

1500 ko/s100 à 160 ms

12x

1800 ko/s90 à 150 ms

16x

2400 ko/s80 à 120 ms

20x

3000 ko/s75 à 100 ms

Page 97: 133810711-informatique.pdf

24x

3600 ko/s70 à 90 ms

32x

4500 ko/s70 à 90 ms

40x

6000 ko/s60 à 80 ms

52x

7800 ko/s60 à 80 ms

Le codage des informations

La piste physique est en fait constituée d'alvéoles d'une profondeur de 0,168µm, d'une largeur de 0,67µm

et de longueur variable. Les pistes physiques sont écartées entre elles d'une distance d'environ 1.6µm.

On nomme creux (en anglais pit) le fond de l'alvéole et on nomme plat (en anglais land) les espaces

entre les alvéoles.

Le laser utilisé pour lire les CD a une longueur d'onde de 780 nm dans l'air. Or l'indice de réfraction du

polycarbonate étant égal à 1.55, la longueur d'onde du laser dans le polycarbonate vaut 780 / 1.55 =

503nm = 0.5µm.

La profondeur de l'alvéole correspond donc à un quart de la longueur d'onde du faisceau laser, si bien

que l'onde se réfléchissant dans le creux parcourt une moitié de longueur d'onde de plus (un quart à

l'aller plus un quart au retour) que celle se réfléchissant sur le plat.

Page 98: 133810711-informatique.pdf

De cette façon, lorsque le laser passe au niveau d'une alvéole, l'onde et sa réflexion sont déphasées

d'une demi-longueur d'onde et s'annulent (interférences destructrices), tout se passe alors comme si

aucune lumière n'était réfléchie. Le passage d'un creux à un plat provoque une chute de signal,

représentant un bit.

C'est la longueur de l'alvéole qui permet de définir l'information. La taille d'un bit sur le CD, notée "T", est

normalisée et correspond à la distance parcourue par le faisceau lumineux en 231.4 nanosecondes,

soit0.278µm à la vitesse standard minimale de 1.2 m/s.

D'après le standard EFM (Eight-to-Fourteen Modulation), utilisé pour le stockage d'information sur un CD,

il doit toujours y avoir au minimum deux bits à 0 entre deux bits consécutifs à 1 et il ne peut y avoir plus

de 10 bits consécutifs à zéro entre deux bits à 1 pour éviter les erreurs. C'est pourquoi la longueur d'une

alvéole (ou d'un plat) correspond au minimum à la longueur nécessaire pour stocker la valeur OO1 (3T,

c'est-à-dire 0.833µm) et au maximum à la longueur correspondant à la valeur 00000000001 (11T,

soit3.054µm).

Standards

Il existe de nombreux standards décrivant la façon selon laquelle les informations doivent être stockées

sur un disque compact, selon l'usage que l'on désire en faire. Ces standards sont référencés dans des

documents appelés books (en français livres) auxquels une couleur a été affectée :

• Red book (livre rouge appelé aussi RedBook audio): Développé en 1980 par Sony et Philips, il

décrit le format physique d'un CD et l'encodage des CD audio (notés parfois CD-DA pour Compact

Disc - Digital Audio). Il définit ainsi une fréquence d'échantillonnage de 44.1 kHz et une résolution de

16 bits en stéréo pour l'enregistrement des données audio.

• Yellow book (livre jaune): il a été mis au point en 1984 afin de décrire le format physique des CD

de données (CD-ROM pour Compact Disc - Read Only Memory). Il comprend deux modes :

• CD-ROM Mode 1 , utilisé pour stocker des données avec un mode de correction

d'erreurs (ECC, pour Error Correction Code) permettant d'éviter les pertes de données dûes à

une détérioration du support

• CD-ROM Mode 2, permettant de stocker des données graphiques, vidéo ou audio

compressées. Pour pouvoir lire ce type de CD-ROM un lecteur doit être compatible Mode 2.

• Green book (livre vert): format physique des CD-I (CD Interactifs de Philips)

• Orange book (livre orange): format physique des CD inscriptibles. Il se décline en trois parties :

• Partie I: le format des CD-MO (disques magnéto-optiques)

• Partie II: le format des CD-WO (Write Once, désormais notés CD-R)

• Partie III: le format des CD-RW (CD ReWritable ou CD réinscriptibles)

• White book (livre blanc): format physique des CD vidéo (VCD ou VideoCD)

• Blue book (livre bleu): format physique des CD extra (CD-XA)

Page 99: 133810711-informatique.pdf

Structure logique

Un CD-R, qu'il soit audio ou CD-ROM, est constitué, d'après le Orange Book, de trois zones constituant

lazone d'information (information area) :

• La zone Lead-in Area (parfois notée LIA) contenant uniquement des informations décrivant le

contenu du support (ces informations sont stockées dans la TOC, Table of Contents). La zone Lead-

in s'étend du rayon 23 mm au rayon 25 mm. Cette taille est imposée par le besoin de pouvoir stocker

des informations concernant un maximum de 99 pistes. La zone Lead-in sert au lecteur de CD à

suivre les creux en spirale afin de se synchroniser avec les données présentes dans la zone

programme

• La zone Programme (Program Area) est la zone contenant les données. Elle commence à partir

d'un rayon de 25 mm, s'étend jusqu'à un rayon de 58mm et peut contenir l'équivalent de 76 minutes

de données. La zone programme peut contenir un maximum de 99 pistes (ou sessions) d'une

longueur minimale de 4 secondes.

• La zone Lead-Out (parfois notée LOA) contenant des données nulles (du silence pour un CD

audio) marque la fin du CD. Elle commence au rayon 58 mm et doit mesurer au moins O.5 mm

d'épaisseur (radialement). La zone lead-out doit ainsi contenir au minimum 6750 secteurs, soit 90

secondes de silence à la vitesse minimale (1X).

Un CD-R contient, en plus des trois zones décrites ci-dessus, une zone appelée PCA (Power Calibration

Area) et une zone PMA (Program Memory Area) constituant à elles deux une zone appelé SUA (System

User Area).

La PCA peut être vue comme une zone de test pour le laser afin de lui permettre d'adapter sa puissance

au type de support. C'est grâce à cette zone qu'est possible la commercialisation de supports vierges

utilisant des colorants organiques et des couches réfléchissantes différents. A chaque calibration, le

graveur note qu'il a effectué un essai. Un maximum de 99 essais par media est autorisé.

Page 100: 133810711-informatique.pdf

Systèmes de fichiers

Le format de CD (ou plus exactement le système de fichiers) s'attache à décrire la manière selon laquelle

les données sont stockées dans la zone programme.

Le premier système de fichiers historique pour les CD est le High Sierra Standard.

Le format ISO 9660 normalisé en 1984 par l'ISO (International Standards Organization) reprend le High

Sierra Standard afin de définir la structure des répertoires et des fichiers sur un CD-ROM. Il se décline en

trois niveaux :

• Niveau 1 : Un CD-ROM formaté en ISO 9660 Level 1 ne peut contenir que des fichiers dont le

nom est en majuscule (A-Z), pouvant contenir des chiffres (0-9) ainsi que le caractère "_". L'ensemble

de ces caractères est appelé d-characters. Les répertoires ont un nom limité à 8 d-characters et une

profondeur limitée à 8 niveaux de sous-répertoires. De plus la norme ISO 9660 impose que chaque

fichier soit stocké de manière continue sur le CD-ROM, sans fragmentation. Il s'agit du niveau le plus

restrictif. Le respect du niveau 1 permet ainsi de s'assurer que le média sera lisible sur un grand

nombre de plates formes.

• Niveau 2 : Le format ISO 9660 Level 2 impose que chaque fichier soit stocké comme un flux

continu d'octets, mais permet un nommage de fichiers plus souple en acceptant notamment les

caractères @ - ^ ! $ % & ( ) # ~ et une profondeur de 32 sous-répertoires maximum.

• Niveau 3 : Le format ISO 9660 Level 3 n'impose aucune restriction de noms de fichiers ou de

répertoires.

Microsoft a également défini le format Joliet, une extension au format ISO 9660 permettant d'utiliser des

noms de fichiers longs (LFN, long file names) de 64 caractères comprenant des espaces et des

caractères accentués selon le codage Unicode.

Le format ISO 9660 Romeo est une option de nommage proposée par Adaptec, indépendante donc du

format Joliet, permettant de stocker des fichiers dont le nom peut aller jusqu'à 128 caractères mais ne

supportant pas le codage Unicode.

Le format ISO 9660 RockRidge est une extension de nommage au format ISO 9660 lui permettant d'être

compatible avec les systèmes de fichiers UNIX.

Afin de pallier les limitations du format ISO 9660 (le rendant notamment inapproprié pour les DVD-ROM),

l'OSTA (Optical Storage Technology Association) a mis au point le format ISO 13346, connu sous le nom

de UDF (Universal Disk Format).

Les méthodes d'écriture

• Monosession : Cette méthode crée une seule session sur le disque et ne donne pas la

possibilité de rajouter des données ultérieurement.

• Multisession : Contrairement à la méthode précédente, cette méthode permet de graver un CD

en plusieurs fois, en créant une table des matières (TOC pour table of contents) de 14Mo pour

chacune des sessions

• Multivolume : C'est la gravure Multisession qui considère chaque session comme un volume

séparé.

• Track At Once : Cette méthode permet de désactiver le laser entre deux pistes, afin de créer

une pause de 2 secondes entre chaque piste d'un CD audio.

Page 101: 133810711-informatique.pdf

• Disc At Once : Contrairement à la méthode précédente, le Disc At Once écrit sur le CD en une

seule traite (sans pause).

• Packet Writing : Cette méthode permet la gravure par paquets.

Caractéristiques techniques

Un lecteur CD-ROM est caractérisé par les éléments suivants :

• Vitesse: la vitesse est calculée par rapport à la vitesse d'un lecteur de CD-Audio (150 Ko/s). Un

lecteur allant à 3000Ko/s sera qualifié de 20X (20 fois plus rapide qu'un lecteur 1X).

• Temps d'accès : il représente le temps moyen pour aller d'une partie du CD à une autre.

• Interface : ATAPI (IDE) ou SCSI ;

DVD, DVD audio et DVD-ROM (DVD-R, DVD-RW, DVD+W, DVD+RW)

Présentation du DVDLe DVD (Digital Versatile Disc, plus rarement Digital Video Disc) est une «alternative» au disque compact (CD) dont la capacité est six fois plus importante (pour le support DVD de moindre capacité, simple face, simple couche). Le format DVD a été prévu afin de fournir un support de stockage universel alors que le CD était originalement prévu en tant que support audio uniquement.

Le format DVD est prévu afin de rendre les données adressables et accessibles aléatoirement (de manière non séquentielle). Il possède une structure complexe, permettant une plus grande interactivité, mais nécessitant l'utilisation de microprocesseurs évolués.

Le format DVD était porté originalement (dès le 15 septembre 1995) par un consortium de dix sociétés du monde multimédia (Hitachi, JVC, Matsushita, Mitsubishi, Philips, Pioneer, Sony, Thomson, Time Warner et Toshiba). A partir de 1997, un nouveau consortium, baptisé «DVD Forum» a succédé au consortium initial.

Un DVD peut facilement être confondu avec un CD dans la mesure où les deux supports sont des disques en plastique de 12 cm de diamètre et de 1.2 mm d'épaisseur et que leur lecture repose sur l'utilisation d'un rayon laser. Toutefois, les CD utilisent un laser infrarouge possédant une longueur d'onde de 780 nanomètres (nm) tandis que les graveurs de DVD utilisent un laser rouge avec une longueur d'onde de 635 nm ou 650 nm. De plus, les lecteurs de CD utilisent généralement une lentille dont la focale vaut 0,5, alors que les lecteurs de DVD sont basés sur une lentille ayant une focale de 0,6. Ainsi, les DVD possèdent des alvéoles dont la taille minimum est de 0,40µ avec un espacement de 0,74µ, contre 0,834µ et 1,6µ pour le CD.

Page 102: 133810711-informatique.pdf

L'intérêt du DVD est essentiellement sa capacité de stockage, ce qui en fait le support par excellence pour la vidéo. Un DVD de 4,7 Go permet ainsi de stocker plus de deux heures de vidéo compressée en MPEG-2 (Motion Picture Experts Group), un format qui permet de compresser les images tout en gardant une grande qualité d'image.

Structure physiqueLes DVD existent en version «simple couche» et «double couche» (en anglais «Dual Layer», noté DL). Ces derniers sont constitués d'une couche translucide semi réfléchissante à base d'or et d'une couche réflexive opaque à base d'argent, séparées par une couche de liaison (bonding layer). Pour lire ces deux couches le lecteur dispose d'un laser pouvant changer d'intensité en modifiant sa fréquence et sa focale :

• avec une intensité faible le rayon est réfléchi sur la surface dorée supérieure, • avec une intensité plus élevée le rayon traverse la première couche et est

réfléchi sur la surface argentée inférieure.

La couche inférieure possède toutefois une densité moindre. De plus l'information y est stockée «à l'envers» sur une spirale inversée, afin de limiter le temps de latence lors du passage d'une couche à une autre.

Page 103: 133810711-informatique.pdf

Par ailleurs, les DVD existent en version simple face ou double face, à la manière des disques vinyles. Dans le second cas, l'information est stockée de part et d'autre du support.

On distingue généralement 4 grandes familles de supports DVD, possédant différentes capacités selon leurs caractéristiques physiques :

Type de support

CaractéristiquesCapaci

téTemps musical

équivalentNombre de CD

équivalent

CD 650Mo 1h14 min 1

DVD-5simple face, simple couche

4.7 Go 9h30 7

DVD-9simple face double couche

8.5 Go 17h30 13

DVD-10double face, simple couche

9.4 Go 19h 14

DVD-17double face, double couche

18 Go 35h 26

Formats standard de DVDLes spécifications officielles des DVD se déclinent en cinq livres :

Page 104: 133810711-informatique.pdf

• le livre A (Book A) pour le DVD-ROM ; • le livre B (Book B) pour le DVD Vidéo ; • le livre C (Book C) pour le DVD Audio ; • le livre D (Book D) pour le DVD inscriptible (DVD-R) et le DVD réinscriptible

(DVD-RW). Le format DVD-R est un format inscriptible une seule fois (Write-Once), tandis que le format DVD-RW est un format réinscriptible, permettant l'effacement et la modification de données grâce à une phase capable de changer d'état ;

• le livre E (Book E) pour le DVD réinscriptible (également DVD-RAM, pour DVD Random Access Memory). Le DVD-RAM est un support réinscriptible utilisant une technologie du changement de phase pour l'enregistrement. Les DVD-RAM sont en réalité des cartouches composées d'un boîtier et d'un DVD. Certaines cartouches sont amovibles, afin de permettre la lecture d'un DVD-RAM dans un lecteur DVD de salon.

Formats standard de DVD enregistrablesIl existe actuellement trois formats de DVD enregistrables :

• DVD-RAM de Toshiba © et Matsushita ©. Il s'agit d'un format essentiellement utilisé au Japon.

• DVD-R / DVD-RW, porté par le DVD Forum. Les DVD au format DVD-R sont enregistrables une seule fois tandis que les DVD au format DVD-RW sont réinscriptibles à raison d'environ 1 000 enregistrements. Le format DVD-R, ainsi que le format DVD-RW, permet d'obtenir une capacité totale de 4.7 Go.

• DVD+R / DVD+RW, porté par Sony et Philips au sein de la DVD+RW Alliance, regroupant, en plus des deux précédentes, les sociétés Dell, Hewlett-Packard, Mitsubishi/Verbatim, Ricoh, Thomson et Yamaha.

Ces trois formats sont incompatibles entre eux, malgré des performances équivalentes. Le format DVD-RAM ne fera pas l'objet de détails, dans la mesure où il est principalement utilisé au Japon. Les formats DVD-R(W) et DVD+R(W) sont par contre largement utilisés en Europe.

DVD-R/RWLe format DVD-R/DVD-RW est basé sur une technique dite du «pré-pits». À la manière des CD inscriptibles (CD-R), les DVD inscriptibles et réinscriptibles utilisent une «pre-groove» (spirale préalablement gravée sur le support), ondulant selon une sinusoïdale appelée wobble. La pre-groove permet de définir le positionnement de la tête d'enregistrement sur le support (appelé tracking) tandis que la fréquence d'oscillation permet au graveur d'ajuster sa vitesse. Les informations d'adressage (position des données) sont par contre définies grâce à des cuvettes pré-gravées sur le support, dans les creux (appelés land) entre les sillons du disque (appelés groove), baptisées «land pré pits» (abrégé en LPP).

Page 105: 133810711-informatique.pdf

Les pré-pits constituent ainsi un second signal servant au positionnement des données. Lorsque le laser rencontre un pré-pit, un pic d'amplitude apparaît dans l'oscillation, indiquant au graveur où la donnée doit être gravée. Les spécifications du DVD-R précise qu'un pré-pit doit posséder une longueur d'au moins une période (1T).

Le format DVD-R/DVD-RW propose des fonctionnalités de gestion des erreurs, essentiellement logicielles (appelées Persistent-DM et DRT-DM).

DVD+R/RWLe format DVD+R/DVD+RW utilise une spirale dont l'oscillation (wobble) possède une fréquence beaucoup plus élevée que les DVD-R (817,4 kHz pour les DVD+R contre 140,6 pour les DVD-R) et gère l'adressage grâce à une modulation de la phase de l'oscillation, c'est-à-dire un codage par inversion de phase appelé ADIP (ADdress In Pre-groove). L'inversion de phase a lieu toutes les 32 périodes (32T).

Le format DVD+RW offre une fonctionnalité de correction d'erreurs appelée DVD+MRW (Mount Rainier for DVD+RW abrégé en Mt Rainier for DVD+RW) permettant de marquer les blocs défectueux. De plus, si des données lisibles existent sur ce bloc, un mécanisme permet de les déplacer sur un bloc sain et met à jour la table d'allocation des fichiers (on parle alors de Logical to Physical Address Translation).

Page 106: 133810711-informatique.pdf

En outre, une vérification en arrière-plan est prévue dans les spécifications, permettant de vérifier les erreurs présentes sur le disque, lorsque le lecteur est inactif. L'utilisateur peut néanmoins lire le support ou l'éjecter à tout moment, auquel cas les vérifications continueront où elles s'étaient arrêtées dès que le lecteur sera à nouveau en veille.

Différences entre DVD+ et DVD-D'une manière générale la méthode d'adressage utilisée par les DVD+R (modulation de phase) possède une meilleure résistance aux perturbations électromagnétiques que la méthode des pré-pits. En effet, lors de la gravure, le graveur doit également lire les pré-pits afin de positionner correctement les données sur le support. Or, la lumière émise par le laser peut provoquer des perturbations.

D'autre part, étant donné la période correspondant à la longueur d'un pré-pit (1T), les pré-pits sont d'autant plus difficiles à détecter que la vitesse de lecture est élevée. Il n'est donc pas étonnant que le premier graveur 16x commercialisé ait été au format DVD+RW.

Ainsi, le format DVD+R(W), bénéficiant de spécifications plus récentes, propose de meilleures performances ainsi que des fonctionnalités supplémentaires. En contrepartie, le format DVD-R(W) est ratifié par le DVD Forum et correspond au format initial, si bien qu'une majorité de lecteurs (notamment de salon) sont compatibles.

Les graveurs de DVD supportent généralement les deux formats de disques. En conclusion, compte tenu de sa meilleure compatibilité avec les platines de salon, le format DVD-R(W) est à privilégier pour la création de DVD Vidéo, tandis que le format DVD+R(W) comporte des avantages pour la création de DVD de données.

DVD DLLe terme «DVD DL» (DVD Dual Layer) désigne les DVD enregistrables double couche. Ces supports, proposant une plus grande capacité de stockage que les DVD simple couche, utilisent une technologie proche des DVD-9 (DVD pressés double couche).

Structure logiqueUn DVD est essentiellement constitué de trois zones représentant la «zone d'information» (information area) :

• La zone Lead-in Area (parfois notée LIA) contenant uniquement des informations décrivant le contenu du support (ces informations sont stockées dans la TOC, Table of Contents, traduisez table des contenus). La zone Lead-in sert au lecteur à suivre les creux en spirale afin de se synchroniser avec les données présentes dans la zone programme.

• La zone Programme (Program Area) est la zone contenant les données. • La zone Lead-Out (parfois notée LOA), contenant des données nulles (du

silence pour un DVD audio), marque la fin du CD.

Page 107: 133810711-informatique.pdf

Un DVD enregistrable contient, en plus des trois zones décrites ci-dessus, une zone appelée PCA (Power Calibration Area) et une zone RMA (Recording Management Area) situées avant la zone Lead-In.

La PCA peut être vue comme une zone de test pour le laser afin de lui permettre d'adapter sa puissance au type de support. C'est grâce à cette zone qu'est possible la commercialisation de supports vierges utilisant des couches réfléchissantes et des colorants organiques différents. A chaque calibration, le graveur note qu'il a effectué un essai. Un maximum de 99 essais par media est autorisé.

Système de fichiers et répertoiresLes DVD utilisent le système de fichiers UDF (Universal Disk Format). Afin de maintenir une certaine compatibilité avec d'anciens systèmes d'exploitation, un système de fichiers hybride, appelé «UDF Bridge», supportant l'UDF et le système de fichiers ISO 9660 utilisé par les CD-ROM, a été mis au point. Il est toutefois important de noter que les lecteurs de DVD Vidéo et de DVD Audio ne supportent que le système UDF.

Structure d'un DVD VidéoUn DVD vidéo peut contenir des données destinées à des platines de salon ainsi que des données additionnelles pouvant être lues sur un ordinateur.

Un DVD-Video possède une organisation hiérarchique de ses répertoires permettant de contenir les données vidéo et audio. Il repose habituellement sur la structure

Page 108: 133810711-informatique.pdf

suivante :

Le répertoire principal, nommé VIDEO_TS (pour Video Title Sets), a pour vocation de contenir les fichiers du DVD Vidéo. Le répertoire AUDIO_TS concerne les DVD-Audio mais sa présence est parfois demandée par certains lecteurs DVD de salon. JACKET_P contient les images des jaquettes du DVD. Il est enfin possible d'y adjoindre d'autres répertoires, pouvant être lus sur un ordinateur.

Un DVD vidéo est composé d'un certain nombre d'éléments, présents dans le répertoire VIDEO_TS :

• un gestionnaire vidéo (VMG, pour Video Manager). Le VMG contient généralement la ou les vidéos d'introduction, ainsi que le menu donnant accès aux autres titres vidéo (y compris les sous-menus).

• un ou plusieurs ensembles de titres vidéo (VTS, pour video titles sets), contenant les titres vidéo.

Les «titres vidéo» correspondent à des films, des vidéos ou des albums. Un titre est composé d'un «ensemble d'objets vidéo» (VOBS, Video Object Block Sets), chacun composé :

• d'un «fichier de contrôle» (appelé VTSI, pour Video Title Set Information), et contenant les données de navigation.

• d'un ou plusieurs objets vidéo (VOB, Video Object Block). L'objet vidéo (VOB) est l'élément de base du DVD. Il contient des données vidéo, audio et des images multiplexées, au format MPEG2. Ainsi, un fichier .VOB peut être lu par un lecteur vidéo logiciel en changeant son extension en «.MPG». Les spécifications du DVD imposent que chaque fichier VOB ne dépasse pas un giga-octet. Chaque VOB est lui-même composé de «cellules» (Cells), représentant les différents clips vidéo ou audio composant le VOB : par exemple des chapitres vidéo ou les chansons d'un album.

• d'une copie du VTSI (VTSI Backup).

Un DVD peut contenir jusqu'à 99 titres (VTS), chacun subdivisé jusqu'à 10 chapitres.

Page 109: 133810711-informatique.pdf

Ainsi, le répertoire VIDEO_TS contient habituellement trois types de fichiers possédant les extensions suivantes :

• IFO contenant les informations de navigation (il correspond au Video Manager).

• VOB (Video Object Block) contenant les flux vidéo, les différents canaux audio ainsi que les sous-titres d'un titre vidéo.

• BUP (BUP signifiant Backup), contenant une sauvegarde des fichiers IFO, au cas où ils seraient illisibles.

Le fichier particulier nommé VIDEO_TS.IFO (IFO signifiant information) contient les informations nécessaires au lecteur pour l'affichage du menu principal. Il est accompagné du fichier VIDEO_TS.VOB, contenant le clip d'animation d'introduction, ainsi que d'un fichier de sauvegarde (nommé VIDEO_TS.BUP).

ZonesLes DVD Vidéo sont conçus pour ne pouvoir être consultés que dans certaines régions du monde : il s'agit du découpage en zone (prévu initialement pour limiter la diffusion des copies illicites). Il est ainsi théoriquement impossible de lire un DVD d'une zone en étant situé dans une autre. Néanmoins, la quasi-totalité des lecteurs de DVD pour ordinateurs et une grande partie des lecteurs de salon peuvent être «dézonés» grâce à des utilitaires.

Page 110: 133810711-informatique.pdf

Blu rayDisques Blu-rayLe disque Blu-ray (ou BD) est un média optique conçu pour le stockage de vidéos haute définition et de données. Il présente les mêmes dimensions qu’un CD ou un DVD standard.

Ce format a fini par s’imposer après une « guerre de standard » l’opposant au format HD DVD, soutenu essentiellement par Microsoft et Toshiba. Ce format avait l’avantage d’être moins cher, mais se contentait d’un espace de stockage un peu plus réduit. À la suite de l’annonce par Toshiba d’abandonner en février 2008 le développement des produits HD DVD, l’ensemble des autres partenaires ont abandonné le format, laissant Blu-ray s’imposer en tant que standard du stockage haute définition.

Laser bleuSon nom provient de l’utilisation d’un laser bleu (en fait plutôt violet) pour la lecture ou l’écriture des données. Ce laser a une longueur d’onde de 405 nm, alors que les lasers présents dans les lecteurs CD ou DVD classiques utilisent respectivement des lasers infrarouges proches (780 nm) ou rouges (650 nm). Le laser bleu, avec sa longueur d’onde plus faible, permet de lire ou écrire des « trous » plus petits sur un même espace, ce qui permet par là même d’augmenter le nombre de sillons du disque et donc de stocker un plus grand nombre d’informations.

Sa capacité courante est de 25 Go en simple face et 50 Go en double face. Trois standards sont définis : le BD-R (disque enregistrable), le BD-RE (réinscriptible) et le BD-ROM (lecture seule).

Des disques BD-ROM à 4 couches sont également possibles : il existe ainsi des disques de 100 Go utilisant 4 couches de 25 Go, et de même de 200 Go utilisant 6 couches de 33,3 Go. Pour le moment, tous les lecteurs du marché ne sont pas capables de les lire. À terme, il pourrait exister jusqu’à 10 couches (par face).

Comme pour les CD-R ou DVD-R, plusieurs vitesses d’enregistrement ont été définies pour le BD-R (ou -RE) :

Vitesse

Taux de transfert (Mo/s)

Temps d’écriture (min) pour un disque Blu-ray

Simple couche Double couche

1x 4,5 90 180

2x 9 45 90

4x 18 23 45

6x 27 15 30

8x 36 12 23

Page 111: 133810711-informatique.pdf

12x 54 8 15

À ce jour, les deux dernières vitesses (8x et 12x) restent totalement théoriques.

Sur les disques Blu-ray, la surface sur laquelle sont présentes les données doit toutefois être plus près de la surface du disque. Comparé à un DVD standard, il est donc plus sensible aux rayures. Les premières versions utilisaient pour éviter ce désagrément des boîtiers de protection intégrés de type cartouche. Les progrès rapides effectués par les fabricants (TDK, Sony, Verbatim, etc.) dans le domaine des polymères ont permis de supprimer ces protections et d’abandonner l’enveloppe de protection.

Comme pour le CD ou le DVD, il existe un format réduit de Blu-ray à 8 cm (au lieu de 12 cm). Ce format, simple couche, à une face, est destiné à de petits appareils portables (caméra, console portable, etc.) et permet de stocker 15 Go.

Compression, codecs et heures de vidéoLe format BD-ROM spécifie trois formats de compression pour la vidéo : MPEG-2, H.264/AVC, SMPTE VC-1. Le codec MPEG-2 est le standard actuellement utilisé pour les DVD. En utilisant ce codec, il est possible de placer deux heures de vidéo haute définition sur un disque simple couche, car le MPEG-2 haute définition nécessite un taux de transfert d’environ 25 Mbit/s (chaque seconde de film utilise donc 3 Mo). En comparaison, le codec H.264/AVC (qui est une évolution du MPEG-4) et le codec SMPTE VC-1 (dérivé des développements de Microsoft pour son codec inclus dans Windows Media Player 9) permettent de stocker jusqu’à 4 heures de film sur le même support.

Le choix du codec par le producteur du disque n’est pas qu’une affaire de temps maximal disponible sur le disque. C’est également un problème de coûts de licence et de royalties à payer. Il arrive ainsi que sur un même disque on trouve le film principal en VC-1 et les bonus en MPEG-2.

Les graveurs de salon disponibles actuellement (formats BD-R et BD-RE) ne supportent que le codec MPEG-2. En effet, ce standard étant utilisé pour la diffusion HDTV (TV haute définition), l’enregistreur écrit directement ce flux sur le disque (aucun enregistreur actuellement disponible pour le grand public n’est capable de transcrire en temps réel du MPEG-2 vers un autre codec).

Il n’est pas précisé dans la norme Blu-ray que les lecteurs doivent être compatibles DVD ou CD. Si la quasi-totalité des modèles présents dans le commerce le sont effectivement, il est indispensable de s’en assurer, quelques-uns ne permettant toujours pas la lecture de certains CD.

Zonage et protectionsComme pour les DVD, les disques Blu-ray peuvent être soumis à l’utilisation sur une zone géographique. Il n’existe toutefois avec ce standard que trois régions définies à l’échelle mondiale.

La zone A correspond aux Amériques, à l’Asie de l’Est et du Sud-Est, la zone B, à

Page 112: 133810711-informatique.pdf

l’Europe, l’Afrique, le Moyen-Orient, et l’Océanie. Enfin, la zone C couvre l’Asie centrale et du Sud ainsi que la Russie.

Ainsi, la plupart des fabricants de BD (Japon, Corée, Malaisie) sont situés dans la même zone que l’Amérique du Nord. En 2008, environ deux tiers des disques produits n’étaient pas rattachés à une région.

Le disque Blu-ray permet d’utiliser plusieurs types de systèmes de gestion de droits ou DRM (Digital Rights Management).

• AACS (Advanced Access Content System) est un standard utilisé depuis plusieurs années par LLC, un consortium incluant Disney, IBM, Intel, Microsoft, Panasonic, Sony, Toshiba et Warner Bros. Bien que des failles aient été trouvées en 2006, cet algorithme continue à être utilisé en utilisant de nouvelles clés cryptographiques.

• BD+ est développé par Cryptography Research Inc. et basé sur l’utilisation d’une mini-machine virtuelle (sur le même principe qu’un Java embarqué) capable de vérifier le bon usage du lecteur, si ses clés n’ont pas été modifiées, si chaque élément de la chaîne (du lecteur au téléviseur HD par exemple) est valide, et de décoder le contenu audio et vidéo.

• Enfin, BD-ROM Mark permet de stocker une clé cryptographique sur un BD-ROM sans que cette clé puisse être dupliquée vers un BD-R grâce à l’usage d’un format propriétaire de BD-ROM, décodable uniquement avec une puce spécifique, présente sur les lecteurs compatibles.

Clé USBIntroduction à la notion de clé USB

Une clé USB (en anglais USB key) est un périphérique de stockage amovible de petit format pouvant être branché sur le port USB d'un ordinateur.

Une clé USB embarque dans une coque plastifiée un connecteur USB et de la mémoire flash, une mémoire à semi-conducteurs, non volatile et réinscriptible, c'est-à-dire une mémoire possédant les caractéristiques d'une mémoire vive mais dont les données ne se volatilisent pas lors d'une mise hors tension.

Ainsi une clé USB est capable de stocker jusqu'à plusieurs gigaoctets de données, tout en étant capable de conserver les données lorsque l'alimentation électrique est coupée, c'est-à-dire lorsque la clé est débranchée.

Dans la pratique une clé USB est très pratique pour des utilisateurs nomades car elle est très facile à transporter et peut contenir une grande quantité de documents et de données.

Par ailleurs, les cartes mères récentes permettent de booter sur des clés USB, ce qui signifie qu'il est désormais possible de démarrer un système d'exploitation à partir d'une simple clé USB !

Page 113: 133810711-informatique.pdf

Pratique pour les utilisateurs souhaitant disposer de leur environnement de travail où qu'ils soient ou pour amorcer et dépanner un système en cas de plantage !

Caractéristiques

Les caractéristiques à prendre en compte lors du choix d'une clé USB sont les suivantes :

• Capacité • Taux de transfert : il s'agit de la vitesse de transfert des données. Il est à

noter que le taux de transfert en lecture est généralement différent du taux de transfert en écriture, car le processus d'écriture sur la mémoire flash est plus lent. Le taux de transfert dépend de la vitesse en lecture et en écriture de la mémoire Flash, ainsi que de la version de la norme USB supportée :**USB 1.1 (USB bas débit) pouvant atteindre 12 Mbit/s,

o USB 2.0 (USB Haut débit ou Hi-speed) pouvant atteindre 480 Mbit/s. Il est important de noter que pour pouvoir profiter pleinement de ce taux de transfert, la clé devra être branchée sur un port USB 2.0. Dans le cas contraire (port USB 1.1), la clé fonctionnera à bas débit.

• Fonctionnalités de chiffrement : certaines clés proposent des outils permettant de crypter les données ou une partie des données présentes sur la clé afin d'en renforcer leur confidentialité.

• Protection des données en écriture : sur certaines clés, un interrupteur matériel permet de mettre la clé en lecture seule afin d'éviter la suppression ou la modification des données.

• Fonctions multimédias : lorsque la clé USB possède une prise casque et permet la lecture de fichiers audios (généralement au format MP3), on parle alors de lecteur MP3 ou baladeur MP3.

Le clavierPrésentation du clavier

Le clavier (en anglais keyboard) permet, à la manière des machines à écrire, de saisir des caractères (lettres, chiffres, symboles ...), il s'agit donc d'un périphérique d'entrée essentiel pour l'ordinateur, car c'est grâce à lui qu'il nous est possible d'envoyer des commandes.

Le terme "AZERTY" (en rapport avec les 6 premières touches alphabétiques du clavier) désigne un type de clavier, équipant la quasi-totalité des ordinateurs en France et en Belgique. Il s'agit de la déclinaison pour les pays francophones du clavier QWERTY.

Le clavier Qwerty a été conçu en 1868 à Milwaukee par Christopher Latham Sholes en répartissant aux opposées du clavier les touches correspondant aux paires de lettres les plus utilisées dans la langue anglaise afin d'empêcher les tiges (portant les caractères) des machines à écrire de l'époque de se croiser et de se coincer. Ce clavier a été vendu à l'entreprise Remington en 1873. Le clavier Qwerty (et par extension le clavier Azerty) a donc été conçu dans une optique purement technique, à l'encontre de l'ergonomie et de l'efficacité. La légende veut que la disposition des touches sur la première ligne du clavier Qwerty a été motivée par les vendeurs de machines à écrire de l'époque de telle manière à ce que toutes les touches nécessaires à l'écriture de "typewriter" ("machine à écrire" en anglais) s'y trouvent lorsqu'ils faisaient des démonstrations !

Page 114: 133810711-informatique.pdf

En 1936, August Dvorak (professeur à l'université de Washington) a mis au point un clavier dont la disposition des touches est entièrement pensée en terme d'efficacité. Ainsi le clavier Dvorak a été mis au point en disposant sur la ligne centrale l'ensemble des voyelles de l'alphabet et les cinq consonnes les plus utilisées, de façon à permettre leur accessibilité tout en favorisant une bonne alternance entre main gauche et main droite. D'autre part les lettres de l'alphabet les plus fréquentes ont été placées au centre du clavier.

Différentes études ont montré que les apports du clavier Dvorak en matière d'efficacité étaient maigres dans la pratique et que l'effort demandé pour passer du clavier Azerty ou Qwerty au clavier Dvorak était trop lourd pour que cela soit nécessaire, cela explique pourquoi tous les ordinateurs sont encore aujourd'hui équipés du clavier Azerty/Qwerty.

Connecteur de clavier

Les claviers sont généralement branchés à l'arrière de l'unité centrale, sur la carte mère, sur un connecteur PS/2 de couleur violette :

Fonctionnement

A chaque pression d'une touche du clavier, un signal spécifique est transmis à l'ordinateur. Le clavier utilise en effet un réseau matriciel permettant d'identifier chaque touche grâce à une ligne et une colonne.

Page 115: 133810711-informatique.pdf

Lorsqu'une touche est pressée, un contact électrique s'établit entre la ligne et la colonne. Les signaux électriques sont transmis à un micro-contrôleur, qui envoie un code (BCD, ASCII ou Unicode) à l'ordinateur décrivant le caractère correspondant à la touche.

Les types de claviers

Il existe 4 types de claviers pour PC, les trois premiers ont été inventés par IBM, le dernier est la conséquence d'une modification due à la sortie de Microsoft Windows 95. Voici les quatre types de clavier :

• le clavier à 83 touches, de type PC/XT • Le clavier à 84 touches, de type PC/AT • Le clavier à 102 touches, appelé aussi clavier étendu • Le clavier à 105 touches compatible Microsoft Windows 95

Les claviers de type PC/XT

Il s'agit du premier clavier pour PC, il a la particularité d'être dissocié de l'ordinateur, contrairement à tous les ordinateurs de l'époque (Apple II, Amiga, ...) pour lesquels l'ordinateur et le clavier étaient une seule et même entité.

Ce clavier comportait 83 touches, mais était critiqué pour la disposition des touches et leurs disproportions (notamment les touches Maj et Entrée qui étaient trop petites et mal placées). D'autre part, la communication entre le clavier et l'unité centrale était à sens unique, ce qui signifie que le clavier ne pouvait pas comporter d'afficheur de type LED.

Les clavier de type PC/AT

Le clavier de type PC/AT, possédant 84 touches, a équipé les PC de type AT en 1984.

Page 116: 133810711-informatique.pdf

Ce type de clavier corrige les erreurs de son prédécesseur en redimensionnant notamment les touches Maj et Entree. D'autre part ce clavier est bidirectionnel, c'est-à-dire qu'il peut afficher des états à l'aide d'afficheurs LED. Enfin, la carte mère équipant les PC de type AT comportait un contrôleur permettant de paramétrer :

• La fréquence de répétition, c'est-à-dire le nombre de caractères envoyés par seconde lorsqu'une touche est enfoncée

• Le délai de répétition: le temps au bout duquel l'ordinateur considère que la touche est enfoncée, afin de différencier une simple pression de touche (un caractère) d'un enfoncement de touche prolongé

Les claviers étendus

Les nouveaux ordinateurs compatibles IBM lancés en 1986 étaient équipés de claviers comportant 102 touches.

Ce clavier comporte différents blocs de touches : les touches de fonctions ont été déplacés sur le bord haut du clavier à partir de ce modèle, et des touches de contrôle de curseur représentant des flèches ont été ajoutées à ce clavier.

Les claviers compatibles Windows

Microsoft a défini trois nouvelles touches permettant d'effectuer des raccourcis vers des fonctionnalités de Windows.

Page 117: 133810711-informatique.pdf

Ces trois nouvelles touches sont, de gauche à droite :

• La touche Windows gauche • La touche Windows droite • La touche Application

Voici certains des raccourcis que permettent ces nouvelles touches :

Combinaison

Description

WIN - E Afficher l'explorateur

WIN - F Rechercher un fichier

WIN - F1 Afficher l'aide

WIN - MMinimiser toutes les fenêtres du bureau

WIN - Pause Afficher les propriétés du système

WIN - Tab Explorer la barre des tâches

WIN - R Afficher la boîte "Exécuter"

La sourisPrésentation de la souris

La souris (en anglais «mouse» ou «mice») est un périphérique de pointage (en anglais pointing device) servant à déplacer un curseur sur l'écran et permettant de sélectionner, déplacer, manipuler des objets grâce à des boutons. On appelle ainsi «clic» l'action consistant à appuyer (cliquer) sur un bouton afin d'effectuer une action.

Page 118: 133810711-informatique.pdf

La première souris a été inventée et mise au point par Douglas Carle Engelbart du Stanford Research Institute (SRI) : il s'agissait d'une souris en bois contenant deux disques perpendiculaires et relié à l'ordinateur par une paire de fils torsadés.

Connecteur de souris

La souris est généralement branchée à l'arrière de l'unité centrale, sur la carte mère, sur un connecteur PS/2 de couleur verte :

Certaines souris, possédant des fonctionnalités avancées possèdent parfois une connectique <a ref="usb.php3">USB</a>.

Types de souris

Il existe plusieurs types de souris, classifiés selon la technologie de positionnement d'une part, selon la transmission des données à l'unité centrale d'autre part.

On distingue ainsi plusieurs grandes familles de souris :

• Les souris mécaniques, dont le fonctionnement est basé sur une boule (en plastique ou en caoutchouc) encastrée dans un châssis (en plastique) transmettant le mouvement à deux rouleaux;

• Les souris opto-mécaniques, dont le fonctionnement est similaire à celui des souris mécaniques, si ce n'est que le mouvement de la boule est détecté par des capteurs optiques ;

• Les souris optiques, capables de déterminer le mouvement par analyse visuelle de la surface sur laquelle elles glissent.

Souris mécanique

La souris mécanique comporte une bille sur laquelle tournent deux rouleaux. Ces rouleaux comportent chacun un disque cranté qui tourne entre une photodiode et une LED (Diode électroluminescente) laissant passer la lumière par séquence. Lorsque la lumière passe, la photodiode renvoie un bit (1), lorsqu'elle rencontre un obstacle, la photodiode renvoie un bit nul (0). A l'aide de ces informations, l'ordinateur peut connaître la position du curseur, voire sa vitesse.

Page 119: 133810711-informatique.pdf

Astuce: A force de l'utiliser, de la poussière se dépose sur les rouleaux de la souris, empêchant celle-ci de tourner correctement et provoquant des réactions curieuses de la part du curseur. Pour y remédier, il suffit d'ouvrir la cage contenant la bille et de nettoyer les rouleaux (avec une brosse à dents de récupération par exemple).

Souris optique

La souris optique possède un fonctionnement basé sur l'analyse de la surface sur laquelle elle se déplace. Ainsi une souris optique est constituée d'une LED, d'un système d´acquisition d´images (IAS) et d'un processeur de signaux numériques (DSP).

La LED est chargée d'éclairer la surface afin de permettre au système IAS d'acquérir l'image de la surface. Le DSP, par analyse des caractéristiques microscopiques de la surface, détermine le mouvement horizontal et vertical.

Les souris optiques fonctionnent sur toutes surfaces non parfaitement lisses ou bien possèdant des dégradés de couleur. Les avantages principaux de ce type de dispositif de pointage par rapport aux souris mécaniques sont notamment une précision accrue ainsi qu'un salissement moindre.

Souris sans fil

Les souris sans fil (en anglais cordless mouse) sont de plus en plus populaire car elles peuvent être utilisées sans être physiquement reliées à l'ordinateur, ce qui procure une sensation de liberté.

Il existe également plusieurs catégories de souris sans-fil, selon la technologie utilisée :

• souris infrarouges (en anglais «IR» pour «infrared»): ces souris sont utilisées en vis-à-vis avec un récepteur infrarouge connecté à l'ordinateur. La portée de ce type de dispositif est de quelques mètres au plus, en vision directe, au même titre que la télécommande d'un téléviseur.

• souris hertzienne : ces souris sont utilisées avec un récepteur hertzien, généralement propriétaire au constructeur. La portée de ce type de dispositif est d'une dizaine de mètres au plus,, sans nécessairement avoir une ligne visuelle avec l'ordinateur. Ce type de dispositif peut notamment être pratique pour les personnes connectant leur ordinateur à leur téléviseur, situé dans une autre pièce.

Page 120: 133810711-informatique.pdf

• souris bluetooth : ces souris sont utilisées avec un récepteur bluetooth connecté à l'ordinateur. La portée de ce type de dispositif est équivalente aux technologies hertziennes propriétaires.

Souris à molette

De plus en plus de souris sont équipées d'une molette. La molette, généralement situé entre le bouton gauche et le bouton droit permet de faire défiler des pages tout en permettant à l'utilisateur de déplacer le curseur sur l'écran.

L'imprimanteL'imprimante

L'imprimante (en anglais printer) est un périphériques permettant de faire une sortie imprimée (sur papier) des données de l'ordinateur.

Il existe plusieurs technologies d'imprimantes dont les plus courantes sont :

• l'imprimante à marguerite ; • l'imprimante matricielle (également appelée imprimante à aiguilles) ; • l'imprimante à jet d'encre et imprimante à bulles d'encre</a> ; • l'imprimante laser.

De nos jours, les imprimantes à marguerite et les imprimantes matricielles ne sont quasiment plus utilisées.

Caractéristiques

L'imprimante est généralement caractérisée par les éléments suivants :

• Vitesse d'impression : exprimée en pages par minute (ppm), la vitesse d'impression représente la capacité de l'imprimante à imprimer un grand nombre de pages par minute. Pour les imprimantes couleur, on distingue habituellement la vitesse d'impression en monochrome et en couleur.

• Résolution : exprimée en points par pouces (notés ppp ou dpi, pour dot per inch), la résolution définit la finesse de l'impression. La résolution est parfois différente pour une impression monochrome, couleur ou photo.

• Temps de préchauffage : il représente le temps d'attente nécessaire avant la première impression. En effet une imprimante ne peut pas imprimer « à froid », il lui est nécessaire d'atteindre une certaine température pour fonctionner de manière optimale.

• Mémoire embarquée : il s'agit de la quantité de mémoire permettant à l'imprimante de stocker les travaux d'impression. Plus la quantité de mémoire est élevée, plus la file d'attente des travaux peut être importante.

• Le format de papier : selon leur taille, les imprimantes sont capables d'accueillir différentes taille de documents, généralement au format A4 (21 x 29,7 cm), plus rarement au format A3 (29,7 x 42 cm). Certaines imprimantes permettent également d'imprimer sur d'autres types de support, tels que les CD ou les DVD.

• Alimentation papier : il s'agit du mode de chargement de l'imprimante, caractérisant la façon de laquelle le papier vierge est stocké. Elle a

Page 121: 133810711-informatique.pdf

notamment son importance selon l'emplacement prévue pour l'imprimante (un chargement par l'arrière est à proscrire si l'imprimante est collée contre un mur).* Les principaux modes d'alimentation papier sont les suivants :

o L'alimentation par bac (également appelée alimentation par tiroir), utilise une source d'alimentation de papier interne. Sa capacité représente le nombre maximal de feuilles de papier qu'il peut accueillir.

o L'alimentation par plateau est un mode d'alimentation manuel, permettant d'insérer les feuilles par petite quantité (environ une centaine). Le plateau est parfois horizontal, parfois vertical, à l'arrière de l'imprimante.

• Cartouches : les cartouches sont rarement standard et dépendent fortement de la marque et du modèle d'imprimante. Ainsi certains constructeurs privilégient des cartouches multicolores, tandis que d'autres proposent des cartouches d'encre séparées. Les cartouches d'encre séparées sont globalement plus économiques car il n'est pas rare qu'une couleur soit plus utilisée que les autres.

Il est intéressant de regarder le coût d'impression à la feuille. La taille de la goutte d'encre a notamment son importance. Plus la goutte d'encre est petite, moins le coût d'impression sera élevé et meilleure sera la qualité d'image. Certaines imprimantes permettent d'obtenir des gouttes de 1 ou 2 picolitre.

• Interface : il s'agit de la connectique de l'imprimante. Les principales interfaces sont les suivantes :

o USB ; o Parallèle ; o Réseau : ce type d'interface permet de partager très facilement une

imprimante entre plusieurs ordinateurs. Il existe également des imprimantes WiFi, accessibles via un réseau sans fil. Si votre imprimante ne dispose pas d’interface réseau, vous pouvez tout de même la brancher à votre réseau (local ou Wi-Fi) grâce à un boîtier spécifique appelé "serveur d'impression".

L'imprimante à marguerite

Les imprimantes à marguerite sont basées sur le principe des machines dactylographiques. Tous les caractères sont imprimés en relief sur une matrice en forme de marguerite. Pour imprimer, un ruban imbibé d'encre est placé entre la marguerite et la feuille. Lorsque la matrice frappe le ruban, celui-ci dépose de l'encre uniquement au niveau du relief du caractère.

Ces imprimantes sont devenues obsolètes car elles sont beaucoup trop bruyantes et très peu rapides.

L'imprimante matricielle

L'imprimante matricielle (parfois appelée imprimante à aiguilles, imprimante à impact ou en anglais Dot-Matrix printer) permet d'imprimer des documents sur le papier grâce à un « va-et-vient » d'un chariot comportant une tête d'impression.

La tête est constituée de petites aiguilles, poussées par des électro-aimants, venant heurter un ruban de carbone, appelé « ruban encreur », situé entre la tête et le papier.

Page 122: 133810711-informatique.pdf

Le ruban de carbone défile afin qu'il y ait continuellement de l'encre dessus. A chaque fin de ligne un rouleau fait tourner la feuille.

Les imprimantes matricielles les plus récentes sont équipées de têtes d'impression comportant 24 aiguilles, ce qui leur permet d'imprimer avec une résolution de 216 ppp (points par pouce ou en anglais dots per inch, notés dpi).

L'imprimante à jet d'encre et à bulles d'encre

La technologie des imprimantes à jet d'encre (Bubble jet printers) a été originalement inventée par Canon, elle repose sur le principe qu'un fluide chauffé produit des bulles.

Le chercheur qui a découvert ce principe avait mis accidentellement en contact une seringue remplie d'encre et un fer à souder, cela créa une bulle dans la seringue qui fit jaillir de l'encre de la seringue.

Les têtes des imprimantes actuelles sont composées de nombreuses buses (jusqu'à 256), équivalentes à plusieurs seringues, chauffées entre 300 et 400°C plusieurs fois par seconde.

Chaque buse produit une bulle minuscule qui fait s'éjecter une gouttelette extrêmement fine. Le vide engendré par la baisse de pression aspire une nouvelle goutte.

Page 123: 133810711-informatique.pdf

On distingue généralement deux technologies :

• Les imprimantes à jet d'encre, utilisant des buses possédant leur propre élément chauffant intégré. La technologie utilisée est ainsi thermique.

• Les imprimantes à bulles d'encre, utilisant des buses possédant une technologie piézo-électrique. Chaque buse est associé à un quartz piézo-électrique, qui, excité sur sa fréquence de résonance, se déforme et éjecte la goutte d'encre.

L'imprimante laser

L'imprimante laser permet d'obtenir des tirages papier de qualité, à faible coût et avec une vitesse d'impression élevée. En revanche le coût d'acquisition d'une telle imprimante la réserve à des usages semi professionnels ou professionnels.

L'imprimante laser utilise une technologie proche de celle utilisée dans les photocopieurs. Une imprimante laser est ainsi principalement constituée d'un tambour photosensible (en anglais « drum ») qui, chargé électrostatiquement, est capable d'attirer l'encre afin de former un motif qui sera déposé sur la feuille de papier.

Le fonctionnement global est le suivant : un ioniseur de papier charge les feuilles positivement. Le laser charge le tambour positivement en certains points grâce à un miroir pivotant. Ainsi, l'encre sous forme de poudre (toner), chargée négativement, se dépose sur les parties du toner ayant été préalablement chargées par le laser.

En tournant, le tambour dépose l'encre sur le papier. Un fil chauffant (appelé coronaire) permet enfin de fixer l'encre sur le papier.

Page 124: 133810711-informatique.pdf

Ainsi, l'imprimante laser, n'ayant pas de tête mécanique, est rapide et peu bruyante.

On distingue en fait deux technologies pour les imprimantes laser : "carrousel" (quatre passages) ou "tandem" (monopasse).

• carrousel : Avec la technologie carrousel, l'imprimante effectue quatre passages pour imprimer un document (un par couleur primaire et un pour le noir, ce qui fait que l'impression est en théorie quatre fois moins rapide en couleur qu'en noir).

• tandem : Une imprimante laser exploitant la technologie « tandem » dépose chaque couleur en un seul passage, les toners étant disposés parallèlement. Les sorties sont aussi rapides en noir qu'en couleur. Cette technologie a toutefois un prix de revient plus élevé, la mécanique étant plus complexe. Elle est donc réservée en principe aux imprimantes laser couleur de milieu ou de haut de gamme.

L'imprimante LED

Une autre technologie d'impression concurrence les imprimantes laser : la technologie LED (Light Emitting Diode). Avec cette technologie, une rampe de diodes électro-luminescentes polarise le tambour au moyen d'un rayon lumineux très fin, permettant d'obtenir de très petits points. Cette technologie et particulièrement bien adaptée pour l'obtention de hautes résolutions (600,1200 ou 2400 ppp).

Etant donné que chaque diode est à l'origine d'un point, la cadence d'impression ne souffre presque pas des différences de résolution. De plus, cette technologie est dépourvue de parties mobiles, ce qui permet de concevoir des produits moins coûteux, mais aussi plus robustes et plus fiables.

Page 125: 133810711-informatique.pdf

Les langages de description de page

Le langage de description de page est le langage standard que l'ordinateur utilise pour communiquer avec l'imprimante. En effet, il faut que l'imprimante soit capable d'interpréter les informations que l'ordinateur lui envoie.

Les deux langages de description de page principaux sont les suivants :

• Langage PCL: il s'agit d'un langage constitué de séquences binaires. Les caractères sont transmis selon leur code ASCII

• Langage PostScript: ce langage, utilisé à l'origine pour les imprimantes Apple LaserWriter, est devenu le standard en matière de langage de description de page. Il s'agit d'un langage à part entière basé sur un ensemble d'instructions

Le scannerLe scanner

Un scanner (anglicisme pour le mot français «numériseur») est un périphérique d'acquisition permettant de numériser des documents, c'est-à-dire de transformer un document papier en image numérique.

On distingue généralement trois catégories de scanners :

• Les scanners à plats permettant de numériser un document en le plaçant à plat contre une vitre. Il s'agit du type de scanner le plus courant.

• Les scanners à main possédant une taille réduite. Ces scanners doivent être déplacés manuellement (ou semi manuellement) sur le document, par bandes successives, afin de le numériser en entier.

• Les scanners par défilement faisant défiler le document devant une fente lumineuse fixe afin de le numériser, à la manière des télécopieurs (fax). Ce type de scanner est de plus en plus intégré dans des appareils tels que des imprimantes multifonctions.

Il existe également des scanners capables de numériser des supports particuliers tels que les diapositives.

Caractéristiques d'un scanner

Un scanner est généralement caractérisé par les éléments suivants :

• Résolution : exprimée en points par pouces (notés ppp ou dpi, pour dot per inch), la résolution définit la finesse de la numérisation. L'ordre de grandeur de la résolution est d'environ 1200 par 2400 dpi. La résolution horizontale est fortement dépendante de la qualité et du nombre de capteurs, tandis que la résolution verticale est intimement liée à la précision du moteur d'entraînement. Il faut toutefois veiller à distinguer la résolution optique, représentant la résolution réelle du scanner, de la résolution interpolée. L'interpolation est une technique consistant à définir des pixels

Page 126: 133810711-informatique.pdf

intermédiaires entre des pixels réels, en calculant la moyenne des couleurs des pixels avoisinants. Cette technologie permet donc d'obtenir des résultats intéressants mais la résolution interpolée ainsi définie n'est en aucun cas une grandeur permettant de comparer des scanners.

• Le format de document : selon leur taille, les scanners sont capables d'accueillir différentes taille de documents, généralement A4 (21 x 29,7 cm), plus rarement A3 (29,7 x 42 cm).

• Vitesse d'acquisition : exprimée en pages par minute (ppm), la vitesse d'acquisition représente la capacité du scanner à acquérir un grand nombre de pages par minute. La vitesse d'acquisition dépend du format du document ainsi que de la résolution choisie pour la numérisation.

• Interface : il s'agit de la connectique du scanner. Les principales interfaces sont les suivantes :

o Firewire . Il s'agit de l'interface de prédilection, car son débit est particulièrement adapté à ce type de périphériques ;

o USB 2.0 . Présent sur la totalité des ordinateurs récents, il s'agit d'une interface standard, conseillée si l'ordinateur ne possède pas de connexion firewire ;

o SCSI . Interface de prédilection pour le scanner à la fin des années 90, le standard SCSI est actuellement délaissé au profit du Firewire et de l'USB 2.0 ;

o Port parallèle . Lent par nature, ce type de connectique est de moins en moins utilisée et à éviter si l'ordinateur possède une des connectiques précédentes ;

• Caractéristiques physiques : d'autres éléments peuvent être pris en compte lors du choix d'un scanner :

o L'encombrement, correspondant aux dimensions physiques du scanner.

o Le poids. o La consommation électrique, exprimée en Watts (W). o Les températures de fonctionnement et de stockage. o Le niveau sonore. Un scanner peut s'avérer être très bruyant, ce qui

peut constituer une nuisance non négligeable. o Les accessoires : Les pilotes et le manuel d'utilisation sont

habituellement fourni, mais il faut s'assurer que les câbles de raccordement le sont également ou, dans le cas contraire, les acheter à part.

Fonctionnement d'un scanner

Le principe du fonctionnement d'un scanner est le suivant :

• Le scanner parcourt le document ligne par ligne ; • Chaque ligne est décomposée en « points élémentaires », correspondant à

des pixels. • Un capteur analyse la couleur de chacun des pixels ; • La couleur de chaque pixel est décomposée selon 3 composantes (rouge, vert

, bleu) ; • Chacune des composantes de couleur est mesurée et représentée par une

valeur. Pour une quantification sur 8 bits, chacune des composantes aura une valeur comprise entre 0 et 255.

Page 127: 133810711-informatique.pdf

La suite de cet article décrira en particulier le fonctionnement d'un scanner à plat, toutefois le mode de fonctionnement pour un scanner à main ou un scanner à défilement est exactement le même. Seul la façon de faire défiler le document diffère.

Un scanner à plat possède une fente lumineuse motorisée, balayant le document ligne par ligne située sous une vitre transparente sur laquelle est posé le document, face à numériser vers le bas.

La lumière de grande intensité ainsi émise est réfléchie par le document et converge vers une série de capteurs grâce à un système de lentilles et de miroirs. Les capteurs convertissent les intensités lumineuses reçues en signaux électriques, eux-mêmes convertis en données numériques par un convertisseur analogique-numérique.

On distingue deux catégories de capteurs :

• Les capteurs CMOS (Complementary Metal Oxyd Semi-conductor, ou encore MOS complémentaires). On parle alors de technologie CIS (Contact Image Sensor). Ce type de dispositif utilise une rampe de LED (Light Emitting Diode pour l'éclairage du document et requiert une distance très étroite entre les capteurs et le document. En contrepartie, la technologie CIS est bien moins consommatrice d'énergie.

• Les capteurs CCD (Charge-coupled devices). Les scanners utilisant la technologie CCD sont souvent plus épais car ils utilisent une lampe froide de type néon. La qualité de l'image numérisée est en revanche globalement meilleure, grâce à un rapport signal/bruit plus faible.

Le modemA quoi sert un modem ?

Le modem est le périphérique utilisé pour transférer des informations entre plusieurs ordinateurs via un support de transmission filaire (lignes téléphoniques par exemple). Les ordinateurs fonctionnent de façon numérique, ils utilisent le codage binaire (une série de 0 et de 1), mais les lignes téléphoniques sont analogiques. Les signaux numériques passent d'une valeur à une autre, il n'y a pas de milieu, de moitié, c'est du « Tout Ou Rien » (un ou zéro). Les signaux analogiques par contre n'évoluent pas « par pas », ils évoluent de façon continue.

Le piano par exemple fonctionne plus ou moins de façon numérique car il y a un "pas" entre les notes. Un violon par contre peut moduler ses notes pour passer par toutes les fréquences possibles.

Un ordinateur fonctionne à la manière d'un piano, un modem comme un violon. Le modem convertit en analogique l'information binaire provenant de l'ordinateur, afin de le moduler par la ligne téléphonique. On peut entendre des bruits étranges si l'on monte le son provenant du modem.

Ainsi, le modem module les informations numériques en ondes analogiques. En sens inverse, il démodule les données analogiques pour les convertir en numérique. Le mot « modem » est ainsi un acronyme pour « MOdulateur/DEModulateur ».

Page 128: 133810711-informatique.pdf

La vitesse de transmission du modem est généralement exprimée en bauds, en hommage à Emile Baudot (11 septembre 1845 - 28 mars 1903), un célèbre ingénieur français ayant oeuvré dans les télécommunications. Cette unité de vitesse de transmission d'information caractérise la fréquence de (dé)modulation, c'est-à-dire le nombre de changement d'états que le modem fait subir au signal par seconde. Ainsi, le débit en bauds n'est pas tout à fait égal au débit en bits par secondes, car plus d'un changement d'état du signal peuvent être nécessaires pour coder un bit.

Les standards de communicationLa multiplication des modems a nécessité une standardisation des protocoles de communication par modem afin qu'ils parlent tous un langage commun. C'est pourquoi deux organismes ont mis au point des standards de communication :

• Les laboratoires BELL, précurseurs en matière de télécommunication ; • Le Comité consultatif international de téléphonie et de télégraphie (CCITT),

renommé depuis 1990 en union internationale des télécommunication (UIT).

L'UIT a pour but de définir les standards de communications internationaux. Les standards des modems peuvent se diviser en 3 catégories :

• Les standards de modulation (par exemple CCITT V.21) • Les standards de correction d'erreurs (par exemple CCITT V.42) • Les standards de compression des données (par exemple CCITT V.42bis)

Voici une liste des principaux standards de modem :

Standard de

modulation

Débit théoriqu

eMode Description

Bell 103 300 bpsFull duplex

Standard américain et canadien utilisant un codage à changement de fréquence. Il permet ainsi d'envoyer un bit par baud.

CCITT V.21 300 bps Full Standard international proche du standard Bell 103.

Page 129: 133810711-informatique.pdf

duplex

Bell 212A 1200 bpsFull duplex

Standard américain et canadien fonctionnant selon le codage à changement de phase différentiel. Il permet de cette façon de transmettre 2 bits par baud

UIT V.22 1200 bpsHalf duplex

Standard international proche du standard Bell 212A.

UIT V.22bis 2400 bpsFull duplex

Standard international constituant une version améliorée du standard V.22 (d'o&grave; l'appellation V.22bis).

UIT V.23 1200 bps"Half duplex"

Standard international fonctionnant en half-duplex, c'est-à-dire permettant de transférer les données sur une seule voie à la fois. Possibilité d'une voie de retour à 75 bauds facultative.

UIT V.231200 bps/75 bps

"Full duplex"

Standard international fournissant un duplex intégral asymétrique, c'est-à-dire qu'il permet de transférer des données à 1200 bps dans un sens et 75 bps dans l'autre.

UIT V.29 9600 bpsHalf duplex

Standard international fonctionnant en half-duplex, c'est-à-dire permettant de transférer les données sur une seule voie à la fois. Ce standard a été mis au point particulièrement pour les faxs.

UIT V.32 9600 bpsFull duplex

Standard international fonctionnant en full-duplex et incorporant des standards de correction d'erreur. La transmission de données se fait selon une technique de correction d'erreurs appelée modulation d'amplitude en quadrature codée en treillage. Cette technique consiste à envoyer un bit supplémentaire pour chaque groupe de 4 bits envoyés sur la ligne de transmission.

UIT V.32bis14400 bps

Full duplex

Standard international améliorant le standard v.32, en permettant d'envoyer 6 bits par baud, pour atteindre une vitesse de transmission de 14400 bps.

UIT V.32fast28800 bps

Full duplex

Standard international, nommé parfois V.FC (Fast Class), permettant d'atteindre une vitesse de transmission des données de 28800bps.

UIT V.3428800 bps

Full duplex

Standard international permettant d'obtenir un débit de 28800. Grâce à un processeur DSP (Digital Signal Processor, processeur de traitement numérique du signal) les modems utilisant ce standard peuvent atteindre un débit de 33600 bps.

UIT V.9056000 bps

Full duplex

Standard international permettant d'obtenir des vitesses de transmission de 56000 bps.

Page 130: 133810711-informatique.pdf

Carte graphique• Présentation de la carte graphique

o GPU o Mémoire vidéo o RAMDAC o BIOS Vidéo o Interface o Connectique

DVI S-Vidéo HDMI

• Les cartes accélératrices 3D • Fonctions accélératrices 3D et 2D • Ressources sur le même sujet

Présentation de la carte graphique

La carte graphique (en anglais graphic adapter), parfois appelée carte vidéo ou accélérateur graphique, est l'élément de l'ordinateur chargé de convertir les données numériques à afficher en données graphiques exploitables par un périphérique d'affichage.

Le rôle de la carte graphique était initialement l'envoi de pixels graphique à un écran, ainsi qu'un ensemble de manipulation graphiques simples :

• déplacement des blocs (curseur de la souris par exemple) ; • tracé de lignes ; • tracé de polygones ; • etc.

Les cartes graphiques récentes sont désormais équipées de processeurs spécialisés dans le calcul de scènes graphiques complexes en 3D !

Page 131: 133810711-informatique.pdf

Les principaux composants d'une carte vidéo sont :

GPU

Un processeur graphique (appelé GPU, pour Graphical Processing Unit), constituant le coeur de la carte graphique et chargé de traiter les images en fonction de la résolution et de la profondeur de codage sélectionnée. Le GPU est ainsi un processeur spécialisé possédant des instructions évoluées de traitement de l'image, notamment de la 3D. En raison de la température que peut atteindre le processeur graphique, il est parfois surmonté d'un radiateur et d'un ventilateur.

Mémoire vidéo

La mémoire vidéo chargée de conserver les images traitées par le processeur graphique avant l'affichage. Plus la quantité de mémoire vidéo est importante, plus la carte graphique pourra gérer de textures lors de l'affichage de scènes en 3D. On parle généralement de frame buffer

RAMDAC

Le RAMDAC (random access memory digital-analog converter) permet de convertir les images numériques stockées dans le frame buffer en signaux analogiques à envoyer au moniteur. La fréquence du RAMDAC détermine les taux de rafraîchissement (nombre d'images par seconde, exprimé en Hertz - Hz) que la carte graphique peut supporter.

BIOS Vidéo

Le BIOS vidéo contient les paramètres de la carte graphique, notamment les modes graphiques que celle-ci supporte.

Interface

L'interface : Il s'agit du type de bus utilisé pour connecter la carte graphique à la carte mère. Le bus AGP est ainsi spécialement prévu pour accepter des débits important de données, nécessaire pour l'affichage de séquences vidéo ou 3D. Le bus PCI Express possède de meilleures performances que le bus AGP et est amené à le remplacer.

Connectique

La connectique : ====VGA=== L'interface VGA standard : Les cartes graphiques sont la plupart du temps équipées d'un connecteur VGA 15 broches (Mini Sub-D, composé de 3 séries de 5 broches), généralement de couleur bleue, permettant notamment la connexion d'un moniteur.

Page 132: 133810711-informatique.pdf

DVI

L'interface DVI (Digital Video Interface), présente sur certaines cartes graphiques, permet d'envoyer, aux écrans le supportant, des données numériques. Ceci permet d'éviter des conversions numérique-analogique, puis analogique numériques, inutiles.

S-Vidéo

L'interface S-Vidéo : De plus en plus de cartes sont équipée d'une prise S-Video permettant d'afficher sur une télévision, c'est la raison pour laquelle elle est souvent appelée prise télé (notée « TV-out »).

HDMI

L'interface HDMI (High-Definition Multimedia Interface) rassemble sur un même connecteur à la fois les signaux vidéo et audio. Ceux-ci sont transmis numériquement et peuvent être cryptés (protection du contenu contre la copie). Elle permet d'interconnecter une source audio/vidéo - tel qu'un lecteur HD DVD ou Blu-ray, un ordinateur, une console de jeu ou un téléviseur HD. Elle vise donc à remplacer les câbles Péritel, coaxiaux, S-Video, et supporte aussi bien la vidéo standard que la haute définition. Elle se base sur l'interface DVI qu'elle étend largement. Il existe en effet plusieurs versions de la norme HDMI (1.0, 1.1, 1.2, 1.3...) en fonction des besoins et possibilités de l'appareil à connecter. La version 1.3 permet ainsi de connecter des appareils de très haute définition (3 840 x 2 400), jusqu'à 8 voix audio peuvent être utilisées.

• Le connecteur HDMI type A dispose de 19 broches et est utilisé dans la plupart des cas.

• Il existe un connecteur étendu disposant de 29 broches réservé aux appareils très haute définition.

• Enfin, un connecteur de type C au format réduit mais disposant également de 19 broches, est destiné aux appareils portables.

Les cartes accélératrices 3D

Le calcul d'une scène 3D est un processus qui se décompose grossièrement en quatre étapes:

• le script: mise en place des éléments • la geometry: création d'objets simples • le setup: découpage en triangles 2D • le rendering: C'est le rendu, c'est-à-dire le plaquage des textures

Ainsi, plus la carte accélératrice 3D calcule elle-même ces étapes, plus le processeur central est libéré de cette tâche et donc plus l'affichage est rapide. Les premières puces n'effectuaient que le rendering, laissant le processeur s'occuper du reste. Depuis, les cartes possèdent un « setup engine » qui prend en charge les

Page 133: 133810711-informatique.pdf

deux dernières étapes. A titre d'exemple, un Pentium II à 266 Mhz qui calcule les trois premières étapes peut calculer 350 000 polygones par secondes, lorsqu'il n'en calcule que deux, il atteint 750 000 polygones par seconde. Cela montre à quel point ces cartes déchargent le processeur.

Le type de bus est lui aussi déterminant. Alors que le bus AGP n'apporte aucune amélioration dans le domaine de la 2D, les cartes utilisant ce bus plutôt que le bus PCI sont beaucoup plus performantes. Cela s'explique par le fait que le bus AGP est directement relié à la mémoire vive, ce qui lui offre une bande passante beaucoup plus grande que le bus PCI.

Ces produits de haute technologie ont maintenant besoin de la même qualité de fabrication que les processeurs, ainsi que des gravures allant de 0.35 µm à 0.25 µm.

Afin d'augmenter encore plus la vitesse de calcul 3D, il est possible de placer plusieurs cartes graphiques dans un même ordinateur. On parle alors de multi-GPU (Graphics Processing Unit). Les cartes sont reliées par un bus spécifique, en plus du PCI Express. L'architecture proposée par nVIDIA se nomme SLI alors qu'ATI le nomme crossfire. Les deux architectures ne sont évidemment pas compatibles.

Fonctions accélératrices 3D et 2D

Terme Définition

2D GraphicsAffiche une représentation d'une scène selon 2 axes de référence (x et y)

3D GraphicsAffiche une représentation d'une scène selon 3 axes de référence (x, y et z)

Alpha blending

Le monde est composé d'objets opaques, translucides et transparents. L'alpha blending est une manière d'ajouter des informations de transparence à des objets translucides. Cela est fait en effectuant un rendu des polygones à travers des masques dont la densité est proportionnelle à la transparence des objets. La couleur du pixel résultant est une combinaison de la couleur du premier plan et de la couleur de l'arrière-plan. L'alpha a généralement une valeur comprise entre 0 et 1 calculée de la manière suivante: nouveau pixel=(alpha)*(couleur du premier pixel)+(1-alpha)*(couleur du second pixel)

Alpha bufferC'est un canal supplémentaire pour stocker l'information de transparence (Rouge-Vert-Bleu-Transparence).

Anti-aliasing appelé aussi anti-crénelage)

Technique permettant de faire apparaître les pixels de façon moins crénelée.

Page 134: 133810711-informatique.pdf

Effets atmosphériques

Effets tels que le brouillard ou bien l'effet de distance, qui améliorent le rendu d'un environnement.

Bitmap Image pixel par pixel

Bilinear filteringPermet de fluidifier le passage d'un pixel d'un endroit à un autre (lors d'une rotation par exemple)

BitBLT

C'est l'une des fonctions d'accélération les plus importantes, elle permet de simplifier le déplacement d'un bloc de données, en prenant en compte les particularités de la mémoire-vidéo. Elle est par exemple utilisée lors du déplacement d'une fenêtre

Blending Combinaison de deux images en les ajoutant bit-à-bit

Bus MasteringUne fonction du bus PCI permettant de recevoir directement des informations de la mémoire sans transiter par le processeur

Correction de perspective

Une méthode pour faire du mappage (enveloppage) avec des textures (texture mapping). Elle prend en compte la valeur de Z pour mapper les polygones. Lorsqu'un objet s'éloigne de l'objectif, il apparaît plus petit en hauteur et en largeur, la correction de perspective consiste à dire que le taux de changement dans les pixels de la texture est proportionnel à la profondeur.

Depth Cueing Baisse l'intensité des objets s'éloignant de l'objectif

DitheringPermet d'archiver des images de qualité 24-bit dans des tampons plus petits (8 ou 16 bits). Le dithering utilise deux couleurs pour en créer une seule

Double bufferingUne méthode utilisant deux tampons, une pour l'affichage, l'autre pour le calcul du rendu, ainsi lorsque le rendu est fait les deux tampons sont échangés.

Flat shading ou Constant shading

Assigne une couleur uniforme sur un polygone. L'objet ainsi rendu apparaît facettisé.

FogUtilise la fonction blending pour un objet avec une couleur fixe (plus il s'éloigne de l'objectif, plus cette fonction est utilisée)

Gamma

Les caractéristiques d'un affichage utilisant des phosphores sont non-linéaires : un petit changement de la tension à basse tension crée un changement dans l'affichage au niveau de la brillance, ce même changement à plus haute tension ne donnera pas la même magnitude de brillance. La différence entre ce qui est attendu et ce qui est mesuré est appelée Gamma

Gamma Correction

Avant d'être affichées, les données doivent être corrigées pour compenser le Gamma

Gouraud Shading (lissage Gouraud)

Algorithme (portant le nom du mathématicien français qui l'a inventé) permettant un lissage des couleurs par interpolation. Il assigne une couleur à chaque pixel d'un polygone en se basant sur une interpolation de ses arêtes, il simule l'apparence de surfaces plastiques ou métalliques.

Page 135: 133810711-informatique.pdf

InterpolationFaçon mathématique de régénérer des informations manquantes ou endommagées. Lorsqu'on agrandit une image par exemple, les pixels manquants sont régénérés par interpolation.

Line Buffer C'est un tampon fait pour mémoriser une ligne vidéo

Lissage Phong

Algorithme (portant le nom de Phong Bui-Tong) permettant un lissage des couleurs en calculant le taux de lumière en de nombreux points d'une surface, et en changeant la couleur des pixels en fonction de la valeur. Il est plus gourmand en ressources que le lissage Gouraud

MIP Mapping

C'est un mot provenant du latin "Multum in Parvum" qui signifie "plusieurs en un". Cette méthode permet d'appliquer des textures de différentes résolutions pour des objets d'une même image, selon leur taille et leur distance. Cela permet entre autres de mettre des textures de plus haute résolution lorsqu'on se rapproche d'un objet.

ProjectionC'est le fait de transformer (en le réduisant) un espace en 3 dimensions en un espace en 2 dimensions

Rasterisation Transforme une image en pixels

Rendu (Rendering)

C'est le fait de créer des images réalistes sur un écran en utilisant des modèles mathématiques pour le lissage, les couleurs ...

Rendering enginePartie matérielle ou logicielle chargée de calculer les primitives 3D (Généralement des triangles)

Tesselation ou facettisation

Le fait de calculer des graphiques en 3D peut être divisé en 3 parties: la facettisation, la géométrie et le rendu. La facettisation est la partie consistant à découper une surface en plus petites formes, en la découpant (souvent en triangles ou en quadrilatères)

Texture MappingConsiste à stocker des images constituées de pixels (texels), puis à envelopper des objets 3D de cette texture pour obtenir une représentation plus réaliste des objets

Tri-linear filteringBasé sur le principe du filtrage bilinéaire, le filtrage trilinéaire consiste à faire une moyenne de deux niveaux de filtrage bilinéaire.

Z-bufferPartie de la mémoire qui stocke la distance de chaque pixel à l'objectif. Lorsque les objets sont rendus à l'écran, le rendering engine doit supprimer les surfaces cachées.

Z-bufferingC'est le fait de supprimer les faces cachées en utilisant les valeurs stockées dans le Z-buffer

Carte son

Page 136: 133810711-informatique.pdf

Introduction à la carte sonLa carte son (en anglais audio card ou sound card) est l'élément de l'ordinateur permettant de gérer les entrées-sorties sonores de l'ordinateur.

Il s'agit généralement d'un contrôleur pouvant s'insérer dans un emplacement ISA ou PCI (pour les plus récentes) mais de plus en plus de cartes mères possèdent une carte son intégrée.

Les connecteurs de la carte sonLes principaux éléments d'une carte son sont :

• Le processeur spécialisé, appelé DSP (digital signal processor) chargé de tous les traitements numériques du son (écho, réverbération, vibrato chorus, tremolo, effets 3D, etc.) ;

• Le convertisseur digital-analogique appelé DAC (digital to analog converter) permettant de convertir les données audio de l'ordinateur en signal analogique vers un système de restitution sonore (enceintes, amplificateur, etc.) ;

• Le convertisseur analogique / numérique appelé ADC • Les connecteurs d'entrées-sorties externes :

o Une ou deux sorties ligne au format jack standard 3.5 mm (notée Line Out ou bien Speaker output ou SPK, signifiant « hauts parleurs » en anglais), habituellement de couleur vert clair ;

o Une entrée ligne (Line in) ; o Une entrée microphone (notée parfois Mic), généralement au format

jack 3.5 mm et de couleur rose ; o Une sortie numérique SPDIF (Sony Philips Digital Interface, noté

également S/PDIF ou S-PDIF o Une interface MIDI, généralement de couleur or (ocre) permettant de

connecter des instruments de musique et pouvant faire office de port de jeu

• Les connecteurs d'entrées-sorties internes : o Connecteur CD-ROM / DVD-ROM, possédant un connecteur noir,

permettant de connecter la carte son à la sortie audio analogique du CD-ROM à l'aide d'un câble CD Audio ;

o Entrée auxiliaire (AUX-In) possédant un connecteur blanc, permettant de connecter des sources audio internes telles qu'une carte tuner TV ;

o Connecteur pour répondeur téléphonique (TAD, Telephone Answering Devices) possédant un connecteur vert ;

Page 137: 133810711-informatique.pdf

Carte réseauQu'est-ce qu'une carte réseau ?

La carte réseau (appelée Network Interface Card en anglais et notée NIC) constitue l’interface entre l’ordinateur et le câble du réseau. La fonction d’une carte réseau est de préparer, d’envoyer et de contrôler les données sur le réseau.

La carte réseau possède généralement deux témoins lumineux (LEDs) :

• La LED verte correspond à l'alimentation de la carte ; • La LED orange (10 Mb/s) ou rouge (100 Mb/s) indique une activité du réseau

(envoi ou réception de données).

Pour préparer les données à envoyer, la carte réseau utilise un transceiver qui transforme les données parallèles en données séries. Chaque carte dispose d’une adresse unique, appelée adresse MAC, affectée par le constructeur de la carte, ce qui lui permet d’être identifiée de façon unique dans le monde parmi toutes les autres cartes réseau.

Les cartes réseau disposent de paramètres qu’il est possible de configurer. Parmi eux figurent l’interruption matérielle (IRQ), l’adresse de base du port E/S et l’adresse de base de la mémoire (DMA).

Pour garantir la compatibilité entre l’ordinateur et le réseau, la carte doit être adaptée à l’architecture du bus de données de l’ordinateur et avoir le type de connecteur approprié au câblage. Chaque carte est conçue pour s’adapter à un certain type de câble. Certaines cartes comprennent plusieurs connecteurs d’interfaces (à paramétrer soit avec les cavaliers, soit avec les DIP, soit de façon logicielle). Les connecteurs les plus répandus sont les connecteurs RJ-45. NB : Certaines topologies réseau propriétaires utilisant la paire torsadée ont recours au connecteur RJ-11. Ces topologies sont parfois appelées « pré-10BaseT ».

Enfin pour garantir cette compatibilité entre ordinateur et réseau, la carte doit être compatible avec la structure interne de l’ordinateur (architecture du bus de données) et avoir un connecteur adapté à la nature du câblage.

• Quel est le rôle de la carte réseau ? o La préparation des données o Le rôle d'identificateur o Les autres fonctions de la carte réseau

Page 138: 133810711-informatique.pdf

o Envoi et contrôle des données o Paramètres de configuration de la carte

• Cartes réseau Ethernet • Cartes réseau Wi-Fi • Ressources sur le même sujet

Quel est le rôle de la carte réseau ?

Une carte réseau sert d’interface physique entre l’ordinateur et le câble. Elle prépare pour le câble réseau les données émises par l’ordinateur, les transfère vers un autre ordinateur et contrôle le flux de données entre l’ordinateur et le câble. Elle traduit aussi les données venant du câble et les traduit en octets afin que l’Unité Centrale de l’ordinateur les comprenne. Ainsi une carte réseau est une carte d'extension s'insérant dans un connecteur d’extensions (slot).

La préparation des données

Les données se déplacent dans l’ordinateur en empruntant des chemins appelés « bus ». Plusieurs chemins côte à côte font que les données se déplacent en parallèle et non en série (les unes à la suite des autres).

• Les premiers bus fonctionnaient en 8 bits (8 bits de données transportés à la fois)

• L’ordinateur PC/AT d’IBM introduit les premiers bus 16 bits • Aujourd’hui, la plupart des bus fonctionnent en 32 bits

Toutefois sur un câble les données circulent en série (un seul flux de bits), en se déplaçant dans un seul sens. L’ordinateur peut envoyer OU recevoir des informations mais il ne peut pas effectuer les deux simultanément. Ainsi, la carte réseau restructure un groupe de données arrivant en parallèle en données circulant en série (1 bit).

Pour cela, les signaux numériques sont transformés en signaux électriques ou optiques susceptibles de voyager sur les câbles du réseau. Le dispositif chargé de cette traduction est le Transceiver.

Le rôle d'identificateur

• La carte traduit les données et indique son adresse au reste du réseau afin de pouvoir être distinguée des autres cartes du réseau.

• Adresses MAC : définies par l’IEEE (Institute of Electrical and Electronics Engineer) qui attribue des plages d’adresses à chaque fabriquant de cartes réseau.

• Elles sont inscrites sur les puces des cartes : procédure appelée « Gravure de l’adresse sur la carte ». Par conséquent, chaque carte a une adresse MAC UNIQUE sur le réseau.

Page 139: 133810711-informatique.pdf

Les autres fonctions de la carte réseau

L’ordinateur et la carte doivent communiquer afin que les données puissent passer de l’un vers l’autre. L’ordinateur affecte ainsi une partie de sa mémoire aux cartes munies d’un Accès Direct à la Mémoire (DMA : Direct Access Memory).

La carte indique qu’un autre ordinateur demande des données à l’ordinateur qui la contient. Le bus de l’ordinateur transfère les données depuis la mémoire de l’ordinateur vers la carte réseau.

Si les données circulent plus vite que la carte ne peut les traiter, elles sont placées dans la mémoire tampon affectée à la carte (RAM) dans laquelle elles sont stockées temporairement pendant l’émission et la réception des données.

Envoi et contrôle des données

Avant que la carte émettrice envoie les données, elle dialogue électroniquement avec la carte réceptrice pour s’accorder sur les points suivants :

• Taille maximale des groupes de données à envoyer • Volume de données à envoyer avant confirmation • Intervalles de temps entre les transmissions partielles de données • Délai d’attente avant envoi de la confirmation • Quantité que chaque carte peut contenir avant débordement • Vitesse de transmission des données

Si une carte plus récente, donc plus perfectionnée, communique avec une carte plus lente, elles doivent trouver une vitesse de transmission commune. Certaines cartes ont des circuits leur permettant de s’adapter au débit d’une carte plus lente.

Il y a donc acceptation et ajustement des paramètres propres à chacune des deux cartes avant émission et réception des données.

Paramètres de configuration de la carte

Les cartes réseau sont munies d’options de configuration. Entre autres :

• Interruption (IRQ) : Dans la plupart des cas, ce sont les IRQ 3 et 5 qui sont attribués aux cartes réseau. L’IRQ 5 est même conseillé (s’il est disponible !) et la plupart des cartes l’utilisent comme paramètre par défaut.

• Adresse de base du port d’entrée/sortie (E/S) : Chaque périphérique doit utiliser une adresse de base différente pour le port correspondant.

• Adresse de base de la mémoire : Elle désigne un emplacement de la mémoire vive (RAM) de l’ordinateur. La carte utilise cet emplacement comme tampon pour les données qui entrent et qui sortent. Ce paramètre est parfois appelé « adresse de début » (RAM Start Address). En général, l’adresse de base de la mémoire pour une carte réseau est D8000. Le dernier 0 est parfois supprimé pour certaine carte réseau. Il est essentiel de prendre soin de ne pas sélectionner une adresse de base déjà utilisée par un autre périphérique. A noter toutefois que certaines cartes réseau n’ont pas de réglage pour l’adresse de base de la mémoire car elles n’utilisent pas les adresses RAM de la machine.

• Le transceiver

Page 140: 133810711-informatique.pdf

Remarque : il est possible de configurer la carte de manière logicielle. Les paramètres doivent correspondre avec la disposition des cavaliers ou des commutateurs DIP (Dual Inline Package) situés sur la carte réseau. Les réglages sont fournis avec la documentation de la carte. Beaucoup de cartes récentes sont en PnP (Plug and Play). Cela dispense de configurer la carte à la main mais peut parfois être gênant (apparition de conflits) auquel cas il est généralement agréable de pouvoir désactiver l'option PnP et configurer la carte "à la main".

Cartes réseau EthernetLa plupart des cartes réseau destinées au grand public sont des cartes Ethernet. Elles utilisent comme support de communication des paires torsadées (8 fils en cuivre), disposant à chaque extrémité de prises RJ45.

Les trois standards Ethernet (norme 802.3) les plus courants correspondent aux trois débits les plus fréquemment rencontrés :

• Le 10Base-T permet un débit maximal de 10 Mbit/s. Le câble RJ45 peut alors mesurer jusqu’à une centaine de mètres et seuls 4 des 8 fils sont utilisés.

• Le 100Base-TX permet un débit maximal de 100 Mbit/s. Il est également appelé Fast Ethernet et est désormais supporté par la quasi-totalité des cartes réseau. Comme pour le 10Base-T, le câble RJ45 peut alors mesurer jusqu’à une centaine de mètres et seuls 4 des 8 fils sont utilisés.

• Le 1000Base-T permet un débit maximal de 1 000 Mbit/s. Il est également appelé Gigabit Ethernet et se démocratise rapidement. Pour que le réseau fonctionne correctement, le câble RJ45 peut toujours mesurer jusqu’à 100 m, mais doit être de bonne qualité. Cette fois, les 8 fils sont utilisés.

Afin d’étendre les distances maximales, d’autres normes Ethernet existent : elles utilisent dans la plupart des cas de la fibre optique comme support de communication.

Pour relier deux ordinateurs en réseau, un câble RJ45 spécifique suffit : il s’agit d’un câble « croisé » dont on branche simplement les extrémités dans chaque carte. Pour relier plus de deux machines, on utilise un matériel nommé hub ou switch : une extrémité du câble sera alors branchée sur l’ordinateur alors que l’autre sera relié au switch. Les deux caractéristiques fondamentales d’un switch sont sa vitesse (compatibilité 10Base-T, 100Base-TX et/ou 1000Base-T) et son nombre de ports (nombre de prises RJ45).

Cartes réseau Wi-FiLes réseaux sans fil Wi-Fi (Wireless Fidelity) ou WLAN (Wireless Local Area Network) fonctionnent sur les mêmes principes que les réseaux Ethernet filaires. Une carte réseau Wi-Fi doit être installée sur chaque ordinateur du réseau sans fil. Cette carte peut être directement incluse dans la carte mère (cas de nombreux portables), mais peut également se trouver sous la forme d’une carte PCI ou d’une clé USB. Une antenne, parfois intégrée dans la carte, permet l’envoi et la réception des signaux.

Il est possible de relier deux machines directement par Wi-Fi (on parle alors

Page 141: 133810711-informatique.pdf

d’architecture ad hoc). Comme en Ethernet filaire, pour relier plus de deux machines, on utilise généralement un matériel spécifique, appelé routeur Wi-Fi (ou point d’accès). Ce dernier dispose d’une à trois antennes afin d’optimiser l’envoi et la réception des signaux. En outre, il possède au moins un port RJ45 afin de pouvoir le relier à un réseau Ethernet filaire (généralement compatible 100Base-TX). On parle alors d’architecture de type infrastructure.

Plusieurs normes Wi-Fi ont été mises en œuvre afin d’augmenter progressivement la portée et la vitesse des échanges :

• Ainsi, le 802.11b permet un débit théorique jusqu’à 11 Mbit/s (environ 6 Mbit/s réel) pour une portée maximale de 300 m (en intérieur, cette portée est toutefois généralement limitée à quelques dizaines de mètres). Tous les ordinateurs grand public, les PDA ou les smartphones équipés de cartes Wi-Fi sont au moins compatibles avec cette norme.

• Le 802.11g permet un débit théorique maximal de 54 Mbit/s (environ 25 Mbit/s réel). Le 802.11g a une compatibilité ascendante avec la norme 802.11b, ce qui signifie que des matériels conformes à la norme 802.11g peuvent fonctionner en 802.11b.

• Le 802.11n, dit également WWiSE (World-Wide Spectrum Efficiency) ou TGn Sync, est une norme finalisée en 2008. Le débit théorique atteint les 600 Mbit/s (débit réel de 100 Mbit/s dans un rayon de 90 m) grâce aux technologies MIMO (Multiple-Input Multiple-Output) et OFDM (Orthogonal Frequency Division Multiplexing). Depuis 2006, des équipements qualifiés généralement de pré-N sont disponibles. Ils mettent en œuvre la technologie MIMO d’une façon propriétaire, plus ou moins éloignée de la norme 802.11n finale

BIOSPrésentation du BIOSLe BIOS (« Basic Input/Output System » traduisez « Système de gestion élémentaire des entrées/sorties ») est un composant essentiel de l'ordinateur, permettant le contrôle des éléments matériels. Il s'agit d'un petit logiciel dont une partie est dans une ROM (mémoire morte, c'est-à-dire une mémoire qui ne peut pas être modifiée), et une autre partie est dans un EEPROM (mémoire modifiable par impulsions électriques, d'où le terme flasher pour désigner l'action de modifier l'EEPROM).

Le POSTLorsque le système est mis sous-tension ou réamorcé (Reset), le BIOS fait l'inventaire du matériel présent dans l'ordinateur et effectue un test (appelé POST, pour "Power-On Self Test") afin de vérifier son bon fonctionnement.

• Effectuer un test du processeur (CPU) • Vérifier le BIOS • Vérifier la configuration du CMOS • Initialiser le timer (l'horloge interne) • Initialiser le contrôleur DMA • Vérifier la mémoire vive et la mémoire cache • Installer toutes les fonctions du BIOS • Vérifier toutes les configurations (clavier, disquettes, disques durs ...)

Page 142: 133810711-informatique.pdf

Si jamais le POST rencontre une erreur, il va essayer de continuer le démarrage de l'ordinateur. Toutefois si l'erreur est grave, le BIOS va arrêter le système et :

• afficher un message à l'écran si possible (le matériel d'affichage n'étant pas forcément encore initialisée ou bien pouvant être défaillant) ;

• émettre un signal sonore, sous forme d'une séquence de bips (beeps en anglais) permettant de diagnostiquer l'origine de la panne ;

• envoyer un code (appelé code POST) sur le port série de l'ordinateur, pouvant être récupéré à l'aide d'un matériel spécifique de diagnostic.

Si tout est correct, le BIOS émettra généralement un bip bref, signalant qu'il n'y a pas d'erreur.

Signification des bips pour les BIOS Award récents

Nb de bips Signification Résolution du problème

1 bip courtLe PC démarre normalement

2 bips courts Problème CMOSRéinitialiser le CMOS en enlevant la pile du BIOS et en la remettant ou en déplaçant le cavalier JP4

1 bip long / 1 bip court

Problème de carte-mère ou de mémoire vive

Enficher correctement les modules de mémoire vive, tester sa RAM ou les changer

1 bip long / 2 bips courts

Problème lié à la carte graphique

Vérifier que la carte graphique est bien enfichée. Eventuellement, tester avec une autre carte vidéo

1 bip long / 3 bips courts

Problème lié au clavier

Vérifier que le clavier est bien enfiché et qu'aucune touche n'est enfoncée. Eventuellement, tester avec un autre clavier

1 bip long / 9 bips courts

Problème du BIOSLe BIOS est invalide, flasher le BIOS avec une version plus récente

3 bipsProblème dans les 64 premiers Ko de la RAM

La mémoire vive contient des erreurs. Essayer de la réinsérer correctement ou en changer

4 bipsProblème de rafraîchissement

La mémoire vive n'est pas rafraîchie correctement. Remettre des valeurs de rafraiîchissement correctes dans le BIOS ou faire un reset du BIOS.

5 bipsProblème de processeur

Vérifier que le processeur est correctement branché, que son ventilateur fonctionne. Eventuellement, en changer.

6 bips Problème lié au clavier

Vérifier que le clavier est bien enfiché et qu'aucune touche n'est enfoncée.

Page 143: 133810711-informatique.pdf

Eventuellement, tester avec un autre clavier

8 bipsProblème lié à la carte graphique

Vérifier que la carte graphique est bien enfichée. Eventuellement, tester avec une autre carte vidéo

Bips longs incessants

Problème de mémoire vive

Enficher correctement les modules de mémoire vive, tester sa RAM ou les changer

Bips courts incessants

Problème d'alimentation

Vérifier que tous les câbles d'alimentation sont bien reliés à la carte mère, tester avec une autre alimentation ou bien en changer

Signification des bips pour les BIOS AMI (AMIBIOS)

Nb de

bipsSignification Résolution du problème

1Refresh failure(erreur lors du rafraîchissement de la mémoire)

La mémoire vive n'est pas rafraîchie correctement. Remettre des valeurs de rafraiîchissement correctes dans le BIOS ou faire un reset du BIOS. Enficher correctement les modules de mémoire vive ou les changer.

2 Parity Error(erreur de parité)Enficher correctement les modules de mémoire vive ou les changer. Tester sa mémoire vive.

3Base 64K RAM failure(erreur dans les 64 premiers Ko de la mémoire vive)

Enficher correctement les modules de mémoire vive ou les changer. Eventuellement, flasher le BIOS.

4 System timer not operational La carte mère doit être envoyée en réparation

5Processor Error(erreur du processeur)

Vérifier que le processeur est correctement branché, que son ventilateur fonctionne. Eventuellement, en changer.

6 Gate A20 failure(échec clavier)Vérifier que le clavier est bien enfiché et qu'aucune touche n'est enfoncée. Eventuellement, tester avec un autre clavier.

7Processor exception interrupt error(erreur d'interruption du processeur)

La carte mère doit être envoyée en réparation

8Display memory read/write failure(erreur de mémoire vidéo)

Vérifier que la carte graphique est bien enfichée. Eventuellement, tester avec une autre carte vidéo.

9ROM checksum error(erreur de la somme de contrôle de la mémoire morte)

La puce du BIOS doit être changée ou flashée.

10 CMOS shutdown register La carte mère doit être envoyée en réparation

Page 144: 133810711-informatique.pdf

read/write error(erreur de lecture/écriture lors de l'enregistrement dans le CMOS)

11Cache memory problem(problème de mémoire cache)

Vérifier que le processeur est correctement branché, que son ventilateur fonctionne. Eventuellement, en changer. Enficher correctement les modules de mémoire vive ou les changer

Signification des bips pour les BIOS Phoenix

Nb de bips

Signification Résolution du problème

1-3-1-1DRAM Refresh error(erreur lors du rafraîchissement de la mémoire)

Enficher correctement les modules de mémoire vive ou les changer

1-2-2-3ROM checksum error(erreur de la somme de contrôle de la mémoire morte)

Enficher correctement les modules de mémoire vive ou les changer

1-3-1-3Keyboard Controller Error(erreur du contrôleur de clavier)

Enficher correctement le clavier ou le changer

1-3-4-1RAM error(erreur dans la mémoire)Enficher correctement les modules de mémoire vive ou les changer

1-3-4-3RAM error(erreur dans la mémoire)Enficher correctement les modules de mémoire vive ou les changer

1-4-1-1RAM error(erreur dans la mémoire)Enficher correctement les modules de mémoire vive ou les changer

2-2-3-1Unexpected interrupt(interruption inattendue)

Pour le BIOS Award, seules les erreurs relatives à la vidéo font l'objet de signaux sonores, les autres erreurs sont envoyées sous forme de codes POST et sont affichées à l'écran.

Ainsi un long bip, suivi de deux bips courts indique une erreur due aux périphériques vidéo (carte graphique). Dans ce cas il est nécessaire d'essayer d'enficher correctement la carte vidéo voire d'en changer. Tout autre bip indique une erreur due à la mémoire.

Voici la liste des codes POST et de la signification des bips pour les 3 principaux constructeurs de BIOS :

• Phoenix - Phoenix BIOS POST code

Page 145: 133810711-informatique.pdf

• AMIBIOS - AMIBIOS POST code • Award - BIOS Award POST code

Le setup du BIOSLa plupart des BIOS ont un « setup » (programme de configuration) qui permet de modifier la configuration basique du système. Ce type d'information est stockée dans une mémoire autoalimentée (à l'aide d'une pile) afin que l'information soit conservée même lorsque le système est hors tension (la mémoire vive est réinitialisée à chaque redémarrage).

Il existe de nombreux BIOS dans chaque machine :

• Le BIOS de la carte mère • Le BIOS qui contrôle le clavier • Le BIOS de la carte vidéo • et éventuellement

o Le BIOS de contrôleurs SCSI qui permettent de booter sur le périphérique SCSI, qui communique alors avec le DOS sans pilote supplémentaire

o (Le BIOS de cartes réseau qui permettent de booter sur le réseau)

Lorsque le système est mis sous tension, le BIOS affiche un message de copyright à l'écran, puis il effectue les tests de diagnostics et d'initialisation. Lorsque tous les tests ont été effectués, le BIOS affiche un message invitant l'utilisateur à appuyer sur une ou plusieurs touches afin d'entrer dans le setup du BIOS.

Selon la marque du BIOS il peut s'agir de la touche F2, de la touche F10, de la touche DEL (sur les claviers français : "Suppr"), ou bien d'une des séquences de touche suivantes :

• Ctrl+Alt+S • Ctrl+Alt+Esc • Ctrl+Alt+Ins

Sur les BIOS Award le message suivant est affiché lors du POST : TO ENTER SETUP BEFORE BOOT PRESS CTRL-ALT-ESC OR DEL KEY

Ce message signifie « PRESSEZ "CTRL-ALT-ESC" ou la touche "DEL" pour entrer dans le "SETUP" avant le démarrage du PC »

Réinitialiser le BIOSDans la mesure où le setup du BIOS permet de modifier des paramètres matériels, il

peut arriver que le système devienne instable, voire ne redémarre plus. Ainsi,

lorsque cela arrive, il devient nécessaire d'annuler les modifications apportées au

BIOS et de remettre les paramètres par défaut.

Page 146: 133810711-informatique.pdf

Si l'ordinateur démarre et que l'accès au setup du BIOS est possible, celui-ci offre

généralement la possibilité de rétablir les paramètres par défaut. Sur les BIOS de

type PhoenixBIOS, l'appui sur la touche F9 permet de rétablir les paramètres par

défaut du constructeur. Sur les BIOS de type AwardBIOS

l'appui sur la touche F5 rétablit les paramètres précédents, l'appui sur F6 rétablit les

valeurs par défaut du BIOS Award, enfin la touche F7 permet de rétablir les

paramètres par défaut fournis par le contructeur de la carte mère.

Si l'accès au BIOS est impossible par la procédure standard, la plupart des cartes

mères sont dotées d'un cavalier (jumper) leur permettant de rétablir les valeurs par

défaut. Il suffit de changer la position du cavalier, et de le laisser maintenu dans

cette nouvelle position pendant une dizaine de secondes.

Il est fortement conseillé de procéder à ces manipulations en ayant

préalablement mis l'ordinateur hors tension. Pour toutes ces

manipulations référez-vous au manuel fourni avec votre carte mère !