aperçu du numéro d’octobre de la revue de l'électricité et de l'électronique

24
Numéro 2012 EDITORIAL La physique, fondement du progrès Jean-Pierre Hauet ENTRETIEN AVEC Gérard Théry Ancien Directeur Général des Télécommunications www.see.asso.fr 4 ISSN 1265-6534 DOSSIERS Les atomes froids L'ARTICLE INVITÉ Smart grids et normalisation Par Alain Doulet

Upload: jean-pierre-hauet

Post on 06-Mar-2016

229 views

Category:

Documents


0 download

DESCRIPTION

Cet aperçu permet aux lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro d’octobre 2012 - Pour s'abonner, merci de vous rendre à la dernière page.

TRANSCRIPT

énergie telecommunications signal composants automatique informatique

Nu

mér

o

2

012

editorial La physique, fondement du progrès

Jean-Pierre Hauet

eNtretieN avec Gérard Théry

Ancien Directeur Général des Télécommunications

www.see.asso.fr

4

ISSN

126

5-65

34

dossiers

Les atomes froids

L'articLe iNvité

Smart grids et normalisationPar Alain Doulet

jphauet
Zone de texte
Cette aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro d'octobre 2012. Pour acheter le numéro ou s'abonner, se rendre à la dernière page.

REE N°4/2012 ◗ 1

A l’heure où nous bouclons ce numéro de la REE, la nouvelle de l’attribution du prix No-bel de physique au Français Serge Haroche

et à l’Américain David J. Wineland nous parvient, ré-compensant les travaux que l’un et l’autre ont menés, chacun de leur côté, sur la manipulation de photons et d’atomes à un niveau où la description de la matière passe du domaine de la physique classique à celui de la physique quantique, où le déterminisme cède la place à la connaissance probabiliste, en parvenant, au prix d’expériences infiniment délicates, à mettre en évi-dence le phénomène fondamental de la décohérence.

La REE se réjouit bien entendu de l’attribution du prix de Nobel de physique à un 13e lauréat fran-çais. Elle s’en réjouit d’autant plus qu’elle vient ré-compenser des travaux d’une valeur incontestée qui ouvrent la voie à des sauts technologiques fantastiques, sur la mesure du temps avec des ni-veaux de précision extraordinaires et puis, à plus long terme, sur les fameux ordinateurs quantiques.

La REE s’intéresse depuis longtemps à ces travaux. En novembre 2004, elle publiait un article invité du Dr. Yury Mukharsky « Les qubits et le calcul quanti-que ». Au printemps dernier, elle consacrait un long Flash-Info à la réalisation par IBM d’un dispositif su-praconducteur intégré sur une puce de silicium, réali-sant une opération logique sur 2 qubits. Aujourd’hui, nous publions un dossier complet sur les atomes froids, ces atomes ralentis par laser jusqu’à un stade où les ondes de matière associées deviennent obser-vables et utilisables dans des centrales inertielles ou des gravimètres extraordinairement précis. Avec les premiers travaux sur les atomes froids, qui valurent

le prix Nobel 1997 au Français Claude Cohen-Tan-noudji – qui naguère fut directeur de thèse de Serge Haroche, s’ouvrait l’ère des manipulations quantiques sur la matière et de l’exploration de nouveaux états.

Tout ceci est bien lointain penseront certains et fort éloigné de nos préoccupations quotidiennes. Il n’en est rien. Notre deuxième dossier sur les nouvelles technologies de l’éclairage vient à point nommé pour le montrer. Pendant plus d’un siècle, la lampe à incan-descence, inventée en 1879, a régné en maître dans les foyers apportant un confort inconnu jusqu’alors mais au prix d’un rendement lumineux extrêmement médiocre (1 à 2 %). Pendant des décennies, la tech-nologie a tâtonné, incapable de proposer une solution efficace apportant un confort visuel équivalent à celle des lampes de Swan et d’Edison. Et puis tout d’un coup, les LED et les OLEDs, issues à la fois de la recherche fondamentale et du progrès technologique, font une irruption massive dans les supermarchés, avec des durées de vie et des efficacités énergétiques 10 fois supérieures à celles des solutions traditionnelles.

Nous sommes convaincus que dans quelques dé-cennies, les grands centres de calcul, véritables gouf-fres à énergie dont le rendement thermodynamique n’excède pas 1 ‰, tireront parti des principes fon-damentaux que le prix Nobel 2012 est venu récom-penser. Dans la grisaille du moment, ces découvertes, replacées dans la perspective de l’évolution techno-logique de l’éclairage, sont autant de lueurs d’espoir.

Jean-Pierre Hauet Président du Comité Editorial

La physique, fondement du progrès

editorial jean-pierre hauet

2 ◗ REE N°4/2012

sommaireNuméro 4 2012

1 Editorial La physique, fondement du progrès Par Jean-Pierre Hauet

2 sommairE

5 Flash iNFos Serge Haroche : le 13e prix Nobel de physique français

La découverte du Boson de Higgs, si elle est avérée, confirmera le modèle standard

Un transistor optique à 10 GHz

REVEL : un contact virtuel dans un monde réel

Les batteries au lithium-Ion : de beaux jours en perspective ?

Le mystère des batteries au plomb enfin éclairci ?

Un mois de juin très chaud…..

15 a rEtENir Congrès et manifestations

18 ViENt dE paraîtrE La REE vous recommande

21 articlE iNVité Smart grids et normalisation Par Alain Doulet

29 lEs graNds dossiErs L'éclairage Introduction : L’éclairage : un remarquable saut technologique Par Jean-Pierre Hauet

31 La révolution technologique de l’éclairage Par Christophe Cachoncinlle, Georges Zissis

42 Evolutions et perspectives de l’éclairage - Applications des OLEDs Par Marc Ternisien, David Buso, Georges Zissis, Sounil Bhosle

48 Les technologies nouvelles de l’éclairage : leur impact sur l’environnement et la santé Par Sébastien Point

p. 29

p. 55

p. 1

p. 21 p. 89 p. 101

Credit photo couverture : Multi Colored Building © openlens - Fotolia.com. Conception, JC. Malaterre

REE N°4/2012 ◗ 3

55 Les atomes froids Introduction : Les atomes froids Par Michèle Leduc, Pierre Cladé

57 Comment refroidir les atomes froids avec la lumière laser ? Principes et techniques Par Saïda Guellati-Khelifa, Pierre Cladé

67 Senseurs d’inertie à ondes de matières. Des appareils de préci-sion pour la navigation, la géophysique et les tests spatiaux

Par Philippe Bouyer, Arnaud Landragin

71 Atomes froids et physique du solide Par Frédéric Chevy, Xavier Leyronas, Laurent Sanchez-Palencia

81 rEtour sur ... Le paradoxe EPR Par Marc Leconte

89 ENtrEtiEN aVEc... Gérard Théry Ancien Directeur Général des Télécommunications

93 ENsEigNEmENt & rEchErchE SONDRA – Un “golden gate” entre Paris-Saclay et Singapour Par Marc Lesturgie, Sylvain Azarian

96 Echos de l’enseignement supérieur Par Bernard Ayrault

99 chroNiQuE Prospective et utopie Par Bernard Ayrault

101 librEs propos Les réseaux au secours de l’écosystème Par Thierry Gaudin

105 sEE EN dirEct La vie de l'association

MEA

201

2

More electric AircrAft

20-21 November 2012Bordeaux (France)

For more information, please contact:> Registration: [email protected]> Exhibition: [email protected]

http://www.mea2012.eu/venue

REE N°4/2012 ◗ 5

FlashInfos

Serge Haroche : le 13e prix Nobel de physique français

Le prix Nobel de physique 2012

a été décerné à Serge Haroche,

professeur au Collège de France

et directeur de recherche au La-

boratoire Kastler Brossel au sein

de l’École normale supérieure à

Paris, et à David Wineland, cher-

cheur de l’Institut américain des étalons et de la techno-

logie (NIST) à Boulder aux États-Unis. Le comité Nobel

a motivé l’attribution du prix par leurs recherches es-

sentielles dans la conception de dispositifs permettant

de contrôler et de mesurer des systèmes quantiques

dont les applications vont des horloges de précision à la

conception de futurs ordinateurs quantiques.

Serge Haroche et ses collègues du laboratoire de l’ENS

ont, mis au point des systèmes de cavités supraconductri-

ces contenant quelques photons piégés par deux miroirs

réfléchissants se faisant face. Il a ainsi développé une

technique permettant d’obtenir l’état des photons par un

changement d’état de l’atome sonde, sans perturber le

système. Avec ce dispositif, Serge Haroche et son équipe

ont réussi à reproduire matériellement le phénomène de

la décohérence qui décrit le passage du comportement

quantique d’un système, pouvant être dans une superpo-

sition d’états quantiques, à un comportement classique.

La décohérence est un résultat important de l’interpré-

tation moderne de la mécanique quantique et apporte

une réponse au célèbre paradoxe du chat de Schrödinger.

En 1935, Erwin Schrödinger a imaginé un chat dans une

boîte fermée où l’on aurait introduit un atome radioactif.

Si cet atome se désintégrait, du cyanure était libéré dans

la boîte et tuait le chat. La désintégration de l’atome sui-

vant une loi de probabilité, le chat acquiert, une probabi-

lité d’être en vie ou d’être empoisonné par le cyanure. En

conséquence l’animal est à la fois mort et vivant jusqu’à

ce que l’on ouvre la boîte. Serge Haroche, plus clément à

l’égard des chats, les a remplacés par des photons dans

une cavité entre deux miroirs sphériques à très basse

température pour réduire au maximum les interactions

avec le milieu. Un atome est préparé à l’aide d’impul-

sions micro-ondes afin qu’il se trouve dans deux états

d’énergie superposés, puis cet atome est envoyé dans

la cavité, amenant le champ de photons dans un état de

superposition quantique. Un deuxième atome est envoyé

et comparé à la sortie à celui du premier et ainsi de suite.

Serge Haroche et son équipe ont découvert que plus l’in-

tervalle de temps entre l’envoi de deux atomes était long,

plus leurs états différaient à la sortie, ce qui montrait que

la superposition d’états disparaissait rapidement. On sa-

vait que le phénomène de décohérence apparaissait très

rapidement mais on n’avait pas observé la transition, qui

a été mise en évidence expérimentalement sans que la

« boîte de Schrödinger » soit ouverte, c’est-à-dire sans que

les photons aient été absorbés. Les expériences conçues

par Serge Haroche ont permis la manipulation des états

quantiques dans des cavités supraconductrices, manipu-

lations que certains physiciens cherchent à exploiter pour

réaliser des ordinateurs quantiques1.

Les travaux de David Wineland, colauréat du prix No-

bel, sont complémentaires de ceux de Serge Haroche. Le

physicien américain a étudié des ensembles d’atomes

ionisés et piégés par un champ électrique, dans des dis-

positifs nommés pièges de Paul. Des photons contrôlent

l’état quantique des ions avec précision. David Wineland a

ainsi expérimenté des opérations élémentaires de calcul

quantique, composants d’un futur mais encore hypothé-

tique ordinateur quantique. Toujours avec des ions, il a

également développé une horloge optique reposant sur

les oscillations d’ions aluminium plus précise d’un ordre

de grandeur que les horloges au césium. Une telle hor-

loge fonctionnant depuis le début de l’univers donnerait

l’heure avec une erreur de moins de cinq secondes.

Le prix Nobel de physique a été créé en 1901 et deux

de ses lauréats Gabriel Lippmann et Louis de Broglie ont

été en leur temps président de la SEE. Serge Haroche est

le treizième prix Nobel français de physique après Henri

Becquerel, Pierre et Marie Curie en 1903, Gabriel Lippmann

en 1908, Jean-Baptiste Perrin en 1926, Louis de Broglie

en 1929, Alfred Kastler en 1966, Louis Néel en 1970, Pier-

re-Gilles de Gennes en 1991, George Charpak en 1992,

Claude Cohen-Tannoudji en 1997 et Albert Fert en 2007.

Le prix Nobel de Serge Haroche s’inscrit dans la filiation de

ceux décernés à Claude Cohen-Tannoudji, Alfred Kastler

et Louis de Broglie. C’est en effet la physique quantique

dont Louis de Broglie est l’un des fondateurs qu’explore

Serge Haroche depuis le début de sa carrière commen-

cée au début des années 70 au sein du laboratoire de

physique de l’Ecole normale supérieure. Son directeur de

thèse est Claude Cohen-Tannoudji et sa thèse a pour titre

« l’atome habillé ». L’impressionnante liste de ses publica-

tions dans des revues spécialisées permet de dessiner la

suite de ses travaux depuis 1971 qui ont le point com-

mun de s’intéresser aux propriétés des objets quantiques.

6 ◗ REE N°4/2012

FlashInfos

Il est remarquable de constater la fécondité du Laboratoire

Kastler Brossel de physique de l’Ecole normale supérieure

qui fut animé par Alfred Kastler et qui a su redonner un

prestige international à la physique française après la guer-

re. Il est également remarquable de constater que ce sont

deux équipes françaises qui ont concrétisé les deux gran-

des expériences de la pensée de la physique quantique,

le chat de Schrödinger avec Serge Haroche et le paradoxe

d’Einstein Podolsky Rosen avec Alain Aspect2. ■ML

1 Voir REE N°2/2012 page 62 On trouvera sur ce paradoxe un développement dans la rubrique

« Retour sur… » de ce même numéro.

La découverte du boson de Higgs, si elle est avérée, confirmera le modèle standard 4 juillet 2012 : le boson de Higgs aurait été découvert

Le 4 juillet 2012 éclatait dans tous les médias l’annonce

par le CERN de la découverte très probable du boson de

Higgs. Des titres parfois extravagants envahissaient la pres-

se généraliste en plein été, parlant de particule de Dieu, de

particule manquante qui allait expliquer l’univers, etc.

Dans l’un des quotidiens du soir (le Monde) on pou-

vait trouver une illustration suggestive montrant un puzzle

auquel il manquait une pièce : le boson de Higgs. Celui-

ci fait en effet partie des particules élémentaires qui ont

été postulées au sein d’un même modèle théorique, le

modèle standard, et pour la recherche desquelles de gi-

gantesques accélérateurs de particules ont été construits

en Europe et aux Etats-Unis. Le dernier en date est le LHC

(Large Hadron Collider) exploité depuis 2008 par le CERN,

près de Genève, et qui, grâce à un anneau de 26,6 km

de circonférence, permet d’organiser des collisions proton-

proton à un niveau d’énergie jamais atteint à ce jour de 14

TeV1. Deux grands programmes de recherche, fondés sur

les détecteurs géants ATLAS et CMS, ont été immédiate-

ment lancés afin de traquer le fameux boson.

Retour sur le modèle standard

Depuis que la physique utilise les mathématiques

comme modèle de représentation des phénomènes, la

1 L’électron-volt (eV) et ses multiples (keV, MeV, GeV, TeV) sont des unités de mesure d’énergie utilisées en physique des particules pour exprimer les niveaux d’énergie rencontrés dans les accéléra-teurs de particules. Un eV équivaut à 1,60217653 × 10-19 joule (J). L’eV.c-2 est une unité de masse et équivaut à 1.783 10-36 kg.

recherche de simplification des modèles par l’unification

des forces de la nature et la recherche de symétries a

été un puissant moteur de découverte. De Newton à

Einstein, on pensait que le monde n’était fait que de ma-

tière dans un éther. Au début du 20e siècle la relativité

restreinte a fait disparaître l’éther et on a inversé la pro-

position, le monde n’est fait que de champ et la matière

est l’une des manifestations du champ qui est donc le

socle fondamental. On s’est attelé à l’unification des deux

champs connus à l’époque, le champ gravitationnel et

le champ électromagnétique. Cette unification a été un

échec. Einstein aura cherché jusqu’à la fin de sa vie mais

sans succès à mettre au point sa théorie des champs

unifiés. Cependant, l’approche quantique du champ élec-

tromagnétique sera un plein succès et donnera naissance

à l’électrodynamique quantique de Tomonaga, Schwinger

et Feynman. En parallèle la découverte de nouvelles par-

ticules élémentaires et les progrès de la physique atomi-

que ont permis d’approfondir la connaissance du noyau,

de la force nucléaire forte qui assure sa cohésion et de

la force nucléaire faible qui est responsable de la désin-

tégration β (un neutron se transformant en proton plus

d’autres particules).

A partir des années 60, les physiciens ont construit

le modèle standard qui décrit les trois interactions élec-

tromagnétique, forte et faible. Un modèle mathématique

découlant d’un principe de symétrie unique commun à

tous les modes d’interaction constitue le cadre théorique

du modèle standard.

Une première unification a été réalisée par Glashow,

Salam et Weinberg entre l’interaction faible et l’interac-

tion électromagnétique sous forme d’un champ unique

appelé interaction électrofaible qui forme aujourd’hui la

première composante du modèle standard. Les bosons

porteurs de cette interaction, les W± et Z0, dont l’existence

avait été prédite dès les années 1960, ont été découverts

au CERN en 1983 et confirmés par la suite grâce au LEP

(Large Electron-Positron Collider).

La chromodynamique quantique fondée sur l’existen-

ce des quarks en tant que constituants élémentaires des

protons et neutrons, a été mise au point dans les années

60 et constitue le deuxième pilier du modèle standard tel

que nous le connaissons aujourd’hui.

La rupture de symétrie de la force électrofaible

et le champ de Higgs

L’idée d’unification de l’électromagnétisme et de la force

faible consistait à considérer que ces interactions étaient

REE N°4/2012 ◗ 7

FlashInfos

régies par des forces de jauge, ou symétries de jauge, dont

le prototype le plus simple est l’électromagnétisme. Le

porteur ou « boson » de l’interaction électromagnétique

est le photon dont la masse nulle autorise une interaction

à portée infinie. En 1957 les expériences de Yang et Mills

permirent d’affirmer que la force faible était également une

force de jauge. La très courte portée de l’interaction faible

impliquait des bosons massifs, mais la théorie stipulait que

les bosons de jauge devaient être de masse nulle ce qui

soulevait une contradiction théorique.

Abdus Salam et Steven Weinberg avancèrent alors

l’idée que cette contradiction pouvait être la conséquen-

ce d’une brisure de symétrie et que les masses de bo-

sons W± et Z0 médiateurs de l’interaction faible devaient

provenir d’une transition de phase comme il en existe

beaucoup dans la nature (passage de l’eau en glace par

exemple). L’idée émise fut qu’il existait un champ sca-

laire, dénommé champ de Higgs du nom de l’un de ses

inventeurs, capable d’interagir avec les bosons intermé-

diaires W± et Z0 mais sans effet sur le photon de masse

nulle. Ce champ se manifesterait par le mécanisme de

Higgs2 expliquant que dans le domaine des basses éner-

gies les bosons W± et Z0 acquièrent une masse inertielle

qui les différencie du photon. Dans le domaine des hau-

tes énergies, celui qui prévalait peu après le big bang,

la « mélasse » Higgsienne ne remplit plus l’espace et la

symétrie entre les bosons W±, Z0 et le photon se trouve

rétablie. L’introduction du champ de Higgs était une façon

élégante de préserver la symétrie à haute énergie tout en

expliquant la brisure de la symétrie à basse énergie.

Qui dit champ, dit boson

Mais si un champ électrofaible existe, il doit exister,

selon le principe de la dualité onde-particule, une par-

ticule porteuse du champ. Cette particule putative a été

dénommée « boson de Higgs » et c’est sur ce boson que

s’est concentrée la recherche scientifique pour étayer

l’hypothèse du mécanisme de Higgs.

L’enjeu était essentiel. Il fallait comme indiqué ci-des-

sus valider le modèle standard en expliquant la brisure de

symétrie observée dans l’interaction électrofaible dans

le domaine des basses énergies. Mais le mécanisme de

Higgs va beaucoup plus loin. Il conduit en effet à considé-

rer la masse inertielle des bosons intermédiaires et plus

généralement de toute particule, non pas comme une

2 En fait mécanisme de Brout-Englert-Higgs-Hagen-Guralnik-Kibble pour mentionner tous ceux qui à la même époque et de façon indépendante ont émis la même théorie.

Figure 1a.

Figure 1b.

Figure 1c.

Figure 1d.

Source : CERN pour le compte de David Miller http://www.hep.ucl.ac.uk/~djm/higgsa.html

jphauet
Rectangle

REE N°4/2012 ◗ 21

L'articLe invité

Introduction

I l n’est plus d’étude sur les réseaux de distribution où

l’on ne parle de « smart grids » ou de « smart me-

ters ». Certains s’interrogent toujours sur la réalité du

concept entre l’effet de mode et la vraie révolution

en matière de réseaux de distribution. Mais dans tous les

cas, les smart grids sont une réalité dont on peut considérer

qu’elle va renouveler la vision systémique du réseau.

En effet, au moment où de nouveaux besoins émergent

tant en termes de politique énergétique que de services au

client final, l’offre technologique progresse rapidement et la

rencontre de ces deux approches permet de définir ce nou-

veau concept de smart grids. Cela constitue une opportunité

de modernisation pour tous les opérateurs de réseau confron-

tés à des programmes de renouvellement ou de renforcement

d’infrastructures importants. Les smart grids ouvrent égale-

ment la porte à l’élaboration de nouveaux business models du

fait d’un nouvel équilibre possible entre acteurs.

Mais l’ampleur de l’évolution dessinée pose de nouvelles

questions. L’une d’elles, non la moindre, est celle de l’impact

sur les travaux de normalisation.

Le concept de smart grids

Le terme n’est pas explicite en lui-même ; beaucoup ont

placé sous ce vocable un contenu sans s’assurer qu’il était

partagé par tous les acteurs.

La Commission européenne a bien ressenti ce besoin et

avant de savoir s’il y avait lieu à légiférer en matière de dé-

veloppement de smart grids, a souhaité homogénéiser la vi-

sion européenne du sujet. C’est la raison de la création d’une

« task force smart grids » en 2010 sous l’égide de la Direction

Générale Energie. L’objectif de cette structure était d’étudier

les éléments relevant de la technique, de la régulation et des

échanges commerciaux sur les smart grids afin de préparer

leur déploiement dans le cadre du troisième paquet énergie,

considérant que les smart grids constituaient l’un des outils

importants de l’atteinte des objectifs énergétiques affichés.

Les mots-clés mis en avant étaient : efficacité, performance

économique, bénéfice pour le consommateur, services. Cet-

te démarche a complété les initiatives antérieurement prises

par la Direction Générale Recherche en vue de favoriser les

expérimentations de techniques ou de services engagées par

les opérateurs.

Il est essentiel de bien distinguer le concept de « smart

grids » des autres concepts tels que « smart city » ou « smart

home ». Les smart grids sont d’abord un réseau électrique,

allant du moyen de production au compteur du consomma-

teur, mais qui s’insère dans un cadre plus vaste de « smart

system » dans lequel diverses briques seront assemblées. Un

des objectifs recherchés est bien sûr de dessiner cette brique

de façon qu’elle s’assemble facilement avec les autres en ap-

portant les services que l’on peut attendre de sa fonction.

Pour mener à bien ce travail, trois structures de travail ont

été créées, centrées sur trois questions-clés :

• Quels sont les fonctionnalités et les services que doivent of-

frir a minima les smart grids aux clients européens et quelle

coordination faut-il assurer avec les actions engagées en

matière de smart meters ?

• Quelles recommandations convient-il de formuler pour ga-

rantir la sécurité des données et la protection du consom-

mateur ?

• Comment se répartissent les rôles et les responsabilités des

acteurs impliqués dans le déploiement des smart grids et

notamment comment organiser leur financement et quel im-

pact auront-ils sur les mécanismes de régulation en place ?

A l’issue du travail du premier groupe qui a réuni des ex-

perts de tous horizons, six services de haut niveau ont été

identifiés (figure 2) :

1. Intégration de nouvelles exigences dans l’accès au ré-

seau : on trouve ici les questions liées à la production

décentralisée de petite comme de grande taille, intégrant

son caractère aléatoire, mais aussi au raccordement des

utilisateurs nouveaux du réseau tels que les véhicules

électriques ou les équipements de stockage de l’énergie.

2. Amélioration de l’efficacité opérationnelle : les systè-

mes de surveillance, de pilotage, de localisation de défaut

améliorent la qualité de service et le coût de la gestion du

réseau. La connaissance des flux va améliorer la gestion

des pertes, l’optimisation de la maintenance.

3. Sécurité et qualité de service : l’acquisition en temps réel

d’informations sur le fonctionnement du réseau permet

d’améliorer le suivi de la production intermittente, la ges-

tion de la réserve primaire, le contrôle du niveau de ten-

sion distribuée. La sécurité du système face aux attaques

de tous ordres en sera renforcée. L’action sur la demande

Smart grids et normalisation

L'articLe invité aLain DOULet COLLECTION

LES MONOGRAPHIES SEE/CNRS ÉDITIONS

Sous la direction de L’IGA Jacques Roujansky LA SÉCURITÉ GLOBALE - RÉALITÉ, ENJEUX, ET PERSPECTIVES

A retourner à la SEE - 17 rue de l’Amiral Hamelin - 75783 Paris cedex 16 - France - Fax : 33 (0)1 5690 3719

❑ Je commande la monographie (parue en 2009) : “La sécurité globale - Réalité, enjeux, et perspectives” pour la somme de 35 TTC (valable en France) + participation aux frais de port : 5

Nom : .........................................................................................................Prénom : .....................................................................................................Adresse : .........................................................................................................................................................................................................................Code postal Ville : ..............................................................Pays : .........................................................................................................e-mail : .......................................................................................................

❑ Je désire recevoir une facture au nom de mon employeur pour paiement à réception

Raison sociale et adresse : ..................................................................................

............................................................................................................................

Code postal Ville : .....................................................................

Pays : ................................. VAT : ......................................................................

Conformément à la Loi Informatique et Libertés du 06/01/1978, vous disposez d�un droit d�accès et de rectification aux informations qui vous concernent. Contacter le Service Abonnements de la SEE

Je règle la somme de : ........................... par ❑ chèque à l’ordre de la SEE ❑ Prélevement bancaire (Joindre un RIB)

❑ Carte bancaire (Visa, Eurocard/Mastercard, American Express) N˚ Carte Date d’expiration N° Cryptogramme

Noter les 3 derniers N° au dos de votre carte

(obligatoire)

Date, signature et cachet :

BON DE COMMANDE✂

R éseaux du crime et de la drogue, danger terroriste, armes biologiques, pira-

tage des marchés publics, attaques des systèmes informatiques : face au chaos mondial né de l’après 11 septembre, de plus en plus d’Etats parient sur le concept de la sécurité globale pour répondre aux bouleversements du XXIe siècle.

Comment assurer aux collectivi-tés nationales un niveau suffisant de prévention et de protection contre ces nouvelles menaces qui profitent de la mondialisation ? Comment déceler, surveiller, réa-gir ? A ces questions d’une exceptionnelle gravité, com-ment apporter des réponses globales sans restreindre la liberté ni entamer le droit à la vie privée ?

Réunissant les meilleurs spécialistes du sujet, cet ouvrage propose une vision pionnière de la sécurité globale pour les prochaines décennies. Un panorama sans équivalent, illustré de situations concrètes, qui an-ticipe les crises du troisième millénaire.

L’Ingénieur Général de l’Armement Jacques Roujansky est Architecte Protection Sauvegarde à la Déléga-tion Générale pour l’Armement, et Président du Club Sécurité Globale de la SEE.

■ Entre science et vie sociétale : les éléments du futur

Société de l’Electricité, de l’Electronique et des Technologies de l’Information et de la Communication, la SEE célèbre ses cinq quarts de siècles passés au service du progrès scientifique et technique pour ac-compagner les grands enjeux sociétaux de son histoire. Afin de conforter cet évènement, une collection de monographies scienti- fiques thématiques est éditée en par-tenariat entre la SEE et CNRS Editions. Il s’agit d’un travail collectif réalisé au sein des clubs techniques de la SEE, dont les premiers ouvrages introduisent

quatre grands domaines représentatifs du périmètre considéré : • la sécurité globale,• le traitement de l’information et l’ingénierie des systèmes

complexes• la microélectronique • l’énergie. Cette collection a pour ambition d’apporter un éclairage di-dactique sur l’évolution de thématiques scientifiques majeures pour notre société, d’en cerner les perspectives et les enjeux, et surtout de proposer des voies privilégiées pour leur dévelop-pement.Elle est conçue pour accompagner les réflexions de toute per-sonne concernée par les avenirs possibles.

22 ◗ REE N°4/2012

L'articLe invité

Figure 1 : Concept de smart-grid.

Figure 2 : Smart grids – Articulation entre réseaux et services – Source : EU Commission Task Force for Smart Grids – Expert group 1 – Décembre 2010.

jphauet
Rectangle

REE N°4/2012 ◗ 29

LES GRANDS DOSSIERSIntroduction

Inventée en 1879 par Joseph Swan et amélio-

rée par les travaux de Thomas Edison, la lampe

à incandescence fut l'une des vedettes de l'ex-

position internationale de l'électricité de 1881 à

Paris. Elle apportait une solution simple et fiable

au problème essentiel de l'éclairage domestique.

Des lampes adaptées à chaque usage, qui peu-

vent fonctionner pendant plusieurs centaines

d'heures, que l'on allume ou que l'on éteint en

actionnant un simple commutateur, qui utilisent

des tensions relativement basses... que rêver de

mieux. La lampe à incandescence représentait

un tel progrès par rapport aux systèmes dont l'humanité avait

dû se contenter pendant des siècles, qu'il semblait inimagina-

ble que l'on pût un jour s'en passer. Par métonymie, le flux lu-

mineux était assimilé à la puissance électrique de l'ampoule

et une lampe de 100 W, dans les foyers d'après guerre, était

le synonyme de l'aisance et du confort.

Pendant plus de 100 ans, le monde reposa donc sur la

lampe à incandescence jusqu'au jour où l'on réalisa qu'elle

était vraiment trop dispendieuse en énergie, avec un rende-

ment lumineux qui, exprimé en % de la valeur maximale pos-

sible, n'excédait pas 2 %. Pendant plus de trois décennies,

les développements technologiques ont hésité sur la voie qui

pourrait un jour conduire à un éclairage de qualité beaucoup

plus économe en énergie. Les préoccupations de lutte contre

la dérive climatique sont venues stimuler cette recherche,

mais la solution tardait.

Les lampes à incandescence halogènes, inventées en

1959 chez General Electric, ont connu un immense succès

commercial. A leur arrivée sur le marché, elles symbolisaient

l'entrée dans le monde de la high tech mais, malgré l'amé-

lioration du rendement que permettait l'accroissement de la

température du filament, elles ne modifiaient pas fondamen-

talement la donne en termes d'efficacité lumineuse.

Puis sont venues les lampes fluorescentes, ou fluocom-

pactes, adaptation d'allure étrange des tubes industriels ou

tertiaires aux besoins de l'éclairage domestique. En première

analyse, cette technologie permet de réaliser des économies

d'électricité très substantielles, avec des effica-

cités lumineuses qui peuvent atteindre dans

les applications domestiques 65 lm/W contre

25 lm/W pour de bonnes lampes à incandes-

cence. Les pouvoirs publics ont pris appui sur

cette technologie pour encourager l'usage des

lampes à basse consommation afin de réduire

les consommations d'électricité liées à l'éclairage

qui représentent encore à peu près 14 % de la

consommation d'électricité totale des ménages.

Au niveau européen, le risque a été pris d'inter-

dire progressivement à partir de la mi-2009 la

commercialisation des lampes à incandescence et, depuis

le 1er septembre 2012, ce sont toutes les ampoules à incan-

descence qui sont concernées par l’interdiction de mise sur

le marché.

Mais les lampes fluorescentes n'ont jamais conquis l'amour

du public : disgracieuses, chères, à la lumière blafarde, dif-

ficilement « gradables », elles souffrent encore aujourd'hui

du syndrome congénital de la durée d'allumage qui fait que

lorsqu'on entre dans une pièce la lumière commence à avoir

atteint un niveau satisfaisant au moment où l'on en sort. Qui

plus est, beaucoup sont venus souligner les risques liés au

mercure que fait encourir un recyclage insuffisant des am-

poules usagées.

Dans ce contexte, l'émergence de l'éclairage par LED tient

un peu du miracle. Tout n'est pas encore parfait mais la LED

de puissance s'affirme comme un composant extraordinai-

rement efficace, avec un rendement lumineux pouvant dé-

passer 100 lm/W, une durée de vie très longue (25 000 h),

un allumage instantané, une « gradabilité » aisée, un réglage

d'ambiance possible grâce à des températures de couleur

s'étalant dans une plage étendue, etc.

Le lecteur prendra plaisir à découvrir la saga de l'éclairage

que résume très bien l'article sur « la révolution technologique

de l'éclairage » de Christophe Cachoncinlle et Georges Zissis.

Il pourra approfondir la compréhension du phénomène LED

et de son cousin OLED en lisant l'article sur les applications

des OLEDs de Marc Ternisien, David Buso, Georges Zissis et

L'éclairage : un remarquable saut technologique

Jean-Pierre HauetAssociate Partner KB IntelligenceMembre Emérite

de la SEE

30 ◗ REE N°4/2012

LES GRANDS DOSSIERS Introduction

Sounil Bhoslé. Enfin, les problèmes de santé publique sont

abordés dans le troisième article de ce dossier, rédigé par

Sébastien Point, sur l'impact sur l'environnement et la santé

des technologies nouvelles de l'éclairage.

Cette percée des technologies nouvelles appellent plu-

sieurs commentaires d'ordre général.

D'une part, elle montre qu'il ne faut jamais désespérer de

faire progresser un domaine même s'il est resté pendant de

nombreuses décennies dépendant d'une technologie qu'on

croyait installée pour l'éternité. Quand l'innovation survient,

qu'elle est validée sur le plan industriel, qu'elle rencontre la

faveur du public, l'explosion peut être vertigineuse. On l'a vu

avec les écrans plats. On le voit aujourd'hui

avec les techniques de l'éclairage. On le ver-

ra peut-être demain avec les batteries, les

véhicules électriques, les moyens de calcul

hyperpuissants et économes en énergie, les

transformateurs électroniques de grande

puissance, etc. Au-tant de raisons de croire

que le jeu industriel n'est jamais complète-

ment perdu et que des occasions peuvent

surgir qu'il faut savoir saisir.

Il faut d'autre part considérer que le suc-

cès des technologiques nouvelles de l'éclai-

rage est lié bien sûr à leurs performances

énergétiques mais aussi au fait qu'elles per-

mettent de réaliser un éclairage de qualité,

d'améliorer le confort, de concevoir des for-

mes totalement nouvelles de luminaires...

L'économie d'énergie est une notion froide

qui évoque l'abstinence et la pénurie. Elle

a infiniment plus de chances de s'imposer

si elle s'accompagne d'une amélioration du

service rendu. Le cas d'école des lampes

fluorescentes versus les LEDs et OLEDs en

est l'illustration patente. La leçon ne doit pas en être oubliée

lorsqu'on discute du véhicule électrique et de l'avenir de l'in-

dustrie automobile. Les véhicules tout électriques ou hybrides

auront du mal à s'imposer si leur seul attrait est l'économie

de pétrole, quelles que soient les aides publiques. Les expé-

riences du type Autolib, la mise sur le marché de véhicules

étranges du type Twizy, qui apportent de la commodité et du

« fun », sont autant de tentatives à encourager.

Enfin et ce n'est pas la moindre des choses, l'aventure de

l'éclairage vient battre en brèche les thèmes chers à certains

selon lesquels il serait temps de passer à un autre type de

croissance, à une croissance sobre assise sur de nouvelles va-

leurs... L'utilisation ménagère de nos ressour-

ces est à coup sûr un impératif et l'exemple

de l'éclairage montre qu'il est possible de

mieux utiliser l'énergie. Mais les technologies

nouvelles de l'éclairage ne constituent en

aucune façon un frein dans l'expression du

besoin. Elles sont simplement un moyen de

le satisfaire de façon plus efficace et avec un

service rendu meilleur. Elles viennent même

en soutien des comportements en nous

libérant de toute hésitation pour la fermeture

de l'éclairage en quittant une pièce, sachant

que l'on pourra sans délai et quasiment in-

définiment le rétablir lorsqu'on en aura de

nouveau besoin.

Energie, croissance et bien-être sont

indissociablement liés. L'énergie est néces-

saire à la croissance et le bien-être a besoin

de croissance et d'énergie. Le défi n'est

pas de renoncer à l'un ou l'autre mais de

concilier le tout dans une approche de dé-

veloppement durable. Les nouvelles tech-

nologies de l'éclairage sont là pour nous

conforter dans cette voie. ■

Jean-Pierre HAUET est ancien

élève de l’Ecole Polytechnique

et Ingénieur du corps des mines.

Il a occupé différentes positions

dans l’Administration, en particu-

lier celle de rapporteur général

de la Commission de l’Energie

du Plan. Il a dirigé le centre

de recherches de Marcoussis

d’Alcatel avant d’être nommé

directeur Produits et Techniques

de Cégélec puis Chief Technology

Officer d’ALSTOM. Depuis 2003,

il est Associate Partner de KB Intel-

ligence, spécialisé dans les ques-

tions d’énergie, d’automatismes

industriels et de développement

durable. Il préside l’ISA-France,

section française de l’ISA (Instru-

mentation, Systems & Automation

Society). Il est membre émérite

de la SEE et membre du comité

de publication de la REE.

La révolution technologique de l’éclairageChristophe Cachoncinlle, Georges Zissis ...................................................................................................................... p. 31Evolutions et perspectives de l’éclairage. Applications des OLEDsMarc Ternisien, David Buso, Georges Zissis et Sounil Bhoslé .............................................................................. p. 42Les technologies nouvelles de l’éclairage : leur impact sur l’environnement et la santéSebastien Point ........................................................................................................................................................................ p. 48

les articles

jphauet
Rectangle

REE N°4/2012 ◗ 31

L'écLairage

Christophe Cachoncinlle GREMI, UMR-7344 CNRS/Université d’Orléans Georges Zissis LAPLACE, UMR-5213, UPS-INPT-CNRS, Université de Toulouse

IntroductionPlus que dans une simple évolution technologique,

le monde de l’éclairage est engagé depuis quelques

années dans une véritable révolution. Depuis l’appa-

rition sur le marché au siècle dernier de la technolo-

gie à fluorescence, nos « tubes fluorescents » et leurs

miniaturisations en diverses lampes dites « lampes

fluorescentes compactes (LFC) », seule l’arrivée des

lampes à décharge à forte intensité avait bousculé un

peu le marché, au moins celui des lampes profession-

nelles. Aujourd’hui, les acteurs du secteur de l’éclaira-

ge sont confrontés à un bouleversement du marché,

drainé par une demande de plus en plus forte vers un

type d’éclairage « très tendance » : l’éclairage à LEDs.

Celui-ci est supposé peu énergivore, d’une flexibilité

inégalée et d’une qualité de lumière qui tiendrait du

magique au regard des commentaires de ses aficio-

nados (figure 1).

Mais, pour la communauté scientifique, qu’en est-il

exactement ? Quelles sont aujourd’hui les meilleures

solutions d’éclairage disponibles sur le marché ? Nous

allons présenter une revue de ces technologies et en

peser les avantages et les inconvénients. Bien sûr,

aucune technologie n’est une panacée, mais certaines

d’entre elles sont plus adaptées à certaines applica-

tions que telles autres. Nous allons d’abord présenter

la technologie d’émission de lumière à partir de l’état

solide de la matière : ce sont les LEDs (Light Emit-

ting Diodes en anglais) et les OLEDs (Organic Light

Emiting Diodes). Puis nous aborderons la très grande

famille des technologies basées sur l’état plasma de

la matière, c’est-à-dire les lampes fluorescentes, tubes

fluorescents et lampes fluorescentes compactes, ainsi

que les lampes à décharge beaucoup utilisées en

éclairage public. Enfin nous finirons par la technolo-

gie basée sur le rayonnement thermique, technologie

énergivore et donc en phase finale de bannissement

de nos rayons : les lampes à incandescence, ampou-

les classiques et ampoules halogènes.

L’obligation faite au travers de diverses réglementa-

tions [1] de satisfaire aux baisses de la consommation

d’énergie, impose au secteur du bâtiment de tirer le

meilleur parti des sciences et des techniques pour,

La révolution technologique de l’éclairage

We present here a review of the various technologies available on the market lighting where, in recent years, new products have been constantly emerging: LEDs and OLEDs complement the wide range of discharge lamps (fluorescent tubes, compact fluorescent lamps, high pressure sodium lamps, metal halide lamps ...). Can they really replace our old incandescent bulbs? We give the main selection criteria: flux, luminous efficacy, color rendering index, color temperature ..., and we examine objectively the advantages and disadvantages of each technology in this market. Are these new lamps better than the old ones? Do they actually consume less energy? Often the answer is “yes”. Anyway, the latest technologies are often the most economical in terms of energy. But one must know how to choose the right lamp for the right application.

abstract

Figure 1 : Lampes à LEDs de substitution pour l’éclairage domestique. Culot E27.

Source : Philipslighting. Wikipedia.

32 ◗ REE N°4/2012

L'écLairage La révolution technologique de l’éclairage

d’une part profiter au maximum de l’apport de la lumière du

jour, d’autre part choisir les appareillages les plus performants

en termes d’efficacité énergétique. En aucun cas la qualité de

l’éclairage, le niveau d’éclairement et le confort visuel ne doi-

vent être sacrifiés sur l’autel du Grenelle de l’environnement !

Venant du grand public, la sentence est sans appel : il est

à présent difficile de s’y retrouver dans le simple choix d’une

ampoule pour sa maison. Les technologies sont trop diver-

ses et les critères techniques peu clairs : expliquer que les

ambiances lumineuses les plus chaudes sont produites par

les températures les plus froides relève du paradoxe. Les pro-

fessionnels font leur maximum pour diffuser une information

simple sur des produits d’une technicité toujours plus avan-

cée. Mais le nombre de pictogrammes explose littéralement

sur les emballages.

Pour bien choisir, il faut se concentrer sur cinq principaux

critères : le flux lumineux, l’efficacité énergétique, la tempé-

rature de couleur, l’indice de rendu des couleurs et le type

de culot.

Le flux est exprimé en lumen (symbole lm). Il traduit la

puissance lumineuse de la lampe : de quelques lumens pour

une veilleuse de nuit à 100 000 lm pour une lampe de pro-

jecteur de stade ; typiquement ces flux vont de quelques

centaines de lumens, particularité des vielles ampoules à in-

candescence, à quelques milliers de lumens pour nos tubes

fluorescents d’intérieur. La quantité de lumière émise est le

critère de plus important à prendre en compte pour l’achat

d’une lampe1, car c’est elle qui nous assurera d’obtenir l’éclai-

rement voulu.

L’efficacité lumineuse est le rapport entre l’énergie con-

sommée par seconde et la quantité de lumière visible pro-

duite. Elle s’exprime en lumens par watt (symbole lm/W).

C’est un critère très important pour le choix. Les très vielles

ampoules à incandescence avaient des efficacités lumineu-

ses qui étaient de l’ordre de 12 lm/W : C’est presque 10 fois

plus énergivore que les bons tubes fluorescents actuels qui

peuvent atteindre 120 lm/W ! Les lampes trop énergivores,

comme les lampes à incandescence, ne peuvent plus être

mises sur le marché européen, un calendrier de retrait pro-

gressif est en cours d’exécution. Avec l’arrivée des LEDS, il

sera possible, dans l’avenir, de n’avoir que des sources lu-

mineuses de plus de 100 lm/W. Si le consommateur a bien

accès à la valeur du flux lumineux qui est porté obligatoire-

ment sur l’emballage, il est par contre privé du chiffre corres-

pondant à l’efficacité de sa lampe. Nos organismes (Directive

1 La génération des nos grands parents achetait des lampes en fonction du nombre des candelas (intensité), notre génération regarde plutôt la puissance en watt ; la nouvelle génération doit apprendre à regarder le flux en lumens.

européenne 98/11/CE) ont jugé plus clair de substituer une

lettre témoignant d’une classe d’efficacité énergétique (de

A à G) plutôt que la simple valeur d’efficacité en lm/W, cela

par souci d’homogénéité avec les appareils électriques. La

classe A représente les appareils les plus économes de leur

catégorie (cependant des classes A+ et A++ commencent à

apparaître sur le marché).

La température de couleur des sources de lumière est

certainement le plus ésotérique des critères. Ce chiffre, ex-

primé en kelvins (symbole K), nous renseigne sur le ton plus

ou moins bleuté ou orangé de la lumière blanche produite

par la lampe. En dessous de 3 500 K, la lumière blanche « tire

vers le jaune-orangé » on parle alors de lumière « chaude »,

car cela rappelle l’ambiance d’un bon feu de bois. Au dessus

de 5 000 K, la lumière blanche devient bleutée et on parle

de lumière « froide », elle rappelle la couleur des étendues

glacées. La machine humaine est programmée pour accepter

ces diverses variations de tonalités colorées pendant la jour-

née car la lumière naturelle du jour varie harmonieusement

du matin au soir, d’une lumière froide à une lumière chaude,

et règle le cycle circadien de notre horloge hormonale. Aussi

l’homme a appris au cours de l’évolution à mettre ses sens

en éveil au moindre reflet de la lumière froide et consent à se

laisser sombrer dans les bras de Morphée à la douce lumière

orangée du soir. Ne soyons pas étonnés que les éclairages

fonctionnels des bureaux et salles de classes soient quelque

peu froids et uniformes : c’est la lumière ad hoc pour met-

tre les gens au travail ! Par contre au domicile, on préfère

une ambiance plus reposante baignée de lumière chaude et

inhomogène (jeu d’ombres et de lumières). Il n’y a pas de

bonnes ou de mauvaises températures de couleur, tout est

question d’adéquation du choix de l’ambiance à créer avec la

vocation du local à éclairer.

Qualité souhaitéeValeur

minimale de l’IRC

Exemples d’applications industrielles

Excellent rendu des couleurs

IRC > 90Laboratoire, imprimerie, vente des fruits/légumes/fleurs...

Rendu des couleurs de bonne qualité

IRC > 80 Bureaux, magasin, atelier...

Rendu des couleurs médiocre

IRC > 60Industrie mécanique, et électrique.

Aucune exigence IRC < 60Fonderie, grosse mécanique, couloirs, parkings, éclairage de sécurité...

Tableau 1 : Indice de rendu des couleurs : Valeurs minimales recommandées.

Source initiale : Association française de l’éclairage.

jphauet
Rectangle

REE N°4/2012 ◗ 55

LES GRANDS DOSSIERSIntroduction

Depuis le milieu des années 1980, la physique atomique con-naît des développements spec-taculaires. Grâce à une meilleure connaissance et une maîtrise crois-sante des interactions entre les photons et les atomes, il est pos-sible de refroidir de petits nuages d’atomes à des températures de quelques milliardièmes de degrés seulement au-dessus du zéro ab-solu (– 273,15 °C) et de les piéger dans le vide. Ces méthodes ont fait l’objet du prix Nobel de physique de 1997 qui a récompensé Claude Cohen-Tannoudji, Steven Chu et Williams Phillips.

De ces travaux sur le refroidissement laser ont dé-coulé d’autres découvertes tout aussi spectaculaires, en particulier la mise en évidence expérimentale en 1995 de la condensation de Bose Einstein. Ce nouvel état de la matière aux propriétés exceptionnelles avait été prévu depuis les années 1920 par les lois de la physique sta-tistique. En 2001, Eric A. Cornell, Wolfgang Ketterle et Carl E. Wieman ont obtenu le prix Nobel pour cette dé-couverte.

En trente ans, ce domaine de la physique s’est consi-dérablement développé. En France, les recherches sur les atomes froids ont été initiées par l’équipe de Claude Cohen-Tannoudji du Laboratoire Kastler Brossel de l’École normale supérieure. Cette thématique s’est ensuite pro-gressivement développée en France, d’abord en région parisienne, puis dans le reste du pays, souvent par es-saimage de jeunes équipes à partir de la branche pari-sienne. La communauté des atomes implique maintenant plusieurs centaines de chercheurs en France et elle est très nombreuse dans tous les pays développés.

L’intérêt de toutes ces recherches n’est pas seulement de battre des records de froid mais de pouvoir contrôler et manipuler la matière pour l’amener dans des condi-tions expérimentales jusque-là inaccessibles. Les propriétés quantiques de la matière, telles que la dualité onde-corpus-cule ou la condensation de Bose-Einstein, ont enfin pu être directement étudiées dans les laboratoires de recher-

che. Leurs applications sont égale-ment très prometteuses et ce sont celles-ci surtout que nous voulons vous présenter dans ce dossier.

Le premier article expose les fondements du refroidissement atomique. Ce bref panorama expli-que comment les lasers peuvent ralentir et donc refroidir un nuage d’atomes. Cet article explique aussi les difficultés techniques du refroi-

dissement, notamment sur le système laser dont il faut pouvoir contrôler la longueur d’onde avec une précision relative de quelques milliardièmes.

Ces techniques sont maintenant de mieux en mieux maîtrisées et permettent d’envisager l’industrialisation d’instruments basés sur des atomes froids. Les auteurs du second article de ce dossier, Arnaud Landragin et Phi-lippe Bouyer ont fondé avec Bruno Desruelle la société µQuanS, qui commercialise des horloges et des gravimè-tres basés sur des atomes froids. Ils présentent dans leur article l’utilisation des atomes froids pour la réalisation de capteurs inertiels et leurs applications tant pour la naviga-tion dans l’espace que pour la géophysique et des tests de physique fondamentale.

Dans le troisième article, nous verrons enfin l’apport des atomes froids aux recherches sur la matière conden-sée. Ces recherches font usage d’atomes piégés dans des réseaux optiques qui sont utilisés comme modèles repré-sentatifs des matériaux solides. Des problèmes de mécani-que quantique parfois complexes auxquels les chercheurs sont confrontés en physique du solide (tels que la supra-conductivité haute température), peuvent maintenant être modélisés avec des atomes froids, systèmes sur lesquels les chercheurs ont une maîtrise beaucoup plus grande. Une telle approche va-t-elle aider à résoudre les problè-mes que se posent des ingénieurs électriciens ou électro-niciens ? Seul l’avenir nous le dira !

Post-scriptumA l’heure où nous bouclons ce dossier « atomes froids »,

nous apprenons que le prix Nobel 2012 de physique a été

Les atomes froids

Michèle LeducDirectrice de l'Institut

Francilien de Recherche sur les Atomes Froids

Présidente de la Société Française de Sociétés

Scientifiques

Pierre CladéCNRS,

Laboratoire Kastler Brossel

56 ◗ REE N°4/2012

LES GRANDS DOSSIERS Introduction

décerné conjointement à David Wineland et Serge Haro-che. David Wineland fut le premier, en 1978, à mettre en œuvre les techniques de re-froidissement laser en utilisant des ions, bien avant qu’elles ne soient utilisées sur des atomes neutres. Serge Haroche, cher-cheur au Laboratoire Kastler Brossel, est un spécialiste de l’interaction matière-rayonne-

ment. Au lieu de chercher à manipuler des atomes avec la lumière, comme pour le refroidissement laser, il manipule

des photons avec des atomes. C’est ainsi qu’il a pu étudier un par un des photons piégés dans une cavité. Pour cela, il en-voie dans la cavité des atomes de rubidium préparés avec les techniques de refroidissement laser. ■

Michèle Leduc. Docteur en sciences physiques,

Michèle Leduc a effectué presque toute sa carrière dans

le Laboratoire Kastler Brossel (LKB) de l’Ecole normale

supérieure, d’abord en étudiant les propriétés de l’hé-

lium, puis en abordant le domaine des fluides quanti-

ques polarisés à basse température. Depuis 1993, elle se

consacre au domaine des atomes ultrafroids d’hélium

4 métastable et est actuellement directrice de l’Institut

Francilien de Recherche sur les Atomes Froids (IFRAF).

Présidente de la Fédération Française de Sociétés Scien-

tifiques, Michèle Leduc est également constamment

engagée en faveur des femmes dans la recherche avec

l’association « Femmes et sciences » dont elle est mem-

bre fondateur.

Pierre Cladé. Ancien élève de l’École normale su-

périeure de Paris, Pierre Cladé a effectué sa thèse dans

l’équipe « Métrologie des systèmes simples et tests fon-

damentaux » du Laboratoire Kastler Brossel (LKB). Après

deux années de post-doctorat dans le groupe de W.D.

Phillips aux États-Unis, il a rejoint en 2007, en tant que

chargé de recherche au CNRS, l’équipe du LKB où il a

effectué sa thèse. Il poursuit depuis ses travaux sur la me-

sure de haute précision de la vitesse du recul d’un atome

et la détermination de la constante de structure fine.

Comment refroidir les atomes froids avec la lumière laser ? Principes et techniquesPar Saïda Guellati-Khelifa, Pierre Cladé ................................................................................................................................ p. 57Senseurs d’inertie à ondes de matières - Des appareils de précision pour la navigation, la géophysique et les tests spatiauxPar Philippe Bouyer, Arnaud Landragin ................................................................................................................................. p. 67Atomes froids et physique du solidePar Frédéric Chévy, Xavier Leyronas, Laurent Sanchez-Palencia ................................................................................... p. 71

les articles

jphauet
Rectangle

REE N°4/2012 ◗ 57

les atomes froids

Saïda Guellati-Khelifa (1,2) Pierre Cladé (1) (1) Laboratoire Kastler Brossel, Ecole normale supérieure, Université Pierre et Marie Curie (2) Conservatoire national des arts et métiers

Refroidir des atomes sans créer un solide

La physique atomique est née au XXe de l’étude

du spectre des gaz atomiques. C’est en observant

l’émission ou l’absorption de la lumière par un gaz que

l’on a compris la structure atomique et ensuite élaboré

les premières théories de la mécanique quantique. Le

fait que les atomes soient en phase gazeuse est impor-

tant car dans cet état ils sont quasiment isolés les uns

des autres et peuvent donc être compris individuelle-

ment. Cependant, dans un gaz, l’agitation thermique

pose problème. A température ambiante, la vitesse ty-

pique d’un atome peut atteindre 1 km/s. L’observation

d’un même atome est donc limitée dans la durée ce

qui limite la précision sur les mesures. De plus, il n’est

pas possible d’utiliser les techniques de cryogénie car à

faible température tous les corps sont en phase solide

ou liquide. C’est pour répondre à ce problème, ralentir

des atomes tout en les maintenant en phase gazeuse,

que sont nées les techniques de refroidissement laser.

Le refroidissement atomique a un intérêt au-delà

du simple ralentissement des atomes. En effet à très

faible température, il est possible d’observer la nature

ondulatoire de la matière. On peut le comprendre à

partir du principe d’Heisenberg qui nous dit qu’il n’est

pas possible qu’une particule ait une position et une

vitesse bien déterminées simultanément. Lorsque l’on

refroidit un gaz d’atome, la vitesse de chaque atome

tend vers zéro. L’atome ne peut alors plus être localisé

en un point et son extension spatiale (l’onde atomi-

que) augmente. Cette nature ondulatoire va pouvoir

s’observer lorsque la taille de l’onde sera de l’ordre du

micromètre (longueur d’onde lumineuse). L’atome se

comporte alors comme une onde : on peut par exem-

ple le diffracter ou faire des interférences. Un autre

phénomène étrange apparaît lorsque l’extension spa-

tiale des atomes devient beaucoup plus grande que

leur séparation : alors que le gaz est très dilué, que

les forces d’interaction entre atomes sont très faibles,

les interférences entre atomes vont modifier la nature

de la matière. On observe selon la nature des atomes

un condensat de Bose Einstein ou un gaz de Fermi

dégénéré.

Pour refroidir ces atomes, tout en les maintenant

dans une phase gazeuse, plusieurs techniques exis-

tent. Nous décrirons dans cet article le refroidisse-

ment laser et le refroidissement par évaporation. Ces

deux techniques permettent d’atteindre des tempéra-

tures de l’ordre du nanokelvin - température pour la-

quelle l’agitation thermique correspond à des vitesses

de l’ordre du mm/s. Ces températures sont atteintes

Comment refroidir les atomes froids avec la lumière laser ? Principes et techniques

This article is devoted to the description of various mechanisms of the laser cooling of neutral atoms. These mechanisms are all based on the interaction between a photon, an entity of light, and an atom, an entity of matter. One of the macroscopic manifestations of this interaction is the pressure of radiation force. The effect of this force is strongly amplified when the source of photon is a laser. We will describe how it is possible to use this force with the Doppler effect in order to slow an atomic beam and also to reduce considerably the thermal agitation of atoms. We will explain how by shaping the light potentials and magnetic fields it is possible to reach extremely low temperatures of some nanokelvin. At these temperatures, very near to the absolute zero, it is possible for certain kind of atoms, called bosons, to achieve a new state of matter, where quantum behaviour of atoms became apparent on a macroscopic scale.

abstRact

58 ◗ REE N°4/2012

les atomes froids Comment refroidir les atomes froids avec la lumière laser ? Principes et techniques

pour un nuage d’au plus un milliard d’atomes dans un vo-

lume d’environ 1 mm3, protégé par une enceinte à vide.

Interaction atome-rayonnementDu point de vue de la mécanique quantique, l’énergie in-

terne de l’atome est quantifiée. L’échelle des niveaux d’éner-

gie dépend de la structure de l’atome : c’est une sorte de

carte génétique propre à chaque atome. Considérons deux

niveaux d’énergie : le niveau fondamental f et le niveau ex-

cité e. La différence d’énergie entre les deux niveaux peut

être exprimée en termes de fréquence, appelée fréquence

de résonance de la transition atomique νa. Quand l’atome est

éclairé par un faisceau laser de fréquence ν, le photon laser

a d'autant plus de chance d'être absorbé par l'atome que la

fréquence laser est proche de la fréquence atomique νa . On

dit que le laser est quasi-résonant lorsque le désaccord en

fréquence δ = ν a – ν est très faible comparé aux fréquences

caractéristiques du système (atome, laser).

La durée de vie de l’atome dans le niveau excité est limi-

tée ; il se désexcite vers le niveau fondamental par émission

spontanée d’un photon (photon de fluorescence). Comme

pour un oscillateur classique, la largeur de la résonance, est

inversement proportionnelle au temps d’amortissement.

Pour les transitions atomiques, la largeur de résonance est

définie par la largeur naturelle du niveau excité que l’on note

Γ. La durée de vie de l’atome dans ce niveau est égale à Γ-1.

Par ailleurs, le photon, « particule élémentaire de la lumière »,

est doté d’une impulsion (voir l’encadré 1). Lorsqu’il absorbe

un photon, l’atome encaisse son impulsion et recule d’une

vitesse qu’on note désormais νr. De même, quand l’atome

émet un photon spontanément, il restitue l’impulsion acqui-

se. Il faut noter ici un point crucial pour la suite, la direction

du recul induit par l’absorption du photon est bien définie,

par la direction du vecteur d’onde. En revanche le recul dû à

l’émission spontanée est totalement aléatoire.

Les forces de la lumière : force de pression de radiation

La force exercée par la lumière sur les atomes est à l’ori-

gine de tous les mécanismes de manipulation d’atomes par

laser. L’idée que la lumière puisse exercer une action méca-

nique sur la matière est vieille de plus de trois siècles. L’intui-

tion de Johannes Kepler fut juste, lorsqu’il expliqua pourquoi

la queue des comètes est orientée à l’opposé du soleil, par

la pression de radiation exercée par la lumière solaire sur les

particules de poussière qui constituent la queue. A l’échelle

atomique, cette force de pression de radiation se manifeste

par un changement de vitesse occasionné par le transfert de

l’impulsion du photon à l’atome. Comme nous l’avons men-

tionné précédemment, lorsqu’un atome absorbe un photon,

il change de niveau d’énergie et il recule. La vitesse de recul

varie selon la nature de l’atome, elle vaut 6 mm/s pour un

atome de rubidium. A priori, ce changement de vitesse est

très faible comparé à la vitesse moyenne des atomes dans

un gaz à température ambiante, qui est d’environ quelques

centaines de mètres par seconde. Pour que l’action de la

lumière sur l’atome soit appréciable, il faudrait lui transmet-

tre beaucoup de reculs en le faisant interagir « longtemps »

avec des photons se propageant dans la même direction. De

ce point-clé découle le rôle fondamental du faisceau laser

dans la manipulation du mouvement des atomes. Dans un

faisceau laser les photons possèdent quasiment la même

énergie et la même impulsion, c’est pour cette raison que

l’action mécanique du laser sur les atomes est spectaculaire.

Figure 1 : Comparaison entre les différentes échelles de températures.

Encadré 1 : Le laser et son photon.

jphauet
Rectangle

REE N°4/2012 ◗ 81

retour sur ���������

Marc Leconte THALES SYSTEMES AEROPORTES

A l’occasion de l’attribution de la médaille Einstein à Alain Aspect

Le 12 mars dernier, on apprenait que la médaille

Albert Einstein avait été décernée à Alain Aspect. Ce

prix, attribué par la société Albert Einstein, basée à

Berne, valorise « des recherches exceptionnelles en

relation avec l’œuvre d'Albert Einstein ». Alain Aspect

est le deuxième français à se voir récompenser par ce

prix, le premier étant Thibault Damour qui l'a reçu en

1996 pour ses travaux sur la cosmogénèse et la rela-

tivité générale [9]. Cette médaille est ici décernée à

Alain Aspect « en reconnaissance de ses contributions

fondamentales à la physique quantique, en particu-

lier pour ses tests expérimentaux des inégalités de

Bell ». Menées au début des années 80, les expérien-

ces d'Alain Aspect ont permis de trancher un débat

datant de près de quatre-vingts ans, portant sur les

fondements philosophiques de la physique quanti-

que et opposant deux des plus grands physiciens du

vingtième siècle : Albert Einstein et Niels Bohr. Pour

bien comprendre les enjeux encore actuels de ce dé-

bat il faut revenir sur le développement de la physique

quantique.

Les pères fondateurs de la physique quantique Planck et Einstein

En 1900, Max Planck met au point une formule

qui s'appuie sur l'expérience pour le rayonnement

du corps noir, en utilisant la méthode de Boltzmann.

Cette formule pour la première fois rend compte cor-

rectement des données expérimentales, mais pour la

mettre au point il a fait l'hypothèse que l'énergie est

quantifiée en valeurs discrètes et a introduit une nou-

velle constante, h dite quantum d’action. Il ne croit

pas trop à cette quantification de l'énergie et la consi-

dère pour l'heure comme un artifice et les choses en

restent là. Quelques années plus tard, en 1905, un

autre physicien pas encore très célèbre, va reprendre

son hypothèse des quanta. En effet Albert Einstein,

dans l'un des cinq célèbres articles de l'année 1905

reprend l'hypothèse de Planck pour expliquer l'effet

photoélectrique et ses résultats.

Niels Bohr et la stabilité de l’atomeDans les années 1910, un autre problème préoc-

cupe les physiciens, il s'agit de la stabilité de l'atome

dont le seul modèle existant, l'atome de Rutherford,

décrit par les équations de la physique classique est

instable. A ce moment-là, l'atome etait considéré

comme un système solaire miniature constitué par

un noyau et des électrons en orbite. D'après les équa-

tions de la mécanique et les lois de l’électrodynami-

que de Lorentz, l’électron en orbite rayonne et perd de

l’énergie et doit donc inéluctablement s'écraser sur le

noyau. Le modèle est donc inadéquat. Niels Bohr pro-

pose en 1913 un nouveau modèle d'atome à partir du

modèle planétaire basé sur l'idée que les électrons ne

rayonnent pas s’ils ne changent pas d’orbites. L'élec-

tron peut changer d'orbite en absorbant ou émettant

une énergie multiple de la constante de Planck. Son

nouveau modèle d'atome permet d'expliquer pour la

première fois les spectres de raies de l'hydrogène, le

plus simple des corps jusqu'alors décrit de manière

empirique par la formule de Balmer.

La mécanique ondulatoireLa première tentative de concilier les aspects a

priori inconciliables entre l’onde classique et les par-

ticules, est celle formulée par Louis de Broglie dans

sa célèbre thèse de 1924. Elle a été lue et appréciée

par Einstein qui indique que « de Broglie a soulevé

un coin du grand voile ». Louis de Broglie propose

de généraliser à toutes les particules, la dualité onde

corpuscule mise en évidence pour la lumière notam-

Le paradoxe EPR

Figure 1 : Max Planck. Figure 2 : Albert Einstein.

82 ◗ REE N°4/2012

���������� retour sur

ment par Einstein. Il associe à chaque particule, une quantité

de mouvement et une fréquence. En 1926, Erwin Schrödin-

ger réussit à formuler une équation pour décrire cette onde

« corpusculaire ». Son équation devient vite l'une des équa-

tions fondamentales de la physique quantique. Elle permet

de comprendre le spectre de l'atome d'hydrogène et donne

d'importants résultats pour les autres atomes.

Vers l’indéterminisme : L’interprétation de Copenhague

Mais une théorie ondulatoire ne permet pas de tout expli-

quer, en particulier, lors de collisions entre particules, l'onde

de Schrödinger s'étale, alors que les particules prennent

des directions bien définies que l’on peut observer. Ces

constatations conduisirent les physiciens à abandonner la

voie purement ondulatoire. Max Born propose en 1926 une

nouvelle interprétation de l'onde de l'équation de Schrödin-

ger appelée dès lors fonction d'onde. Les collisions, et plus

généralement les processus quantiques, sont non déter-

ministes et la seule chose que l’on puisse préciser est un

ensemble de probabilités de résultats de mesure. Si plus

d'une particule est en jeu, l'onde devient un objet mathéma-

tique évoluant dans un espace de configuration. La fonction

d'onde n'est plus considérée comme une description phy-

sique du système mais comme un outil mathématique qui

fournit des probabilités de résultats possibles. La nouvelle

théorie est indéterministe, non objective et fixe des limites

de principe à la connaissance des objets microscopiques

et cela entraîne sur le plan conceptuel un changement de

paradigme par rapport à la physique classique. Au cours du

célèbre congrès de physique Solvay de 1927 à Bruxelles, la

nouvelle théorie des quanta est présentée et au cours des

discussions, Niels Bohr développe ce qui devient le principe

de correspondance qui affirme que les points de vue cor-

pusculaires et ondulatoires, a priori incompatibles, sont des

visions complémentaires de la réalité. Cette idée devient le

sujet de discussion majeur du congrès. L’aspect purement

conceptuel appelé l'interprétation de Copenhague (égale-

ment nommé orthodoxe), divise les pères fondateurs de la

physique quantique. Il est défendu par Bohr, Heisenberg,

Pauli et Dirac alors que Schrödinger, Einstein, Planck et De

Broglie s'y opposent.

Figure 3 : Photo du cinquième congrès Solvay de 1927. Tous les jeunes théoriciens de la nouvelle physique quantique sont là. Le conflit entre la vision d'Einstein et l'école de Copenhague va éclater.

jphauet
Rectangle

REE N°4/2012 ◗ 89

Ancien Directeur général des télécommunications

entretien avec Gérard Théry

REE : La REE a publié dans son nu-

méro de juillet 2012 un « Retour

sur… » consacré à la grande aventure

du téléphone pour tous telle que Marie

Carpenter l’a relatée dans un ouvrage

récent. On y voit que vous avez joué

un rôle primordial dans l’essor de no-

tre infrastructure téléphonique et de

notre industrie des télécom. Quel sou-

venir vous laisse cette époque ?

G. T. Le livre de Marie Carpenter relate

très exactement et très objectivement un

épisode de la décennie des années 70,

qui vit l’essor de l’infrastructure télépho-

nique française et de l’industrie des télé-

com. Le rôle que j’ai pu y jouer doit être

replacé dans le cadre d’une volonté poli-

tique forte de développement, donnant

une priorité à l’industrie, à l’innovation et

aux technologies nouvelles. Le redresse-

ment rapide du téléphone fut aussi le fait

d’ingénieurs de talent, et d’un personnel

des télécom puissamment motivé.

REE : Que s’est-il passé ensuite ?

G. T. Le contexte était à l’époque diffé-

rent de ce qu’il est aujourd’hui. Le rôle

des états y était important, la volonté de

développement industriel était très forte,

tandis que, du fait des premiers chocs

pétroliers, s’achevait la période bénie des

30 glorieuses. Le mot « industrie » était

un signe de ralliement pour de nom-

breux intervenants du monde public et

privé. Ajoutons que tous ces efforts trou-

vaient leur place dans un respect attentif

de l’équilibre des finances publiques.

Hélas, en France, une telle « pensée

industrielle » n’a pas survécu. Les gou-

vernements successifs ont oublié que

l’industrie, dans toutes ses déclinaisons,

grands acteurs, moyennes et petites en-

treprises, sans oublier l’artisanat, était le

moteur fondamental de croissance de

l’économie et d’équilibre de la balance

commerciale.

Une financiarisation excessive a fait le

reste. A-t-on voulu oublier que l’entrepri-

se n’est pas seulement un budget, une

représentation aplatie sur deux seules

dimensions, un commentaire contingent

d’analystes, mais un ensemble de talents,

un corps social, un code rassemblant les

hommes sur des buts communs. L’entre-

prise est le contraire d’un monstre froid.

Elle est le contraire d’une entité abstraite

manipulée par des régulateurs, des fonc-

tionnaires ou des parlementaires intem-

pestifs, accommodée à la sauce de lois

ou de décrets qui l’affaiblissent.

REE : Et le rôle de l’Europe ?

G. T. Dans le domaine des télécom et des

technologies de l’information, le rôle des

autorités européennes a été catastrophi-

que, même si on ne peut imputer au seul

Bruxelles la totale responsabilité de la si-

tuation. La réalisation du projet Galileo ne

saurait à elle seule sauver l’honneur en

contrepartie des matches perdus.

Le bilan est accablant en effet. L’Eu-

rope est bonne dernière en équipement

en fibre optique et en réseaux mobiles

de 4e génération. L’investissement dans

les nouveaux contenus multimédia gé-

nérés par des débits élevés et toute l’in-

novation indispensable pour sortir des

concepts traditionnels d’une télévision

de papa, est resté misérable. Le paie-

ment par mobile est embryonnaire. La

numérisation des bibliothèques et des

musées a été confiée à des acteurs non

européens, alors qu’elle aurait dû consti-

tuer une priorité culturelle. Les réseaux

de visiophonie végètent à des niveaux

de qualité digne du cinéma des Frères

Lumière.

En définitive, l’absence de vision est

flagrante. Les impératifs de développe-

ment, de même que l’établissement d’un

environnement propice, ont fait place à

une conception vétilleuse de la concur-

rence consistant à affaiblir les opérateurs

avec les conséquences négatives sur les

équipementiers et le paysage industriel

en général.

REE : Ce diagnostic de la politique

européenne n’est-il pas trop sévère ?

G. T. Un audit de l’action de Bruxelles

et de la situation actuelle, s’il était possi-

ble, permettrait d’être plus circonstancié.

Mais trois constats méritent d’être pris

plus précisément en compte.

Les principes qui ont servi de fon-

dement à la politique de concurrence

en Europe sont erronés. S’il est normal

qu’une concurrence bien comprise serve

les intérêts des consommateurs – rien

à redire à cela, les excès vont à l’encon-

tre de l’investissement, favorable lui, au

consommateur de demain, c’est-à-dire à

nos enfants. À certaines exceptions près,

l’état de sous-investissement est une des

caractéristiques de la situation de l’Eu-

rope aujourd’hui, particulièrement dans

les domaines de marchés émergents, où

le risque est plus élevé et la rentabilité

moins immédiate. Le retard en matière

de numérisation des processus de tous

ordres en est l’illustration. Les exemples

d’Apple, de Google et d’Amazon mon-

trent que le contexte nord-américain et

l’attitude des marchés étaient beaucoup

plus favorables à l’émergence de grou-

pes puissants.

Les gouvernements successifs ont oublié

que l’industrie, dans toutes ses déclinaisons,

sans oublier l’artisanat, était le moteur fondamental de croissance de l’économie

Dans le domaine des télécom

et des technologies de l’information,

le rôle des autorités européennes

a été catastrophique

90 ◗ REE N°4/2012

Le deuxième constat touche à la po-

litique d’encadrement commercial face

à la montée de la mondialisation. Les

négociateurs européens à l’OMC, de

même que face à la Chine, n’ont pas été

à la hauteur, sauf exception, des intérêts

stratégiques de l’industrie européenne.

Les États-Unis, état fédéral et acteurs

industriels, ont été plus vigilants et ont

su, globalement, mieux défendre leurs

intérêts. Il ne s’agit nullement d’entrer

dans une spirale protectionniste bien

entendu, mais de garder avec raison le

sens de nos intérêts. La menace actuelle

sur l’industrie européenne des cellules

solaires en est une bonne illustration.

Le troisième constat est celui de

l’euro fort. La politique monétaire, face

au dollar et au yuan notamment a en-

gendré une perte de compétitivité pour

l’ensemble des pays européens, l’Alle-

magne exceptée.

REE : Qu’en est-il aujourd’hui

des situations respectives

de l’Allemagne et de la France ?

G. T. Les situations de ces deux pays ne

sont pas les mêmes. Les évolutions ont

été différentes. En 1980, le déficit des

administrations publiques en France était

de 1,2 Md €, soit de 0,3 % du PIB. Il n’a

cessé de se creuser depuis pour attein-

dre en 2011 le niveau insupportable de

103 Md €, soir 5,2 % du PIB.

De son côté, après un affaiblissement

dû à la réunification de 1990, l’Allema-

gne a accepté une politique de rigueur

qui a porté ses fruits. Ses comptes sont

en équilibre.

Et pour ajouter à cette situation ca-

lamiteuse, le taux de valeur ajoutée de

l’industrie française rapporté au PNB est

tombé de plus de 30 % en 1980 à en-

viron 15 % (sous réserve de la précision

des statistiques), tandis qu’il restait de

l’ordre de 35 % en Allemagne.

« Voilà pourquoi votre fille est muet-

te » dirait Molière. La situation est incon-

testablement difficile à redresser en peu

de temps. Encore conviendrait-il, devant

le péril qui menace, de redresser la barre

immédiatement.

REE : Alors que faire ?

G. T. Il me semble d’abord qu’une po-

litique monétaire bien comprise devrait

être, tout en surveillant le niveau d’infla-

tion, de faire baisser l’euro par rapport

au dollar et au yuan, de façon à redon-

ner de l’oxygène à une majorité de pays

membres. L’Allemagne, dont une part

majoritaire des exportations se situe en

Europe, ne devrait pas en pâtir.

Il convient ensuite de redonner une

priorité absolue à l’investissement, en

évitant que la plus grande part de celui-

ci soit dédiée aux seuls travaux publics.

En France par exemple, le coût de l’é-

quipement en fibre optique eût été in-

férieur à celui de la multiplication des

ronds-points à l’anglaise, dont quelques

uns, grains successifs de dizainiers muni-

cipaux, se sont révélés superflus.

Dans quels domaines ? Je citerais la

numérisation de toutes les entités de

la vie courante où il faut investir massi-

vement. Nous entrons dans une ère où

le moindre processus est numérisable.

À court terme, aucune entité physique

ou industrielle, aucun diagnostic médi-

cal, aucun échange financier ou culturel,

aucune langue, aucune base de savoir

ou d’expertise, ne sera dissociable de

son double numérique.

Pour ce qui est de la France, il

convient de déployer massivement, sans

faux-semblants, les mesures propres à

favoriser la création et la profitabilité de

petites entreprises. On est encore loin

du compte. Il s’agit moins de subven-

tions que de mise en place d’un envi-

ronnement propice, notamment par une

priorité plus vigoureuse à l’apprentissage

dans les nombreux métiers où la de-

mande reste soutenue.

Last but not least, il est indispensable

de favoriser l’émergence de nouveaux

projets européens de grande ampleur,

associant les acteurs industriels et sans

perdre de temps en débats byzantins. Je

citerais la traduction automatique d’une

langue à l’autre, le développement de

la visiophonie, les réseaux nouveaux de

paiement… Il faut des normes commu-

nes à ces nouveaux réseaux comme le fut

en son temps la norme GSM. D’aucuns

continueront d’affirmer qu’il n’y a pas de

marché. Ils se trompent. Comme le plus

souvent en matière de nouvelles tech-

nologies, l’offre génère la demande.

REE : Ne négligez-vous pas le facteur

temps ?

G. T. Raison de plus pour ne pas at-

tendre. Certaines initiatives sont à effet

immédiat : une mise en valeur plus effi-

cace des know-how, des brevets ou des

produits de la recherche universitaire ou

des grandes écoles, etc.

D’autres ne porteront leurs fruits

qu’à échéance de 2 à 5 ans, le déploie-

ment de la fibre, l’investissement dans

La politique de la concurrence,

la politique d’encadrement commercial et la politique monétaire

ont eu des effets néfastes

Redonner une priorité absolue à l’investissement,

en évitant que la plus grande part

de celui-ci soit dédiée aux seuls travaux publics

Favoriser la création et la profitabilité

de petites entreprises… Favoriser également

l’émergence de nouveaux projets européens de grande ampleur

jphauet
Rectangle

REE N°4/2012 ◗ 99

A la différence des précédentes, cette

chronique ne trouve pas sa source

dans la lecture et la confrontation

d'ouvrages récents ; elle a été inspirée

par les excellents Libres propos de Lucien Des-

champs, dans le dernier numéro de REE : Pros-

pective et recherche : relever les défis du 21e

siècle.

Lucien Deschamps, après avoir rendu d'émi-

nents services à la SEE, dont il est d'ailleurs mem-

bre émérite, anime depuis 15 ans Prospective

21OO ; cette dynamique association de prospec-

tive a été créée et est actuellement présidée par

Thierry Gaudin, qui nous donne dans ce numéro

de roboratives considérations sur Les réseaux au

secours de l'écosystème.

On ne contestera pas à Lucien Deschamps le

droit de recenser les besoins essentiels de l'hu-

manité et les défis associés. L'urbanisation crois-

sante et les prévisions démographiques imposent

aussi de repenser la ville et l'aménagement du

territoire. Mais quand il évoque la mer et l'espace

comme lieux et sources du développement futur,

il est tentant de parler d'utopie... Certes l'utopie

d'aujourd'hui est la prospective de demain et,

peut-être, la réalité d'un futur lointain, mais entre

l'imaginaire, fût-il intellectuellement cohérent, le

possible et le réel il existe bien des différences,

qu'illustre par exemple la confrontation des œu-

vres de Jules Verne avec l'histoire des techniques

depuis un siècle. Pouvons-nous aussi évoquer ici

la fameuse réduction du paquet d'onde : de tous

les possibles, un seul sort de l'expérience !

La prospective s'assigne pour objectif d'ana-

lyser les réponses possibles, souhaitables même,

aux défis de l'époque et les scientifiques devraient

plus réfléchir à ces aspects qu'aux risques, réels

ou fantasmés, de leur activité : même si l'analyse

des inconvénients et des dangers est incluse dans

la prospective, celle-ci ne peut s'arrêter au « prin-

cipe de précaution » ! Parmi les futurs possibles, il

est nécessaire d'analyser les contraintes, voire les

contradictions, qui surgissent dans une réalité com-

plexe où s'entrecroisent des forces et des objectifs

variés ; la prospective assume là une fonction es-

sentielle, celle d'éclairer l'action publique par l'ex-

pertise et le rappel des enjeux car rien de cohérent

ne peut émerger dans notre village planétaire sans

un éclairage à la fois global et critique.

Mais cet exercice souhaitable et périlleux

bute structurellement sur une double sous-esti-

mation : celle des contraintes matérielles, physi-

ques ou financières, et celle du hasard ; les libres

propos de Lucien Deschamps n'y échappent pas

complètement. Ainsi, quand il évoque les cités du

futur ou bien l'exploitation des océans, n'oublie-

t-il pas quelque peu la nécessaire économie des

ressources, ou ce qui revient au même le coût

prohibitif de réalisation. Même à l'heure des

prouesses architecturales et des cités marines, il

serait excessif d'y voir un modèle pour résoudre

la question du logement à l'échelle planétaire : il y

a là une forme d'utopie, même si des réalisations

concrètes existent déjà : Versailles, c'était pour le

Roi, pas pour ses sujets !

De même l'exploitation des ressources spa-

tiales butera encore longtemps, si ce n'est éter-

nellement, sur les contraintes énergétiques et la

pesanteur terrestre : il n'est pas as-suré que notre

siècle verra de gigantesques centrales photovol-

taïques dans l'espace, ni que les suivants permet-

tront d'aller chercher des minéraux précieux sur

les astéroïdes... Le voyage sur Mars sera déjà une

extraordinaire aventure.

En plus de telles contraintes matérielles, il fau-

drait aussi mieux prendre en compte – mais com-

ment ? – les incertitudes, celles liées à la nature

et aux formes des progrès scientifique et tech-

nique, et celles associées aux usages qu'en font

les sociétés. Ainsi Carnot (1796-1832) et Ampère

(1775-1836) sont-ils contemporains, mais c'est le

plus jeune qui symbolise, avec la théorisation de

la puissance motrice du feu, l'essor de la ma-

chine à vapeur qui précédera le moteur électrique

de quelques décennies Par contre au début du

20e siècle la voiture électrique fut à deux doigts

de supplanter celle que nous connaissons encore,

avec son moteur à explosion.

Il semble bien que la prospective peine dans

le domaine des TIC : le téléphone a dû attendre

dans notre pays une vigoureuse politique de rat-

trapage et, un quart de siècle plus tard, le portable

a plus contribué à la modernisation du continent

africain en dix ans que le fixe en un siècle. La diffu-

sion des écrans plats ne pouvait se faire qu'après

la mise au point de la couleur, longtemps délicate,

parce que le public de la télévision ne risquait pas

revenir au noir et blanc, fût-ce au nom du pro-

grès technique ! La visiophonie, bel exemple de

prospective technologique et bel échec industriel,

se retrouve alors être une retombée à peine vo-

lontaire du très bas coût des caméras désormais

intégrées dans tous les écrans.

Plus près de nous et malgré la stimulation de

la science-fiction, la prospective n'avait guère en-

visagé le prodigieux développement du microor-

dinateur, désormais produit annuellement à plus

de 400 millions d'exemplaires, et de ses usages :

la prospective a été éclipsée par la loi de Moore et

elle peine à dire ce qui se passera en matière de

composants électroniques quand ceux-ci attein-

dront leurs limites physiques.

Pour évoquer des problèmes d'actualité, la

place relative du gaz de schiste et des hydrocar-

bures va sans doute autant dépendre des progrès

technologiques que des décisions politiques, fus-

sent-elles éclairées par l'effort de prospective ! Il

en est de même de l'essor, réclamé par les uns,

ou du déclin, exigé par les autres, de l'énergie

nucléaire.

Et puis il y a les imprévisibles évolutions de

la société elle-même, qu'évoque si souvent Edgar

Morin : ce qui est probable, c’est que l’improbable

va sans doute se produire et provoquer ainsi des

bifurcations, analogues à celles se produisant lors

des transitions de phase.

Le présent numéro de REE en porte d'ailleurs

témoignage à sa façon des incertitudes tant

techniques que sociétales qui limitent la pros-

pective : personne n'envisageait, il y a cinquante

ans, lors de la découverte des lasers à semi-con-

ducteurs leur prodigieux développement, puis

la révolution de l'éclairage grâce à des diodes

électroluminescentes. Par contre aujourd'hui, les

scientifiques croient fermement à la naissance

de l'ordinateur quantique sans pouvoir fixer la

durée de sa gestation !

On s’autorisera ici en guise de conclusion une

double prospective :

• le monde quantique va continuer de nous éton-

ner, de nous intriguer et de modifier, par ses re-

tombées applicatives, nos modes de vie ;

• comme l'ont finement observé d'éminents pros-

pectivistes (Léon Gambetta puis Pierre Dac) :

les prévisions sont risquées, surtout quand elles

concernent l'avenir ! ■

B. Ay.

CHRONIQUE

Prospective & utopie« Je m’intéresse à l’avenir car c’est là que j’ai décidé de passer le restant de mes jours »

Woody Allen

REE N°4/2012 ◗ 101

libREs PROPOS

Thierry Gaudin Président de Prospective 21oo

Le 28 mars 2012, le journal « Le Monde », re-

late le cri d’alarme lancé au cours d’une journée

d’audition publique au Sénat, par deux séna-

teurs de bords opposés, Pierre Laffitte (UMP,

Alpes-Maritimes) et Claude Saunier (PS, Côtes-d’Armor) :

« La prise de conscience des autorités et de la société

a eu lieu sur les risques liés au changement climatique,

mais pas sur les conséquences de l’effondrement de la

biodiversité », estime M. Saunier. Le choc à prévoir est

pourtant au moins aussi important.

« La biodiversité des écosystèmes, support du déve-

loppement de l’humanité, est en voie de dégradation

accentuée », mettent en garde les deux élus, dans un

rapport d’étape. « La vie dispose d’une extraordinaire ca-

pacité d’adaptation, pourvu qu’elle en ait le temps », a

rappelé M. Saunier.

Or la disparition des espèces a au-

jourd’hui lieu à un rythme dix à cent fois

supérieur à la normale, et, d’ici à 2050,

il pourrait devenir de cent à mille fois su-

périeur. « Quand on évoque le sort des

papillons, des oiseaux ou des microbes,

les citoyens ne s’y retrouvent pas », dit

Robert Barbault, directeur du départe-

ment d’écologie au Muséum national

d’histoire naturelle. Mieux vaut parler de la biodiversité

comme du tissu vivant de la planète. Ce sont des mil-

liards d’espèces, dont les hommes, qui ont une multi-

tude d’interactions entre elles. Quand une maille saute,

une deuxième lâche puis une troisième, et le tissu se

désorganise.

« L’espèce humaine ne vit pas hors sol », rappelle

Dominique Dron, professeure à l’école des Mines et com-

missaire interministérielle au développement durable. « Si

les écosystèmes ne sont pas assez robustes pour encais-

ser le choc climatique, nous ne le serons pas non plus ».

Les causes de l’effondrement sont connues : surexploi-

tation des ressources halieutiques, pollution des eaux

douces, déforestation pour l’exploitation commerciale

du bois ou agricole, méthodes de culture intensives,

urbanisation... Sans oublier la « pollution biologique »

causée par le transport d’espèces exotiques dans de

nouvelles zones et l’impact du changement climatique.

Cette situation impose des initiatives « d’une autre

ampleur que celles menées actuellement », selon les

élus. La France a, sur ce point, « une responsabilité parti-

culière », du fait de sa place dans les organisations inter-

nationales et de sa présence dans les zones tropicales,

très menacées. La création de réserves naturelles, si elle

est indispensable, n’est pas une réponse suffisante, se-

lon les scientifiques : isolées, ces zones sont condam-

nées. Pour eux, toutes les activités humaines devraient

prendre en compte la nécessité de protéger le vivant.

D’autre part1, en se basant sur des théories scientifi-

ques, des modélisations d’écosystèmes et des preuves

paléontologiques, une équipe de 18 chercheurs, in-

cluant un professeur de la Simon Fraser University (SFU,

Vancouver), prédit que les écosystèmes terriens vont

faire face à un effondrement imminent et irréversible.

Dans un article récemment publié dans Nature, les

auteurs examinent l’accélération de la perte de biodiver-

sité, les fluctuations climatiques de plus en plus extrê-

mes, l’interconnexion grandissante des

écosystèmes et le changement radical

dans le bilan énergétique global. Ils sug-

gèrent que tous ces éléments consti-

tuent des précurseurs à l’apparition d’un

état planétaire de seuil ou encore d’un

point de basculement. Si cela s’avérait

exact, ce que les auteurs prédisent pour

le siècle en cours, les écosystèmes de

la planète, en l’état des connaissances actuelles, pour-

raient rapidement et irréversiblement s’effondrer.

Ces alertes nouvelles, qui viennent compléter celles

du changement climatique, rappellent irrésistiblement

les livres d’un auteur devenu incontournable en pros-

pective, Jared Diamond. Dans son ouvrage intitulé pré-

cisément « effondrements », il décrit de nombreux cas

de civilisations qui se sont effondrées dans le passé :

l’île de Pâques, les Vikings au Groenland et aussi quel-

ques cas de civilisations qui auraient dû s’effondrer, mais

qui ont échappé à ce destin, notamment le Japon des

Tokugawa, au prix d’une discipline de fer imposant à la

population de protéger et sauvegarder la nature.

Ces éléments, même s’ils ne contiennent aucune

certitude quant à la date et aux modalités, nous condui-

sent irrésistiblement vers la philosophie de Jean-Pierre

1 Source Médiaterre, Organisation internationale de la francophonie.

Les réseaux au secours

de l’écosystème

102 ◗ REE N°4/2012

libREs PROPOS

Dupuy, celle du catastrophisme éclairé. Il faut préciser

ici que, faute de disposer d’un vocabulaire adéquat,

l’idée de Dupuy est souvent mal interprétée. On croit

instinctivement que le mot « catastrophisme » signifie

que l’auteur souhaite la catastrophe, alors que c’est tout

le contraire : il veut convaincre de penser la catastrophe

pour être mieux en mesure de l’éviter.

Or, notre civilisation actuelle focalise son attention

sur les productions et les endettements. Elle croit, ou fait

semblant de croire, que le développement économique

est à la fois le but et le remède. Ce discours, soutenu

par un appareil de persuasion d’une puissance jamais

atteinte, les médias, est celui des marchands dont le but

est le même depuis l’antiquité mésopotamienne : ac-

croître leur chiffre d’affaires et leurs résultats financiers.

Il n’y a rien de surprenant à ce que la caste des mar-

chands tienne ce discours. Le problème est qu’il n’y en a

quasiment pas d’autre, sauf celui des scientifiques, alors

que les risques globaux, causés par les excès d’exploita-

tion, s’accroissent. Et nous sommes dans une civilisation

où la Science est au service du développement de l’ac-

tivité marchande, alors qu’elle devrait au contraire servir,

par ses mesures et ses prévisions, de contrepoids à ses

excès.

Toutefois, le siècle qui a commencé connaît une mu-

tation technique porteuse d’un certain espoir : la mise

en réseau du monde, dont les lecteurs de la REE sont,

pour la plupart, des opérateurs.

Cette mise en réseau est double :

• L’énergie, avec l’internationalisation et la densification

du réseau électrique, qui devient progressivement par-

tout le principal porteur de l’alimentation énergétique.

Du coté des usages, l’électrification ferroviaire fut une

grande affaire de l’après guerre. On voit maintenant

s’installer l’électrification des véhicules individuels,

qu’ils soient ou non hybrides, du chauffage aussi avec

les pompes à chaleur. Et l’interconnexion du réseau

avec d’autres pays, réalisée en Europe, se construit au-

delà de la méditerranée et se négocie avec la Russie.

La construction d’une électrification mondiale maillée

est donc en cours.

• L’information, avec les satellites, le câblage en fibre

optique, le GSM, le Wi-Fi et le WiMAX s’ajoutant au

traditionnel réseau télécom en fils de cuivre. Internet,

le courriel touchent déjà un tiers de la population mon-

diale et en touchera vraisemblablement les deux tiers

dans une quinzaine d’années. Cette mise en réseau

est de nature à transformer complètement la manière

dont les opinions se forment et dont les comporte-

ments de consommation se construisent.

C’est pourquoi je qualifie ces réseaux de porteurs

d’espoir. Je suis de ceux qui croient que l’apparition sur

nos écrans de la photo du globe terrestre vu de l’espace

a fait évoluer les mentalités. Sans doute, une enquête

d’opinion verrait-elle le public, toujours un peu grognon,

répondre que, pour lui, rien n’a changé, que la vie quo-

tidienne est toujours aussi difficile, voire que cet argent

jeté en l’air aurait été mieux employé à résoudre les pro-

blèmes terrestres.

Et ce même public trouve son chemin avec son GPS,

sans savoir qu’il s’agit d’une triangulation entre satellites,

nécessitant des horloges d’une précision extrême. Il re-

garde les animations de Météosat et reçoit des nouvel-

les par satellite de l’autre coté de la planète répercutant

mondialement aussi bien les accidents que les exploits

sportifs. L’usage de l’espace et des réseaux mondiali-

sés est devenu quotidien sans même qu’il s’en rende

compte.

Insensiblement, nous sommes entrés dans un nou-

veau monde, où la conscience fonctionne autrement.

Les lecteurs de la REE se trouvent, sans l’avoir cherché,

avoir à construire et gérer l’infrastructure de ce boule-

versement.

Bouleversement ? Ne s’agit-t-il pas seulement du

prolongement des tendances passées, d’une évolution

peut-être un peu erratique mais certainement pas bou-

leversante, de la société que nous connaissons ? Je ne

le crois pas, et pour situer l’ampleur de ce qui s’annonce,

je vais me référer à l’histoire de l’écriture, base de ce que

nous appelons civilisation2.

L’écriture apparaît vers -3200. À cette époque, le

cheval est domestiqué et le chameau le sera bientôt.

Un mouvement d’urbanisation commence en Méso-

potamie. L’interprétation de ces signes est assez claire,

lorsqu’on sait, comme l’a remarqué Jean Bottéro, que

plus des trois quarts des tablettes mésopotamiennes

sont des « papiers d’affaire » : des contrats, des actes

de propriété, de la comptabilité… C’est une civilisation

qui, partie du village rural autonome, se lance dans le

commerce : les villes sont des places de marché, les

2 en m’inspirant du livre de Clarisse Herrenschmidt, Les trois écritures.

jphauet
Rectangle
jphauet
Texte tapé à la machine
Vous voulez vous abonner à la REE ? Suivez le lien Acheter un numéro ? Tel : 01 56 90 37 04