aperçu du numéro 2013-3 de la ree (juillet 2013)

28
L'ARTICLE INVITÉ Numéro 2013 EDITORIAL L'Enseignement Supérieur et la Recherche en Île de France-Sud : quand le roman devient réalité Par Alain Bravo ENTRETIEN AVEC Franck Goldnadel Directeur de l'aéroport Paris-Charles de Gaulle www.see.asso.fr 3 ISSN 1265-6534 DOSSIER Wake vortex detection, prediction and decision support tools New challenge for airports to increase capacity and safety Par Frédéric Barbaresco

Upload: jean-pierre-hauet

Post on 10-Mar-2016

219 views

Category:

Documents


2 download

DESCRIPTION

Cet aperçu permet de découvrir le sommaire et les principaux articles du numéro REE 2013-3 publié en juillet 2013 - Pour s'abonner, merci de vous rendre à la dernière page.

TRANSCRIPT

Page 1: Aperçu du numéro 2013-3  de la REE (juillet 2013)

L'ARTICLE INVITÉ

ÉNERGIE TELECOMMUNICATIONS SIGNAL COMPOSANTS AUTOMATIQUE INFORMATIQUE

Num

éro

2

013 EDITORIAL

L'Enseignement Supérieur et la Recherche en Île de France-Sud :

quand le roman devient réalité Par Alain Bravo

ENTRETIEN AVEC Franck Goldnadel

Directeur de l'aéroport Paris-Charles de Gaulle

www.see.asso.fr

3

ISSN

126

5-65

34

DOSSIER

Wake vortex detection, prediction and decision support toolsNew challenge for airports to increase capacity and safetyPar Frédéric Barbaresco

jphauet
Zone de texte
Cette aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro 2013-3 de la revue, publié en juillet 2013. Pour acheter le numéro ou s'abonner, se rendre à la dernière page.
Page 2: Aperçu du numéro 2013-3  de la REE (juillet 2013)

REE N°3/2013 Z 1

V ouloir décrire la restructuration de l’enseignement supérieur et de la recherche (ESR) en Île de France-Sud, c’est vouloir écrire un roman virtuel.

Un roman qui raconterait une histoire commencée dans les an-nées 1950 avec l’ouverture du centre CEA de Saclay et la créa-tion de l’Université Paris Sud avec ses unités d’Orsay, suivie par le déménagement d’HEC (CCIP) à Jouy en Josas et celui de l’Ins-titut d’Optique à Gif sur Yvette à fin la fin des années 60, puis par ceux de l’X à Palaiseau et de Supélec à Gif sur Yvette au milieu des années 70 et plus récemment en 2012 celui de l’ENSTA.

Ce serait ensuite explorer un espace géographique en expan-sion permanente avec un centre de gravité sur le triangle Saclay- Moulon-Palaiseau, des domaines frontières aux points cardinaux que forment l’UVSQ à Versailles, l’INRA à Jouy, l’UEVE à Evry, et des emprises centripètes attirées par le triangle pour ECP (2017), ENS Cachan et Telecom ParisTech (2018) sans omettre le déménagement d’UPSud Pharmacie de Sceaux avant 2020.

Apparaitraît ainsi très vite que le suspense de cette restructura-tion est le double défi – toujours à relever en 2013 – de la mise à niveau des infrastructures territoriales et de l’aménagement des transports. En effet il faut accéder aux zones géographiques qui composent son territoire, que ce soit de Paris, de la Province ou de l’international, et pouvoir circuler entre les zones. Le rapport d’André Blanc-Lapierre l’avait souligné en 1977 et c’est désormais prévu pour 2023 au titre des opérations du schéma de transport régional en Ile de France annoncées par le Premier Ministre.

Le scénario du roman raconterait une transformation sans relâche depuis la loi d’orientation et de programmation de la recherche de 2006. A l’échelle nationale, cette transformation a commencé avec des réseaux thématiques de recherche avancée RTRA, des pôles de recherche et d’enseignement supérieur PRES, des insti-tuts CARNOT transposés du modèle allemand FRAUNHOFER et des pôles de compétitivité. Cette impulsion s’est poursuivie via le plan Campus de 2009, puis le programme des investissements d’avenir de 2011-2012.

Pour l’ESR Île de France-Sud, cette transformation s’est traduite par la création de la Fondation de coopération scientifique FCS

Digiteo-Triangle de la Physique en 2008 avec neuf fondateurs, par la labellisation de cinq Instituts CARNOT et par la présence de deux PRES – UniverSud et ParisTech. En fait la FCS Digiteo-Triangle de la Physique a su porter le plan Campus avec un consortium associé de 21 membres, puis a intégré ce consor-tium pour passer à une FCS Paris-Saclay avec 21 fondateurs dont le projet a été sélectionné en 2012 au titre des initiatives d’excellence IDEX. La FCS Paris-Saclay va désormais vers l’EPSCP Université Paris-Saclay, en parfaite cohérence avec la politique de regroupement affirmé par la loi ESR en cours de promulgation.

Le roman décrirait un potentiel exceptionnel d’enseignement supérieur avec les deux universités figurant au classement de Shanghaï, l’école de management classée au top européen de sa catégorie et avec en son sein cinq des dix écoles d’ingénieurs du groupe A+. Un autre chapitre illustrerait la puissance de re-cherche déjà remarquée en 1999 par le rapport de Jean-Jacques Duby sur l’Institut de Saclay, et visant à représenter à terme 20 % du potentiel national.

En fait l’énigme du roman porterait sur la capacité de l’ESR Île de France-Sud à réussir la maturation et la valorisation de sa recherche pour devenir un lieu d’innovation technolo-gique et de création d’entreprises. Et, sans conclure, il faudrait mentionner que dès sa création la FCS a conduit une démarche Campus-Cluster préfigurée par le rapport Olivier de 2003-2004, déjà présidé par Dominique Vernay qui est devenu en 2005 pré-sident du pôle de compétitivité Systematic, puis en 2011 pré-sident de la FCS Paris-Saclay.

Au final, la quatrième de couverture soulignerait que la restruc-turation de l’ESR Île de France-Sud est une opération à 5 Md F, à soutenir par une ambition politique constante, mettant en scène de nombreux acteurs assumant une responsabilité ma-jeure vis à vis de la nation.

Alain Bravo Directeur général – Supélec

Délégué général – Académie des technologies Ancien Président de la SEE – 2006-2009

L'Enseignement Supérieur et la Recherche en Île de France-Sud :

quand le roman devient réalité

EDITORIAL ALAIN BRAVO

Page 3: Aperçu du numéro 2013-3  de la REE (juillet 2013)

2 Z�REE N°3/2013

sommaireNuméro 3 2013

1 EDITORIAL L'Enseignement Supérieur et la Recherche en Île de France-Sud :

quand le roman devient réalité Par Alain Bravo

2 SOMMAIRE

4 FLASH INFOS Intrication électron-photon : un nouveau pas vers l’ordinateur

quantique 6 Identification d’objet par imagerie fantôme utilisant le moment

orbital angulaire 7 Progrès dans la distribution des clés cryptographiques quantiques8 L’impression 3D10 Du nouveau sur la pile à combustible rechargeable11 Batteries : le lithium-ion en voie d’être surpassé par le lithium-

soufre solide ?

12 VIENT DE PARAÎTRE La REE vous recommande

14 A RETENIR Congrès et manifestations

15 ARTICLE INVITÉ Wake vortex detection, prediction & decision support tools.

New challenge for airports to increase capacity & safety Par Frédéric Barbaresco avec la participation

de Philippe Juge, Jean-François Moneuse, Mathieu Klein, Erwan Lavergne, David Canal, Yves Ricci & Jean-Yves Schneider

25 LES GRANDS DOSSIERS Le stockage de l’électricité Introduction : Le stockage de l’électricité.

La problématique des énergies alternatives Par Jean-Pierre Hauet

30 Le stockage de l’énergie électrique Par Henri Boyé

42 Le stockage, un enjeu pour l’intégration des énergies renouvelables Par Olivier Grabette

48 Le stockage des énergies intermittentes. De l’autoconsommation à la grande centrale photovoltaïque

Par Nicolas Martin, Marion Perrin

p. 1

p. 25

p. 69

p. 15 p. 89 p. 102

Credit photo couverture : © cocoll - Fotolia.com

Page 4: Aperçu du numéro 2013-3  de la REE (juillet 2013)

REE N°3/2013 Z 3

56 Stocker l’électricité en pompant des gaz. Une introduction aux procédés thermodynamiques de stockage

Par Jacques Ruer

63 Stockage d’énergie : une solution dont l’intérêt augmente pour les systèmes électriques

Par Bernard Delpech

69 Le stockage de l’électricité dans les systèmes insulaires Par Bernard Mahiou

77 Lithium-ion : état de l’art Par Romain Tessard, Marion Perrin

84 RETOUR SUR ... Compréhension et maîtrise des tourbillons de sillage.

Cinq siècles d’aventures de Léonard de Vinci à Jean Leray Par Frédéric Barbaresco

89 ENTRETIEN AVEC... Franck Goldnadel Directeur de l’aéroport Paris-Charles de Gaulle

93 ENSEIGNEMENT & RECHERCHE INSA : six écoles, un groupe ! Un modèle de grande école

d’ingénieurs, fondé sur des valeurs d’ouverture et de diversité Par Didier Marquis Echos de l’enseignement supérieur Par Bernard Ayrault

101 CHRONIQUE Prospective numérique : utopies ou fatalités ? Par Bernard Ayrault

102 LIBRES PROPOS Introduction : La transition énergétique :

la REE ouvre ses colonnes… Par le Comité de rédaction de la REE

Timide intimidation aux Européens à accepter, moyennant un loyer modeste, un purgatoire énergétique

Par Pierre Delaporte

Transition énergétique : quelle est la question ? Par Jacques Maire

108 SEE EN DIRECT La vie de l'association

www.see.asso.fr

GSI 2013Geometric Sciences of Information

28-30 August 2013Paris (France)

Registration: [email protected]

Web site: http://www.gsi2013.org/

Organized by:

Page 5: Aperçu du numéro 2013-3  de la REE (juillet 2013)

4 Z�REE N°3/2013

FLASHINFOS

Intrication électron-photon : un nou-veau pas vers l’ordinateur quantique

La physique quantique, depuis près de 80 ans, n’a cessé d’être une source d’innovations technologiques qui ont peu à peu envahi de nombreux domaines pro-fessionnels et grand public comme le transistor ou plus récemment le laser. Dans les années 1980, les expé-riences d’Alain Aspect ont permis d’observer le phé-nomène de l’intrication de deux photons, théorisé par E. Schrödinger en 1935, qui n’a plus dès lors été consi-déré comme un phénomène purement théorique et paradoxal1 n’ayant pas d’existence réelle. Aujourd’hui, de nombreuses expériences de laboratoire confinent des atomes, des électrons ou des photons dans des états dit intriqués. Cette propriété typiquement quan-tique est au cœur d’un grand nombre d’expériences de laboratoire qui tentent d’observer le comportement de particules de manière individuelle. Tel est le cas des travaux ayant valu un double prix Nobel de phy-sique attribué d’une part à Serge Haroche pour ses expériences sur des photons confinés et d’autre part à David Wineland pour avoir confiné des ions2. Au-delà de l’intérêt théorique de ces travaux, le comité Nobel avait souligné que les recherches des deux lauréats intéressaient deux domaines d’application très intéres-sants et très novateurs, la cryptographie quantique et l’ordinateur quantique.

L’unité d’’information élémentaire dans un ordinateur quantique est le qubit. Considérons un système formé de deux qubits, par exemple constitué de deux particules dont les spins peuvent prendre deux valeurs opposées. Dans le cas usuel, le vecteur d’état représentatif du sys-tème s’écrira comme le produit tensoriel des vecteurs d’état représentatifs de chacun des qubits. Dans le cas d’un système intriqué, les coefficients du vecteur d’état du système ne peuvent plus être décomposés en pro-duits des amplitudes des états caractérisant chacun des qubits. Le système ne peut être décrit que dans sa glo-balité et apparaît comme une combinaison linéaire de quatre états affectés chacun de coefficients, représentés par des nombres complexes dont le carré du module représente la probabilité de trouver le système dans un état donné.

1 Voir REE 2012-4 – Retour sur Alain Aspect.

2 Voir REE 2012-4 - Serge Haroche : le 13e prix Nobel de physique français.

Deux qubits intriqués sont en résumé la superposition de quatre états : , dans des proportions _, `, a, b tels que .

Trois qubits intriqués donneront naissance à huit états et N qubits à 2N états.

L’idée du calcul quantique avec des qubits est d’uti-liser cet espace à 2N états, le grand avantage des états superposés simultanés résidant dans l’augmentation des capacités de codage par un facteur 2 chaque fois que le nombre de qubits intriqués est accru d’une unité. Des algorithmes ont été mis au point qui permettraient aux ordinateurs quantiques d’avoir des performances bien plus grandes que celles des ordinateurs classiques pour certains calculs, en particulier dans des opérations de décomposition de grands nombres en facteurs premiers. Les difficultés à surmonter restent considérables. En ef-fet, il faut pouvoir réaliser des systèmes comprenant un nombre suffisant de qubits intriqués (on parle de 300), construire des opérateurs transformant les acteurs d’états et pour cela savoir les maintenir dans le système en état d’isolation totale du monde extérieur pendant un délai suffisant pour permettre l’exécution des calculs3. Le défi du calcul quantique est ainsi d’utiliser des objets quan-tiques (photons, électrons, ions) dans des états super-posés sans, ou plutôt avant, qu’intervienne la perte de

3 Le lecteur pourra se référer au Flash Info publié dans le N° 2012-2 de la REE.

Figure 1 : Vue d’artiste illustrant la notion d’intrication des états de spin de deux noyaux d’un réseau. Source : 2012 TU Delft.

Page 6: Aperçu du numéro 2013-3  de la REE (juillet 2013)

REE N°3/2013 Z 5

FLASHINFOS

l’intrication appelée « décohérence » à la suite d’une interaction quelconque avec l’environnement. Il existe aujourd’hui plusieurs dispositifs qui permettent de main-tenir confinés des atomes ou électrons dans des états superposés. Ce sont les atomes froids dans des cavités optiques, des atomes ou des boîtes quantiques (quan-tum dots) couplées à des micro-résonateurs optiques, des circuits avec jonctions Josephson couplées à des lignes coaxiales ou enfin des boîtes quantiques dans des semi-conducteurs dans lesquelles sont confinés des électrons. Les ions piégés du prix Nobel David Wineland sont un exemple de qubits. La difficulté de réalisation posée par la manipulation des qubits est de concevoir et développer des dispositifs physiques dans lesquels l’information des qubits peut circuler d’un nœud à l’autre et être traitée de manière logique par des portes comme dans un processeur classique.

Ce domaine est l’objet aujourd’hui de nombreuses recherches dans le monde. Dans le monde de la tech-nologie électronique, ce sont les boîtes quantiques qui sont à la base des expérimentations. C’est ainsi qu’une équipe de chercheurs des laboratoires de l’Université du Michigan, du NRL et de l’université de Californie vient de réaliser l’intrication d’un électron confiné dans une boîte quantique et d’un photon. Un article publié en mars 20134 décrit les conditions opératoires de leur expé-rience. Les chercheurs commencent d’abord par rappeler quelques étapes importantes à partir desquelles ils ont mis au point leur expérience :

-teur sont de bons candidats pour construire des appli-cations de traitement de l’information quantique dans une infrastructure de semi-conducteur. Des boîtes quantiques ont pu être développées avec des cavités de cristaux présentant des qualités supérieures à celles d’autres systèmes d’information quantiques. L’utilisa-tion de l’arséniure de gallium dopé avec de l’arséniure d’indium, InAs/GaAs, présente le très grand avantage d’être facilement compatible avec la technologie des semi-conducteurs III-V. C’est un nanocristal de matériau semi-conducteur dont les dimensions sont inférieures à 10 nm. iI se comporte comme un puits de potentiel qui réussit à confiner les électrons et les lacunes dans les trois dimensions de l’espace, à l’intérieur d’une région d’une taille de l’ordre de celle de la longueur d’onde

4 Demonstration of quantum entanglement between a single elec-tron spin confined to an InAs quantum dot and a photon - J. R. Schaibley & Al.

de De Broglie pour l’électron. Ce confinement donne alors aux boîtes quantiques des propriétés analogues à celles d’un atome ;

spin d’un électron confiné dans une boîte quantique pouvait remplir la fonction de qubit et donc être utilisé comme dispositif de stockage avec une capacité rapide de calcul quantique. Mais pour développer une archi-tecture d’ordinateur, l’information quantique stockée dans une boîte quantique doit pouvoir être transmise sans décohérence vers d’autres boîtes quantiques spa-tialement distinctes afin d’intriquer leur spins respectifs.

à partir de l’excitation d’une boîte quantique négati-vement chargée (appelée trion : deux électrons et un trou) pouvaient être considérés comme un moyen per-tinent pour transporter cette information.

A partir de ces acquis, l’équipe américaine a expéri-menté un qubit en réalisant l’intrication entre l’état de spin d’un électron confiné dans une boîte quantique et l’état de spin d’un photon émis à partir d’un état excité de la boîte. Le dispositif utilisé pour réaliser les transitions est une boîte quantique soumise à un champ électromagné-tique (géométrie de Voigt) appelé système R caractérisé par quatre niveaux.

La boîte quantique est initialisée dans un état pur par pompage optique. Puis une impulsion laser l’amène à deux états excités qui effectuent une transition vers deux états fondamentaux d’égales probabilités. Ces transitions se caractérisent par l’émission d’un photon dans une superposition des deux états. Des mesures de polari-sation sont effectuées ensuite sur les photons qui sont corrélées avec d’autres mesures portant sur les états de la boîte quantique. La vérification de l’intrication se fait en détectant les photons successifs avec un détecteur ultra rapide d’une résolution de 48 ps qui détruit la cohé-rence et les mesures vérifient les probabilités associées aux deux états superposés du photon. Les histogrammes de probabilités après des mesures de la polarisation sur l’axe z montrent que l’intrication est bien transmise avec un taux de fidélité atteignant 84 % du maximum autorisé par la base de temps utilisée. Ce qui est réalisé est donc bien l’intrication hybride d’un qubit constitué par l’état de spin d’un électron confiné dans la boîte quantique et un qubit mobile constitué par la polarisation d’un photon émis par la boîte.

Cette intrication spin-photon constitue une première étape dans la réalisation d’une architecture extensible

Page 7: Aperçu du numéro 2013-3  de la REE (juillet 2013)

6 Z�REE N°3/2013

FLASHINFOS

d’ordinateurs quantiques reposant sur un réseau de boîtes quantiques utilisées comme qubits et sur des photons assurant la transmission de l’intrication entre des nœuds distants du réseau de botes quantiques. !

ML

Identification d’objet par imagerie fantôme utilisant le moment orbital angulaire

Nous avons traité dans un flash infos de la REE 2012-3 de l’utilisation possible de la modulation du moment orbi-tal angulaire comme nouvelle technique de communica-tion. Des chercheurs américains5 ont depuis lors proposé en septembre 2012, une technique d’identification d’objet visant à tirer parti de la diversité des états quantiques of-ferts par le moment orbital des photons dans une nouvelle technique associant imagerie fantôme et échantillonnage clairsemé. Cette technique est de nature à permettre d’ac-croître considérablement l’efficacité de l’identification d’un objet sous un flux de photons. Ils ont pour cela utilisé et combiné plusieurs techniques récentes d’imagerie.

De quoi s’agit-il ?

Ghost ImagingLe “ghost imaging” ou GI (imagerie fantôme) consiste

à envoyer un faisceau de photons par deux voies diffé-rentes, l’une qui interfère avec un objet à identifier et l’autre qui contient simplement un détecteur. La corré-lation entre les sorties de chaque voie permet la recons-truction d’une image de l’objet et de ses caractéristiques spécifiques. Si la corrélation entre les photons transitant par chacune des voies est de nature quantique (états intriqués), le rapport signal/bruit est considérablement amélioré. Compte tenu de l’indépendance spatiale du phénomène d’intrication, le GI est de nature à permettre l’observation distante d’une cible sans que celle-ci réalise qu’elle est observée.

Compressive SensingLes méthodes de “compressive sensing” ou “sparse

sampling” (échantillonnage clairsemé) sont des mé-thodes d’analyse du signal permettant d’acquérir et de reconstituer un signal à partir d’un échantillonnage réduit. Elles connaissent depuis 2004 un essor important, après qu’Emmanuel Candès, Terence Tao et David Donoho ont

5 Néstor Uribe-Patarroyo & Al - Department of Electrical and Com-puter Engineering, Boston University – Etude soutenue par la DARPA – Cornwell University Library – September 2012.

montré qu’il était possible de reconstruire une image à partir d’un nombre de données inférieur à celui prescrit par le théorème de Nyquist-Shannon.

Les méthodes de compressive sensing utilisent le fait que beaucoup de signaux sont clairsemés et contiennent, dans un espace approprié, une majorité de coefficients égaux à ou proches de zéro. Ces échantillons peuvent être transformés dans un espace différent en un nombre réduits de relations. La reconstruction de l’état initial à partir de ces relations conduit à poser un système linéaire dans lequel le nombre d’inconnues excède de beaucoup le nombre de relations et qui est donc théoriquement indéterminé. Les travaux de Candès & Al ont montré que la contrainte de faible densité de l’état initial (“sparsity”) permettait de résoudre le système bien que l’informa-tion fût en apparence insuffisante. Les méthodes de compressive sensing conduisent à utiliser des détecteurs clairsemés, qui peuvent aller jusqu’à des caméras mono-pixel, pour scanner l’échantillon.

Les applications de compressive sensing sont en dé-veloppement rapide, notamment dans les domaines de la photographie, des caméras, des smart phones, etc.

Le “compressive ghost imaging” utilise les deux techniques combinées de ghost imaging et de compres-sive sensing dans la reconstruction d’une image.

Moment orbital angulaireLe lecteur se référera, pour comprendre les éléments

de la théorie du moment angulaire (OAM), au Flash Info publié en juillet 2012 dans la REE 2012-3. En 1995, il était démontré qu’un mode laser particulier, appelé Laguerre-Gauss, présentait la propriété d’avoir un moment orbi-tal bien défini. Les modes de Laguerre-Gauss sont des modes propres d’une cavité laser à symétrie cylindrique. Il est possible, grâce à de tels modes laser de paramétrer les états du moment orbital angulaire en disposant d’un ensemble étendu d’états possibles. On a démontré que leur utilisation, dans les techniques d’imagerie classiques et quantiques, apporte des effets supplémentaires qui améliorent la sensibilité à des caractéristiques particu-lières d’un objet.

Digital ImagingLe “Digital Spiral Imaging (DSI)” est une technique

d’analyse de la lumière transmise ou réfléchie par un objet avec l’aide des paramètres du moment orbital, le vocable “spiral” évoquant la structure “twistée” du moment orbital. Cette structure à deux dimensions spatiales, associée à la

jphauet
Rectangle
Page 8: Aperçu du numéro 2013-3  de la REE (juillet 2013)

15 Z�REE N°3/2013

Introduction

A ircraft creates wake vortices in different flying phases. To avoid jeopardizing flight safety by wake vortices encounters, time/distance sepa-rations have been conservatively increased,

thus restricting runway capacity. The concern is higher during taking off and landing phases, as aircraft are less easy to ma-neuver. These vortices usually dissipate quickly (decay due to air turbulence or transport by cross-wind), but most airports operate for the safest scenario, which means that the interval

between aircraft taking off or landing often amounts to several minutes. However, with the aid of accurate wind data and pre-cise measurements of wake vortices, more efficient intervals can be set, particularly when weather conditions are stable. Depending on traffic volume, these adjustments can generate capacity gains which have major commercial benefits.

Wake vortices are a natural by-product of lift generated by aircraft and can be considered as two horizontal tornadoes trailing behind the aircraft. A trailing aircraft exposed to the wake vortex turbulence of a lead aircraft can experience an

Wake vortex detection, prediction and decision support tools

New challenge for airports to increase capacity and safety

L'ARTICLE INVITÉ FRÉDÉRIC BARBARESCO in cooperation with Philippe Juge,

Jean-François Moneuse, Mathieu Klein, Erwan Lavergne, David Canal,

Yves Ricci & Jean-Yves SchneiderTHALES Land & Air Systems

Dans les aéroports, la piste est le facteur limitant le débit global et plus particulièrement les distances minimales de séparation permettant d’éviter les turbulences dans le sillage des avions. Ces distances sont maximisées à des valeurs élevées par l'OACI et ne tiennent pas compte des conditions de vent. Les tourbillons dangereux se dissipent habituellement rapidement en raison de la turbulence de l'air ou du vent de travers. Mais pour des raisons de sécurité, la plupart des aéroports utilisent des distances de séparation entre avions qui correspondent aux cas les plus défavorables, ce qui porte l'intervalle entre avions décollant ou atterris-sant à des valeurs atteignant souvent plusieurs minutes. A partir de mesures précises du vent et des tourbillons de sillage par des radars, des intervalles plus réduits peuvent être définis, en particulier lorsque les conditions météorologiques sont stables. Selon le volume de trafic, ces ajustements peuvent générer des gains de capacité qui ont d'importantes retombées commerciales.Cet article présente le projet européen SESAR P12.2.2 qui vise à développer un système d’évaluation des tourbillons de sillage fondé sur l'amélioration de concepts opérationnels, avec l’objectif de réduire les distance de séparation liées aux turbulences lors des décollages et des atterrissages, ponctuellement ou de façon permanente, afin d’augmenter le débit de la piste d’une manière telle qu'il puisse absorber les pics de demande d'arrivée en toute sécurité et réduire les retards au départ. Cet objectif sera atteint par la combinaison de capteurs radar/lidar qui fourniront la position en temps réel et la force des tourbillons de sil-lage et évalueront les conditions de vent, y compris la turbulence de l'air ambiant par les EDR (Eddy Dissipation Rate). L’article présente l’architecture du système d’évaluation de la turbulence de sillage et la campagne d'essais des capteurs effectuée à l'aéroport CDG au printemps 2011 et l'automne 2012 qui a fourni des résultats sur la possibilité de surveiller les tourbillons de sillage par des radars/lidars.Les principaux résultats ont été probants en termes de détection des turbulences de sillage. La plupart des tourbillons de sillage a été détectée dans les deux domaines critiques. Les résultats montrent que les radars et lidars sont complémentaires en fonction des conditions météorologiques : les performances des radars en bande X sont optimales dans des conditions pluvieuses alors que les performances du lidar sont optimales dans l'air sec. Pour le vent, les résultats permettent de cerner l’aptitude des radars UHF profileurs de vent en fonction de la hauteur au-dessus de la surface (conditionnée par le pourcen-tage du temps pendant lequel la réflectivité est suffisante pour effectuer une mesure et sous réserve que l'atmosphère soit suffisamment homogène et stable).La comparaison statistique entre deux profileurs UHF (et avec des profileurs sodar/lidar) est basée sur des histogrammes de données interpolées, la vitesse du vent, des profils de direction dans des périodes spécifiques, le calcul de biais, d'écart-type et de corrélation de la vitesse et direction du vent en altitude. L’usage combiné de capteurs, de modèles et de mesures réelles permettent de montrer, en prenant en compte les objectifs d’amélioration des capteurs déjà prévus dans le projet (radar E-balayage en bande X), qu’il est possible de satisfaire les exigences opérationnelles d’un système d’évaluation des tourbillons de sillage.

ABSTRACT

Page 9: Aperçu du numéro 2013-3  de la REE (juillet 2013)

16 Z�REE N°3/2013

L'ARTICLE INVITÉ

induced roll moment (bank angle) that is not easily corrected by the pilot or the autopilot. However these distances can be safely reduced with the aid of smart planning techniques of future Wake Vortex Decision Support Systems based on wake vortex detection/monitoring and wake vortex predic-tion (mainly transport estimation by cross-wind), significantly increasing airport capacity. This limiting factor is significantly accentuated with the arrival of new heavy aircrafts: Airbus A380, stretched version of Boeing B747-8.

Radar and lidar sensors are low cost technologies with highly performing complementary wake-vortex detection capability in all weather conditions compared to others sen-sors that suffer of limited one. Radar and lidar are promising sensors for turbulences remote sensing on airport, for all kinds of aviation weather hazards (wake vortices, wind shear, micro-bursts, atmospheric turbulences) with ability to work operationally in a collaborative way, in different severe wea-ther conditions like fog, rain, wind, and dry air.

Wake vortex hazards

The wake vortices shed by an aircraft are a natural con-sequence of its lift. The wake flow behind an aircraft can be described by near field and far field characteristics. In the near field, small vortices emerge from that vortex sheet at the wing tips and at the edges of the landing flaps.

After roll-up, the wake generally consists of two coherent counter-rotating swirling flows, like horizontal tornadoes, of about equal strength: the aircraft wake vortices.

Empirical laws model tangential speed in roll-up

Classically, velocity profile (tangential speed at radius r) is defined by:

(1)

where K� is called circulation. This wake vortex circulation

strength (root circulation in m2/s) is proportional to aircraft mass M and gravity g, inversely proportional to air density l, wingspan B and aircraft speed V [1] with:

(2)

Additional factors that induced specific dynamic of wake vortices: wind shear effect (stratification of wind), ground effect (rebound), transport by cross-wind & decay by atmo-spheric turbulence and crow instability.

Rational for wake vortex hazards mitigation on airports

Wake vortices are a natural by-product of lift generated by aircraft and can be considered as two horizontal tornadoes trailing after the aircraft and their encounter is the main cause of loss of control by pilots. A trailing aircraft exposed to the wake vortex turbulence of a lead aircraft can experience an induced roll moment/bank angle that is not easily corrected by the pilot or the autopilot. Most recent referenced accidents are: November 12, 2001 - AA Flight 587 crashed shortly after takeoff from John F. Kennedy airport, due to pilot error in the presence of wake-turbulence from a Boeing 747; Novem-ber 4, 2008 - Mexican government LearJet 45 with Secretary of the interior, flying behind a Boeing 767-300 and above a heavy helicopter, crashed before turning for final approach at Mexico City airport.

To characterize critical area of wake-vortex encounter, we can use results of NATS1 enquiry that shown that highest occurrences of wake-vortex encounters are at the touchdown (behind 100 feet in altitude) and at turn onto glideslope (between 3 500 -4 500 feet in altitude). But severe wake vortex encounters mainly occur at less than 500 feet in alti-tude and should be monitored in this critical area with an associated alert system defined as a safety net.

As given by statistics, main occurrence and severity of wake vortex encounters are concentrated at low altitude. One can also observe that impact of wake-vortex encounter is more critical at low altitude due to roll angle, due to flying command limits, more especially during final approach and initial climb phases.

As previously underlined, critical area of wake vortex en-counter is localized at low altitude. But this area is also cha-racterized by complex behavior of wake vortex hazards due to ground effect:

1 NATS is the UK’s leading provider of air traffic control services.

Figure 1: (Left) Wake vortex encounter severity versus altitude indexed by roll angle – (Right) Critical phases of wake vortex encounters at low altitude during Initial climb or final approach.

jphauet
Rectangle
Page 10: Aperçu du numéro 2013-3  de la REE (juillet 2013)

REE N°3/2013 Z 25

LES GRANDS DOSSIERSIntroduction

Les énergies alternatives sont sorties de la marginalité. Avec 106 000 MW d’éolien et 69 000 MW de photovoltaïque, elles représen-taient, à la fin 2012, 18 % de la puissance instal-lée en Europe et assuraient environ 10 % de la production totale d’électricité (7 % pour l’éolien et 3 % pour le photovoltaïque). Dans certains pays, les proportions sont plus importantes : en Allemagne l’éolien couvre à présent 11 % de la consommation d’électricité du pays et cette pro-portion atteint 16 % en Espagne (contre 3,1 % seulement en France pour 7 560 MW installés).

Cette évolution impressionnante est le résultat d’un effort d’investissement considérable : sur 44 600 MW de capacités nouvelles installées en Europe en 2012, 37 % (16 750 MW) relevaient de la filière photovoltaïque et 27 % de la filière éolienne (11 895 MW). Le volume d’investissement corres-pondant peut être évalué aux environs 65 Md F. Cet effort s’inscrit dans la ligne du mouvement largement amorcé en faveur d’une transition énergétique en direction des énergies non carbonées. Elle ne va pas cependant sans soulever de difficiles problèmes dont l’importance s’est révélée au fur et à mesure que la part des énergies alternatives dans le mix électrique s’est accrue.

Les énergies alternatives sont source de difficultés tech-niques pour les exploitants des réseaux, dès lors que leur apport devient significatif. La principale difficulté réside dans leur caractère intermittent et assez largement aléatoire. Les énergies alternatives ne sont pas forcément disponibles au moment où l’on en aurait besoin et il faut donc leur adjoindre des moyens de "back up” qui viennent renchérir l’investisse-ment et dégrader le bilan en émissions de CO2. Mais l’inter-mittence n’est pas le seul problème : les énergies solaire et éolienne sont en règle générale décentralisées, elles échappent au contrôle du réseau et ne participent pas à sa stabilisation en fréquence. Bien au contraire, du fait de l’ab-sence de grosses machines tournantes, elles ne disposent que d’une inertie limitée, voire nulle dans le cas du photovol-taïque, pour faire face à la vicissitude des vents et aux aléas de l’ensoleillement. Un simple passage nuageux au-dessus d’une grosse centrale solaire peut entraîner des fluctuations rapides et importantes auxquelles le réseau doit immédiate-ment faire face.

Les énergies alternatives sont sources d’épi-neux problèmes économiques et financiers. Bénéficiant de tarifs de rachat avantageux dans la plupart des pays, elles font peser sur le consom-mateur des charges qui sont à présent souvent jugées excessives : 20,4 Md F en Allemagne en 2012, 31,6 Md F en 2013, prélevés par le biais de la taxe EEG similaire à la CSPE instituée en France, laquelle devrait s’élever, selon les calculs de la CRE, en ce qui concerne les seules éner-gies renouvelables, à 3 Md F en 2013 avec des perspectives de croissance importantes sur les

prochaines années.Par ailleurs les mécanismes d’obligation de rachat

conduisent à des situations absurdes : les fournisseurs his-toriques (en France essentiellement EDF) sont tenus depuis la loi du 3 janvier 2003 de racheter les productions d’ori-gine renouvelable à des prix qui se situent, en France, aux environs de 85 F/MWh pour l’éolien terrestre et de 120 à 250 F/MWh pour le photovoltaïque. Il se peut que ces pro-ductions soient utiles et contribuent à satisfaire les besoins. Mais il arrive de plus en plus souvent qu’elles soient non seulement inutiles mais préjudiciables au bon fonctionne-ment du système électrique. En cas de demande faible, le dimanche par exemple, et d’apports massifs du solaire et de l’éolien, les opérateurs ne disposent pas forcément des capa-cités de transport nécessaires à l’évacuation de cette pro-duction et son écoulement peut nécessiter la mise à l’arrêt coûteuse de moyens de production fonctionnant en base ou en semi-base. On voit apparaître en conséquence sur les marchés spots de l’électricité des prix négatifs du MWh. Après l’Allemagne, La France a été touchée pour la première fois par ce syndrome le 16 juin 2013 avec des prix du MWh descendant jusqu’à -188,51 F pour le bloc du matin sur la place de marché de l’EPEX. Ce genre de situation appelle une sérieuse réflexion sur la possibilité de conserver en l’état les mécanismes qui ont permis le décollage des énergies alter-natives mais qui ne sont plus adaptés dès lors que le stade de la maturité a été atteint.

Le stockage n’est pas une solution miraclePour pallier ces difficultés, techniques et économiques,

l’idée s’est répandue qu’il fallait développer le stockage de

Le stockage de l’électricitéLa problématique des énergies alternatives

Jean-Pierre HauetAssociate Partner KB IntelligenceMembre Emérite

de la SEE

Page 11: Aperçu du numéro 2013-3  de la REE (juillet 2013)

26 Z�REE N°3/2013

LES GRANDS DOSSIERS Introduction

l’électricité. Nous verrons plus loin que le stockage peut effectivement constituer une solution à certains des pro-blèmes posés par l’intégration des énergies alternatives dans les réseaux. Mais beaucoup pensent que, si l’on parvient à stocker convenablement l’électricité, alors il suffira de stoc-ker la production des énergies alternatives lorsqu’elle vient à être excédentaire pour la relâcher lorsqu’elle redevient utile et améliorer ce faisant sa valorisation et donc la compétitivité de la filière considérée. Cette idée du « stockage réponse universelle à l’intermittence » a été reprise dans de nombreux travaux et dans les déclarations de personnalités éminentes. Elle a pris d’autant plus corps que les producteurs allemands qui ont du mal à évacuer la production d’origine éolienne du Nord du pays, envisagent différentes solutions1 pour la valori-ser, en particulier la production par l’électrolyse d’hydrogène destiné à la méthanation ou à la réinjection en faible propor-tion sur le réseau de gaz2.

Malheureusement cette façon de voir relève assez lar-gement du sophisme. Le stockage a nécessairement un coût : coût d’investissement, coût d’exploitation et renché-rissement du kWh restitué lié à une efficacité toujours infé-rieure à 1 et oscillant selon les technologies entre 25 et 95 %. Ce coût s’ajoute au prix de l’électricité stockée et vient donc le renchérir. L’un des obstacles auxquels les énergies alternatives sont confrontées résidant dans leur coût de production, le stockage ne peut pas constituer un moyen de le diminuer. On notera que dans les systèmes modernes de production industrielle, les efforts ont porté au cours des dernières années sur la recherche d’un fonc-tionnement en flux tendu, en supprimant les stocks et non pas en en créant de nouveaux.

Bien évidemment, le stockage n’accroît pas la durée moyenne de fonctionnement des moyens de production basés sur les énergies alternatives qui varie, selon les tech-nologies et selon les régions, de 1 500 à 3 000 h/an3. En outre, si l’on sait stocker l’électricité, il faut mieux stoc-ker de l’énergie produite à bon marché, ce qui n’est pas aujourd’hui la vertu première des productions d’électricité d’origine renouvelable. Bien évidemment, le stockage de l’électricité produite à partir des énergies alternatives trouve davantage sa justification si l’on considère, comme en Alle-magne du Nord ou en Italie du Sud, que les investissements sont déjà faits, qu’ils constituent des coûts échoués et que seuls les coûts marginaux à court terme sont à prendre en compte. Mais une telle situation est la résultante de surin-

1 Voir l’article des Echos du 20 juin 2013, « Le stockage de l’électricité, priorité stratégique de Berlin ».

2 Voir le Flash Info sur le “Power to Gas” paru dans la REE 2012-5.3 Il faut évidemment relever les exceptions de la géothermie et de l’éner-

gie thermique des mers, mais ces formes d’énergie restent aujourd’hui marginales.

vestissements faits sans s’être assuré du débouché local des productions. Il faut bien évidemment se garder d’assi-miler les coûts de développement à un coût marginal à court terme sauf à prendre le risque de s’engager dans des politiques structurellement déficitaires4.

Le stockage peut rendre des servicesPuisque le stockage a un coût, il faut que ce coût puisse

être couvert par la rémunération de services rendus par ce stockage. Il se pose donc un problème d’identification des besoins, de valorisation des services apportés par le stoc-kage pour répondre à ces besoins et de comparaison avec les coûts des différentes technologies auxquelles il peut être fait appel. Il s’agit d‘un problème complexe, parce que les besoins sont évolutifs et parce que les technologies le sont également. Le présent dossier a pour objectif d’apporter des éléments de réponse à ces questions, en complément de celles que le lecteur pourra trouver en provenance d’autres sources et en particulier sur le site internet de la Commission de Régulation de l’Energie5.

Du côté des besoins, on notera que l’utilité d’un stockage de l’électricité n’est pas nouvelle. Voilà bien longtemps que l’on retient en hiver l’eau des barrages pour la relâcher en été. Plus récemment, ont été construites des stations de trans-fert d’énergie par pompage-turbinage (STEP) qui constituent, et de très loin, la forme de stockage de l’électricité la plus répandue dans le monde. Apparues en Suisse vers 1890, elles représentent dans le monde une puissance installée de 140 GW dont environ 5 GW en France. C’est une solu-tion éprouvée, bien adaptée au lissage des pointes à grande échelle : transfert de production des heures creuses vers les heures pleines, compensation des insuffisances d’apport en provenance des énergies alternatives. Les sites restant à équiper sont en France peu nombreux mais ce sont plutôt des considérations économiques qui freinent aujourd’hui le lancement de nouveaux projets.

Une autre forme de stockage totalement mature est constituée par des chauffe-eau électriques à accumulation télécommandés fonctionnant la nuit en heures creuses : il s’agit d’une forme hybride, puisque l’énergie est restituée sous forme d’eau chaude sanitaire. Mais elle permet de déplacer vers les heures creuses plusieurs TWh de consom-mation d’électricité qui a défaut viendraient s’imputer sur les heures pleines. La puissance mobilisable est équivalente à celle des STEP installés. Mais l’approche est ici locale au lieu d’être centralisée. Il est à noter que l’avenir de ces cumu-

4 On retrouve là, sous une autre forme, le paradoxe du voyageur de Calais décrit par Maurice Allais, selon lequel le dernier voyageur entrant à Calais dans le train de Paris n’a pas à payer son billet puisque de toute façon le train partira, avec ou sans lui.

5 Commission de Régulation de l’Energie : www.cre.fr

Page 12: Aperçu du numéro 2013-3  de la REE (juillet 2013)

REE N°3/2013 Z 27

LES GRANDS DOSSIERSIntroduction

lus est menacé du fait de la réglementation thermique des logements RT2012 et des réglementations européennes à l’étude sur la rénovation thermique de l’habitat. Ces régle-mentations s’appuient sur le concept formel d’énergie pri-maire et ignorent par conséquent la notion de stockage et de valeur différentiée du kWh selon les périodes6.

Si les services rendus par les stockages ne sont pas nou-veaux, l’évolution des modes de production, de distribution et de consommation de l’électricité tend à en accroître la diversité. Le véhicule électrique par exemple introduit une composante nouvelle avec des stockages nomades embar-qués dans chaque véhicule qui, pour un parc de deux mil-lions de véhicules (objectif gouvernemental à horizon 2020), représenteront une puissance installée de 7 000 MW, sen-siblement supérieure à celle de tous les STEP en service en France. La problématique de l’insertion des énergies intermit-tentes introduit une autre dimension et on comprend bien que le stockage de l’électricité apparaisse aujourd’hui comme l’une des variables de contrôle sur laquelle il sera possible de jouer dans le cadre de l’exploitation des smart grids.

Plusieurs typologies de services rendus par le stockage ont été proposées. Nous pensons qu’il y a trois grands types d’applications :

Le « lissage » est une notion très générale. Elle se décline selon deux grandes directions :

Le lissage dans le temps vise à permettre à la produc-tion de répondre en permanence à la demande, sans avoir à mettre en œuvre des moyens de pointe onéreux et forte-ment dissipateurs en CO2. Il peut prendre différentes formes :

-

des consommations vers les heures creuses.En outre ce lissage dans le temps peut être à dominante

« énergie » ou à dominante « puissance » ou une combinaison des deux. Le besoin peut en être récurrent ou exceptionnel.

Le lissage dans l’espace vise à éviter d’avoir à transporter l’énergie électrique pour pallier la non concordance géogra-phique entre les lieux de production et de consommation. Le bénéfice recherché est alors l’économie dans les infrastruc-tures et les coûts de transport et de distribution mais aussi

6 Le lecteur pourra se référer sur ce thème aux « Libres propos » de Jean Bergougnoux parus dans la REE 2013-2.

la sécurisation du réseau, sachant que la construction de nouvelles lignes pose des problèmes de compatibilité envi-ronnementale et d’acceptabilité par les populations de plus en plus aigus. Cet aspect du lissage prend une importance croissante du fait notamment du développement des éner-gies décentralisées. Il conduit naturellement vers la notion de zones d’équilibre, les réseaux d’interconnexion venant alors en appui à une certaine autosuffisance locale. A un niveau de granularité encore plus fin, il conduit à encourager l’autocon-sommation sur laquelle nous reviendrons plus loin.

Le lissage relève de l’exploitation normale des réseaux. La fonctionnalité « secours » vise à permettre de faire face à des situations exceptionnelles résultant notamment de la défaillance de certains composants. L’existence de moyens de secours permet de disposer du temps nécessaire pour réagir face à une telle défaillance en évitant au maximum les délestages. Les moyens de stockage peuvent être implantés à différents niveaux de la chaîne électrique : ils seront mas-sifs s’il s’agit de sécuriser l’alimentation de presqu’îles élec-triques, ils seront répartis s’il s’agit de sécuriser l’alimentation de clients finaux.

La fonctionnalité « qualité » se recoupe avec la précédente dans la mesure où les coupures sont les facteurs premiers de non qualité. Mais la qualité du courant s’apprécie également au travers de la stabilité de la tension et de la fréquence, des microcoupures et des harmoniques injectées sur le réseau. On comprend que le développement intensif des énergies décen-tralisées, associées à des systèmes d’électronique de puissance qui engendrent une certaine pollution du réseau, soit à l’origine de préoccupations croissantes. Les limites de responsabilité entre fournisseur et utilisateur sont établies par l’arrêté tech-nique en ce qui concerne tension, fréquence et microcoupures. Elles sont moins nettes lorsque l’on parle d’harmoniques. Quoi qu’il en soit, le stockage, sous forme de batteries ou de piles à combustible insérées dans des unités « ininterruptibles » (UPS), peut constituer une réponse à ce problème d’importance pri-mordiale pour des industries de pointe.

Une diversité de solutionsFace à cette diversité de besoins, il existe une diversité

de solutions. Elles sont décrites dans le dossier ci-joint et viennent démentir le vieil adage selon lequel l’électricité ne se stocke pas. La panoplie des solutions inclut les stations de pompage/turbinage (STEP), les stockages thermody-namiques (CAES à air comprimé et systèmes dérivés), les batteries, les super-condensateurs, les piles à combustible rechargeables, les bobines supraconductrices (SMES), les volants d’inertie, etc. sans oublier les modes de stockage indirects et hybrides : chauffe-eau à accumulation et autres stockages thermiques, hydrogène, lingots d’aluminium ou autres produits finis ou semi-finis.

Page 13: Aperçu du numéro 2013-3  de la REE (juillet 2013)

28 Z�REE N°3/2013

LES GRANDS DOSSIERS Introduction

Une analyse technico-économique est primordiale

Le choix de la bonne solution face à un besoin reconnu de stockage ne peut résulter que d’une analyse précise de ce besoin et en particulier de la fréquence à laquelle le stockage devra être utilisé. Le surcoût introduit par le stockage dans le prix de revient du kWh restitué dépend fortement du nombre de cycles sur lesquels pourra être amorti l’investissement. Ce nombre de cycles dépend du besoin mais aussi de la durée de vie du mode de stockage7. Les modes de stockage traditionnels restent à cet égard privilégiés par rapport aux solutions émergentes.

D’une façon générale, eu égard à l’état de la technique et aux besoins tels qu’ils sont aujourd’hui perçus, il nous semble qu’il y a trois catégories de couples besoins-solutions qui se dessinent :

8, pour lesquels il est difficile d’imaginer des percées technolo-giques majeures. Ces modes de stockage ont un marché établi. On pourrait penser que celui-ci irait en s’élargissant du fait du développement des énergies alternatives. Il en va actuellement tout autrement car le développement des apports photovoltaïques pendant la journée tend à réduire l’écart de valorisation entre heures pleines de jour et heures

peuvent s’accommoder d’un surcoût du kWh élevé et pour-ront donc accepter des solutions locales onéreuses mais à dynamique élevée (batteries, SMES, piles à combustible rechargeables, volants

d’application qui bénéficiera des progrès encore attendus sur les batteries Li-ion, progrès techniques et économiques liés au développement du véhicule électrique, mais aussi sur les batteries à sel fondu (NaS notamment). Une évolution du type « panneaux photovoltaïques » est probable compte tenu de l’accroissement de la de-mande et de la pléthore de fabricants dans le monde9. Cette « démocratisation » des

7 Laquelle dépend, pour les batteries, de la profon-deur des déstockages.

8 La filière STEP semble économiquement la plus efficiente et est préférée en France par EDF et ses filiales. Toutefois, certains considèrent que le choix entre STEP et CAES relève de la culture d’entreprise.

9 Ce qui représente un challenge considérable pour l’industrie française, comme souligné dans le dos-sier de la REE 2013-1 consacré au véhicule élec-trique.

batteries, couplée à des progrès constants sur l’électro-nique de puissance, ouvre la voie à des applications très diverses, en règle générale décentralisées, qui permettront sur le plan technique d’accueillir plus facilement les éner-gies renouvelables et d’éviter d’avoir à transporter le courant sur de longues distances.

Il faut ajouter à ces trois axes de développement celui des systèmes électriques isolés ou faiblement connectés qui intéressent au premier chef les composantes insulaires du ré-seau français. Un article spécifique leur est consacré. Le prix très élevé de production du kWh dans ces territoires facilite l’éclosion de technologies innovantes qui pourront ensuite être transférées sur le territoire métropolitain.

Il faut toutefois raison garder et ne pas voir dans le stoc-kage une potion magique ou une corne d’abondance. A titre d’exemple, on peut se référer au cas des éoliennes “2.5-120 Brilliant turbines storage ready” dont la commercialisation a été annoncée en mai 2013 par General Electric et dont trois pilotes ont été vendus à Invenergy (Mills County – Texas). Ces éoliennes sont équipées de batteries à sel fondu Dura-thon, Na-NaCl2, réputées avoir une durée de vie de 20 ans. Chacune est reliée à un réseau Internet industriel (du type Internet des objets) qui permet d’assurer leur pilotage à dis-tance. Peu d’éléments technico-économiques sont dispo-nibles sur cette approche a priori séduisante qui permet de lisser la production des éoliennes. Toutefois, un calcul rapide, admettant un investissement de 300 F/kWh, ce qui est très optimiste, et une durée de vie de 4 000 cycles, répartis par

exemple sur 20 ans, conduit à un surcoût du MWh restitué d’au moins 75 F/MWh, c’est-à-dire au doublement du coût de produc-tion. L’investissement initial dépend quant à lui de la capacité donnée au stockage mais peut également rapidement conduire à un doublement du prix de l’éolienne. On comprend mieux les réserves formulées au début de cet article et dans l’article d’Olivier Grabette de RTE sur le stockage en tant que solution miracle à l’intermittence.

Changer le modèle d’affairesLes travaux de recherche-développe-

ment sur le stockage doivent être poursui-vis en parallèle à ceux sur les moyens de production alternatifs afin que le couplage de l’un avec l’autre conduise à des solutions économiquement viables. Mais en paral-lèle, il faut repenser le modèle d’affaires du stockage qui ne peut pas se dévelop-per dans le cadre législatif et réglementaire actuel. Celui-ci est en effet essentiellement

Jean-Pierre Hauet est ancien élève de l’Ecole Polytechnique et Ingénieur du corps des mines. Il a occupé différentes positions dans l’Administration, en particu-lier celle de rapporteur général de la Commission de l’Energie du Plan. Il a dirigé le centre de recherches de Marcoussis d’Alcatel avant d’être nommé directeur Produits et Techniques de Cégélec puis Chief Technology Officer d’ALSTOM. Depuis 2003, il est Associate Partner de KB Intel-ligence, spécialisé dans les ques-tions d’énergie, d’automatismes industriels et de développement durable. Il préside l’ISA-France, section française de l’ISA (Ins-trumentation, Systems & Auto-mation Society). Il est membre émérite de la SEE et membre du comité de rédaction de la REE.

Page 14: Aperçu du numéro 2013-3  de la REE (juillet 2013)

REE N°3/2013 Z 29

LES GRANDS DOSSIERSIntroduction

axé sur la rémunération de l’énergie, livrée ou fournie, sans que soient convenablement rémunérés les services associés au stockage ni même que soient structurellement intéres-sés les opérateurs à son développement. Le tarif de rachat de l’électricité en provenance des énergies alternatives, in-dépendant de la période et des besoins à satisfaire, en est une illustration. Le stockage et l’autoconsommation n’ont aucune chance de se développer dans un tel contexte. Un producteur d’énergie alternative a toujours intérêt à vendre son courant à EDF, même si ce dernier n’en a pas besoin, et

à le racheter éventuellement en tant que consommateur à un prix inférieur, plutôt que de le stocker en supportant les coûts correspondants. L’ouverture des marchés de capacité en 2015 apportera une réponse à certaines préoccupations mais pas à toutes.

Le degré de maturité atteint à la fois par les énergies alter-natives et les systèmes de stockage justifie que soient remis à plat un certain nombre de principes et que des fournitures viennent accompagner une juste rémunération du stockage de l'électricité. Q

Figure 1 : Aménagement d’une STEP entre deux barrages de retenue dans le canton suisse du valais. Crédit photo : Nant de drance 2013.

Le stockage de l’énergie électrique. Panorama des technologiesPar Henri Boyé ................................................................................................................................................................................. p. 30

Le stockage, un enjeu pour l’intégration des énergies renouvelablesPar Olivier Grabette ...................................................................................................................................................................... p. 42

Le stockage des énergies intermittentes. De l’autoconsommation à la grande centrale photovoltaïquePar Nicolas Martin, Marion Perrin ......................................................................................................................................... p. 48

Stocker l’électricité en pompant des gaz. Une introduction aux procédés thermodynamiques de stockagePar Jacques Ruer ............................................................................................................................................................................ p. 56

Stockage d’énergie : une solution dont l’intérêt augmente pour les systèmes électriquesPar Bernard Delpech .................................................................................................................................................................... p. 63

Le stockage de l’électricité dans les systèmes insulairesPar Bernard Mahiou ..................................................................................................................................................................... p. 69

Lithium-ion : état de l’artPar Romain Tessard, Marion Perrin ........................................................................................................................................ p. 77

LES ARTICLES

Page 15: Aperçu du numéro 2013-3  de la REE (juillet 2013)

30 Z�REE N°3/2013

LE STOCKAGE DE L'ÉLECTRICITÉ

Henri Boyé Membre permanent du CGEDD Coordonnateur du Collège Energie et Climat

IntroductionParmi les différentes formes d’énergie (thermique,

mécanique, chimique…), c’est surtout à l’énergie électrique que l’on pense aujourd’hui en évoquant la problématique du stockage de l’énergie. L’électricité est utilisée de plus en plus largement partout dans le monde car c’est un très bon vecteur énergétique qui peut se convertir sous d’autres formes d’énergie avec de bons rendements et être transportée sans pertes significatives sur de longues distances.

Dans tout système électrique, les échanges d’énergie se font à flux tendus, grâce à une gestion en temps réel permanente de la production que l’on aligne sur la demande d’énergie pour maintenir le réseau à l’équilibre. Le stockage fait partie des tech-niques utilisées pour parvenir à cet équilibre mais il a toujours constitué un point faible dans la chaîne d’ali-mentation en énergie électrique allant des centres de productions (centrales électriques) aux centres de consommation : usines, collectivités diverses, activités tertiaires, particuliers… Longtemps consi-déré comme très difficile du fait même de la nature de l’électricité, le stockage de l’énergie électrique est aujourd’hui rendu possible grâce au perfectionne-ment des convertisseurs et des technologies.

Le développement de la production d’électricité d’origine renouvelable, souvent intermittente (solaire ou éolien), pose problème au gestionnaire du réseau électrique car ce type de production ne permet pas de garantir à lui seul l’équilibre offre/demande néces-saire au bon fonctionnement des réseaux et engendre un risque réel d’instabilité. La question du stockage de l’électricité est donc d’actualité car pour permettre le développement et l’insertion des énergies renou-velables à une échelle importante, il faut trouver des solutions pour stocker l’énergie électrique.

Stocker l’énergie électrique permet d’en disposer lorsque la production est interrompue ou insuffisante. Le stockage permet d’assurer la continuité du service, de faire face aux pointes tout en minimisant la puis-sance de production installée. D’une manière plus générale, la mise en œuvre de moyens de stockage permet de rendre plusieurs types de service :

-duction, améliorer la rentabilité. A noter que le stoc-kage est d’autant plus rentable qu’il écrête le haut de la pointe de consommation.

Pour approfondir le sujet du stockage de l’énergie, on peut l’aborder par deux approches différentes : à partir des applications nécessitant un stockage d’éner-

Le stockage de l’énergie électriquePanorama des technologies

Energy storage is a challenging and costly process, as electricity can only be stored by conversion into other forms of energy (e.g. potential, thermal, chemical or magnetic energy). The grids must be precisely balanced in real time and it must be made sure that the cost of electricity is the lowest possible. Storage of electricity has many advantages, in centralized mass storages used for the management of the transmission network, or in decentralized storages of smaller dimensions. This article presents an overview of the storage technologies: mechanical storage in hydroelectric and pumped storage power stations, compressed air energy storage (CAES), flywheels accumulating kinetic energy, electrochemical batteries with various technologies, tradi-tional lead acid batteries, lithium ion, sodium sulfur (NaS) and others, including vehicle to grid, sensible heat thermal storage, superconducting magnetic energy storage (SMES), super-capacitors, conversion into hydrogen... The different technologies are compared in terms of cost and level of maturity. The development of intermittent renewable energies will result in a growing need for mechanisms to regulate energy flow and innovative energy storage solutions seem well positioned to develop.

ABSTRACT

Page 16: Aperçu du numéro 2013-3  de la REE (juillet 2013)

REE N°3/2013 Z 31

Le stockage de l’énergie électrique. Panorama des technologies

gie ou à partir des technologies permettant un tel stockage. La correspondance entre ces deux approches s’exprime en termes de puissance, d’énergie et de temps de déstockage.

On peut aussi classer les stockages en deux catégories, sui-vant que les stockages sont centralisés – dans ce cas ils sont directement connectés au réseau et associés à la production ou au transport d’énergie – ou bien décentralisés et alors di-rectement associés à l’utilisation de l’énergie électrique.

Les stockages centralisés sont en règle générale mas-sifs et sont utilisés pour la gestion du réseau de transport afin d’équilibrer en temps réel la production et les demandes variables de façon journalière, hebdomadaire ou saisonnière et, dans le futur, pour sécuriser la production face aux fluctua-tions d’une production importante et nécessairement inter-mittente d’énergie électrique d’origine renouvelable.

Les stockages décentralisés sont de dimensions plus modestes et viennent en appui d’applications stationnaires précises, alimentation électrique sans coupure, stockage pour pallier localement l’intermittence d’une source d’éner-gie renouvelable, ou répondent aux exigences particulières des applications mobiles dans les transports.

Dans la suite de cet article, nous avons choisi l’approche par technologie en allant vers les applications, sachant que d’autres articles du présent dossier parlent quant à eux des applications. On se limitera aux stockages dont l’impact, di-rect ou indirect, sur la gestion des réseaux est significatif, sans aborder par conséquent le problème des stockages décen-tralisés de très faible capacité pour les moyens informatiques portables, les téléphones, l’outillage, etc.

Considérations générales sur le stockageAperçu sur les technologies

Différentes technologies plus ou moins matures existent

majeure partie à convertir l’électricité sous une autre forme d’énergie plus facilement stockable. Les modes de stockage direct de l’énergie électrique, tels que les bobines supra-conductrices, sont très limités mais on sait stocker l’énergie mécanique, l’énergie thermique et l’énergie chimique avec des performances et des coûts qui dépendent de la solution considérée. Suivant la taille du stockage et la forme d’énergie stockée, la technologie sera plus ou moins apte à remplir une fonction donnée. Les principales solutions de stockage d’élec-tricité sont présentées ici selon la forme d’énergie stockée.

Parmi les solutions qui peuvent être envisagées, nous

de transfert d’électricité par pompage), aux stockages par air comprimé (Compressed air energy storagevolants d’inertie, aux batteries, aux stockages thermiques, à

l’hydrogène et aux stockages électromagnétiques. Aucune de ces solutions n’est entièrement satisfaisante à elle seule, en raison notamment de la capacité de stockage offerte ou de l’inadéquation au site naturel. Le savoir-faire du gestion-naire de réseau d’électricité consiste à équilibrer l’offre et la demande locale en jouant sur l’interconnexion entre régions ou pays par des lignes à très haute tension mais aussi sur la capacité de mise en route rapide de certains générateurs d’électricité dont les stockages font partie en complément ou en compensation d’autres.

Principes de gestion des réseaux

Le stockage est un moyen, mobilisable en temps réel, de fournir l’énergie électrique au coût minimum. L’énergie élec-trique fournie au réseau provient de centrales de différents types :

de l’eau, hydrauliques de lacs, thermiques au charbon, tous

d’eau gravitaire, centrales thermiques à turbines à gaz, ther-miques à turbines à gaz en cogénération chaleur/électricité,

l’énergie électrique de base aussi bien que de pointe mais de façon intermittente.

Chaque type de centrale a un prix de revient du kWh différent.

Le premier principe de gestion de l’énergie électrique sur le réseau est de parvenir à équilibrer exactement, en temps réel, la quantité d’électricité délivrée par les diverses centrales, y compris par les stockages, avec la puissance et

-tuante, le prix de revient de l’électricité varie à chaque instant suivant la configuration des centrales en production effective.

Le second principe de gestion est de faire en sorte que le prix de revient de l’électricité soit toujours le plus bas possible : dans ce but, le gestionnaire du réseau doit choisir en temps réel, parmi l’ensemble des moyens de production éligibles, la configuration optimale à mettre en production et celle à tenir en réserve.

Les centrales hydrauliques et plus spécialement les cen-trales de pompage du fait de leur réversibilité, présentent beaucoup d’intérêt en tant que réserves potentielles d’éner-gie facilement accessibles et ajustables, d’autant que le prix de revient du kWh produit est plus faible que celui des cen-trales au gaz puisque, d’une part il n’y a pas de prix de com-bustible à payer et d’autre part, la quantité de CO2 rejetée dans l’atmosphère est nulle.

jphauet
Rectangle
Page 17: Aperçu du numéro 2013-3  de la REE (juillet 2013)

84 Z�REE N°3/2013

!!!!!!!!!!! RETOUR SUR

Frédéric Barbaresco Thales Land & Air Systems

Introduction« Constater que les théories les plus parfaites sont

les guides les plus sûrs pour résoudre les problèmes concrets ; avoir assez confiance en sa science pour prendre des responsabilités techniques. Puissent beaucoup de mathématiciens connaître un jour ces joies très saines, quelque humbles qu’ils les jugent ! »Jean Leray.

Les précurseurs : Léonard de Vinci, Reynolds, Navier, Kolmogorov et Poincaré

L’Histoire de l’étude des tourbillons de sillage re-monte aux premiers travaux de Léonard de Vinci qui fut le premier à analyser la formation de tourbillons dans l’eau ou l’air et les écoulements autour d’un obs-tacle. C’est lui qui donna le nom actuel de « turbu-lence » à ces phénomènes. Le champ sémantique latin (“turbo”) ou grec (“turbei”) du mot « turbulence » est riche de significations : turbo (tumulte, tourbillon), tur-bidus (agité, désordonné), turbinatio (toupie)… Son apport ne se place pas tant sur le domaine théorique, mais sur une analyse détaillée du phénomène, qu’il a décrite à l’aide de dessins très précis. En observant l’écoulement des torrents, de l’Arno, il remarque que : « Les petits tourbillons sont presque innombrables et les grands tourbillons sont mis en rotation que par les grands, non par les petits, tandis que les petits tour-billons le sont à la fois par les grands et les petits ».

On retrouve au 17e siècle, dans la pensée de Descartes et dans son ouvrage « Le monde ou un traité sur la lumière » des conceptions cosmologiques d’un univers composé d’une infinité de particules en interaction dont les mouvements et les collisions donnent naissance à des tourbillons qui entraînent

les planètes dans leur course et dont le mouvement rapide au centre produit la lumière des étoiles. Il écrira l’ouvrage « Piroüettes & tourbillons des cieux ».

Il faut ensuite attendre Osborne Reynolds en 1883, qui étudia théoriquement les conditions d’écoulement des fluides dans des tuyaux et les limites du passage d’un mode « laminaire » à un mode « turbulent ». Il montra que les conditions d’écoulement dépendent de la vitesse de l’écoulement, de la géométrie des obstacles et d’une propriété du fluide appelée « viscosité cinématique » qui mesure sa résistance au mouvement. En parallèle, autour de 1821, un mathématicien français, Claude Louis Marie Henri Navier (1785-1836), établit sur la base d’équations aux dérivées partielles, à partir de la situation simpli-fiée étudiée auparavant par Euler, la description com-plète du mouvement d’un fluide. Il faut également noter le nom du français polytechnicien Adhémar Barre de Saint-Venant (1797-1886) qui les avait dé-duites de manière aussi rigoureuse deux ans plus tôt.

Il faudra attendre ensuite 1941 et les travaux du mathématicien russe Kolmogorov qui permirent de passer d’une analyse globale des turbulences à une analyse individuelle de chaque tourbillon en terme de taille et d’énergie. Il explique ainsi comment un tourbillon de grande taille se scinde en plus petits élé-ments qui se divisent à leur tour en « cascade turbu-lente » dont il analysa l’évolution des vitesses. Landau, Kolmogorov, Arnold et l’école des mécaniciens russes développèrent ainsi la théorie ergodique et la théorie statistique de la turbulence homogène et isotrope.

Henri Poincaré, dont on a fêté en 2012 le cen-tenaire de la mort, écrivit un ouvrage « Théorie des tourbillons », dont le contenu rédigé par M. Lamotte constituait des leçons professées pendant le deu-xième semestre 1891-1892. On peut y lire dans son introduction : « Les mouvements tourbillonnaires pa-raissent jouer un rôle considérable dans les phéno-mènes météorologiques, rôle que Helmholtz a tenté

Compréhension et maîtrise des tourbillons de sillage Cinq siècles d’aventures de Léonard de Vinci à Jean Leray

Page 18: Aperçu du numéro 2013-3  de la REE (juillet 2013)

REE N°3/2013 Z 85

Compréhension et maîtrise des tourbillons de sillage Cinq siècles d’aventures de Léonard de Vinci à Jean Leray

de préciser. On a tenté aussi de trouver, dans l’existence de pareils mouvements tourbillonnaires, l’explication mécanique de l’univers. Au lieu de se représenter l’espace occupé par des atomes que séparent des distances immenses vis-à-vis de leurs propres dimensions, sir William Thomson admet que la matière est continue, mais que certaines portions sont ani-mées de mouvements tourbillonnaires, qui, d’après le théo-rème de Helmholtz, doivent conserver leur individualité ».

L’apport de Jean Leray En parallèle, un jeune mathématicien français, Jean Leray

(1906-1998) (figure 1), originaire de Nantes, travaillait sur les tourbillons de sillage [1, 2, 3]. Né le 7 novembre 1906 à Chantenay, son père, instituteur à l’école publique l’initie aux sciences dès son plus jeune âge (sa mère dirige l’école pri-maire de filles). Il fait toutes ses études secondaires au lycée Clémenceau (1917-1925) jusqu’à la classe de mathématiques spéciales préparatoires de Paul Francillon. Son palmarès est impressionnant ; il remporte aussi des accessits au concours général (en mathématiques, en première et en terminale). Je me souviens d’ailleurs que lorsque j’étais en prépa Math Sup/Spé à Clems dans les années 80, lorsqu’on parlait des plus brillants élèves nous ayant précédé sur les bancs du lycée, venaient à l’esprit assez naturellement les noms de Julien Gracq (Louis Poirier) en littérature et de Jean Leray en mathématiques. Après la classe de mathématiques spéciales à Rennes, il entre à l’ENS Ulm en 1926. Boursier d’études, il séjourne durant l’hiver 1932-1933 à l’université de Berlin qu’il quitte dès avril 1933 pressentant la montée du nazisme. Il sou-tient sa thèse de doctorat en mécanique des fluides en 1933 sous la direction d’Henri Villat.

Jean Leray était fasciné par ce spectacle qu’il avait dû observer longuement le long des berges de la Loire ou de la Sèvre nantaise. Il écrivit lorsqu’il poursuivit ses études à Paris à l’École Normale Supérieure, ayant changé de fleuve entre temps : « Observons la Seine en crue, contournant une pile de pont : son écoulement paraît régulier, puis, dans un domaine de plus en plus petit, il s’accélère de plus en plus, alors un choc local dissipe localement une large part de l’énergie en jeu et rétablit le calme ; puis le phénomène se répète ». Il publia ensuite un article qui allait faire avancer de façon profonde la compréhension des équations de Navier et les phénomènes d’écoulement d’un fluide et de tourbil-lons de sillages. Cet article parut en 1934 dans la revue Acta Mathematica sous le titre « Sur le mouvement d’un fluide visqueux remplissant l’espace ». J. Leray y montre que les

équations de Navier dans l’espace à trois dimensions ont tou-jours une solution faible avec des propriétés de croissance appropriées, l’unicité des solutions faibles des équations de Navier n’étant pas connue (pour l’équation Euler, l’unicité de solutions faibles est de façon saisissante fausse). Il s’agissait de la première avancée très significative, permettant de don-ner un cadre conceptuel renouvelé.

Jean Leray publia d’autres articles sur les tourbillons de sillage comme « Les problèmes de représentation conforme d’Helmholtz ; théories des sillages et des proues » en juillet 1935. Malgré les conseils de prudence qui lui sont prodigués par Henri Lebesgue : « Ne consacrez pas trop de temps à une question aussi rebelle. Faites autre chose », Jean Leray persévéra et écrivit à ce propos quelques années plus tard : « Dans des cas généraux et importants, j’ai réussi, grâce à la notion d’ensemble compact, à déduire des seules ma-jorations a priori l’existence, indépendamment de toute hypothèse d’unicité ; j’ai pu ainsi développer une analyse de la théorie des liquides visqueux qui n’avaient été qu’amor-

cée par l’école de M. Oseen, effectuer une discussion de la théorie des sillages et des jets dont Levi-Civita et H. Vallat avaient signalé les difficultés et l’intérêt, enfin donner des conclusions complètes à la célèbre discussion du problème de Dirichlet qu’avait faite M. Bernstein ».

Ainsi, J. Leray nous montre que le mouvement devient turbulent au mo-ment où la solution régulière laisse place

à une solution faible qui peut avoir du tourbillon (vorticité) t�= rot(u) infini en certains points. Il est impressionnant au-jourd’hui de constater que le nom de Jean Leray reste in-connu du plus grand nombre alors qu’il a été professeur au Collège de France de 1947 à 1978, membre de l’Académie des Sciences ainsi que de 12 académies étrangères et qu’il a obtenu les prestigieux prix Wolff en (1979) et la médaille d’or Lomonossov en (1988). Jean Leray est sans conteste l’un des plus grands mathématiciens du 20e siècle dont les travaux majeurs ont marqué la dynamique des fluides et les équations aux dérivées partielles, les fonctions de plusieurs variables complexes et la topologie algébrique (avec la créa-tion de la théorie des faisceaux). Mobilisé en 1939, avec le grade d’officier dans la défense aérienne, fait prisonnier dans les Vosges en 1940 et interné dans l’Oflag XVII-A en Autriche (où il créé, avec des élèves de Polytechnique, une universi-té de captivité pour les jeunes prisonniers), Jean Leray, afin d’être absolument certain que ses recherches ne puissent pas bénéficier à l’effort de guerre allemand, délaisse la méca-nique des fluides pour se consacrer à la topologie algébrique.

Figure 1 : Jean Leray.

jphauet
Rectangle
Page 19: Aperçu du numéro 2013-3  de la REE (juillet 2013)

REE N°3/2013 Z 89

Directeur de l'aéroport Paris-Charles de Gaulle

ENTRETIEN AVEC FRANCK GOLDNADEL

REE : L’aéroport de Paris-Charles de Gaulle est l’un des plus grands aé-roports au monde. Pouvez-vous nous en donner quelques chiffres-clés ? F. G : Effectivement, l’aéroport Charles de gaulle se situe aujourd’hui au 7e rang mondial avec 62 millions de passagers par an, derrière Los Angeles et devant Dallas. Il est 2e en Europe derrière Heathrow qui accueille 70 millions de passagers. Au total, Aéroport de Paris dont nous dépen-dons traite chaque année 88 millions de passagers sur ses plates-formes de Roissy et d’Orly, c’est-à-dire à peu prés autant qu’Atlanta, premier aéroport mondial avec 95 millions de passagers.

62 millions de passagers, cela veut dire 500 000 mouvements d’avions par an, c’est-à-dire en moyenne un mouve-ment par minute avec des pointes beau-coup plus importantes lors des plages de correspondance qui sont au nombre de 6 dans la journée. Car Roissy est un hub et 20 millions de nos passagers sont en correspondance. Aucun autre aéroport en Europe n’offre des possibili-tés de transit équivalentes. Elles profitent bien sûr à l’alliance Air France/Skyteam mais bien d’autres compagnies bénéfi-cient également de la souplesse offerte par Charles de Gaulle, y compris Easyjet, notre second client.

Il faut aussi tenir compte du fret, très important à Roissy. Nous avons la chance de servir de hub à Fedex depuis une trentaine d’années et avec 34 000 mouvements par an, nous sommes lea-ders en Europe du trafic fret et poste.

REE : Comment voyez-vous l’évolu-tion de l’aéroport au cours des pro-chaines années ?

F. G : Le trafic continuera à coup sûr à être orienté à la hausse. Nous avons retrouvé dès 2011 le niveau de trafic qui avait bais-sé en 2009 de 5 % du fait de la crise éco-nomique. Il est rare que la crise survienne au même moment partout dans le monde et il y a donc un certain lissage. Nous pen-sons qu’une perspective de croissance à

moyen terme du trafic passagers de 3 à 4 % par an ne semble pas irréaliste, moins forte cependant sur le trafic domestique du fait de la concurrence du TGV. Nos in-frastructures peuvent, mieux que d’autres aéroports en Europe, nous permettre de faire face à une croissance de ce type sans qu’il soit nécessaire d’engager des exten-sions majeures.

Je rappelle que le développement des très gros porteurs et l’amélioration du taux de remplissage des avions nous permettent de faire face à l’augmen-tation du trafic sans pour autant aug-menter le nombre de mouvements. De 2009 à 2012 par exemple, le nombre de passagers a cru de 6,4 % mais dans le même temps le nombre de mouve-ments a décru de 5,1 %. Bien sûr, il faut accueillir et traiter ces passagers mais le problème d’une infrastructure nouvelle ne se pose pas avant 2022/2023.

REE : ADP et l’aéroport CDG en par-ticulier sont-ils parties prenantes au projet européen de « Ciel unique » et au projet SESAR en particulier ?F. G : Le projet « Ciel unique » est essentiel pour nous et nous sommes en première ligne. Je rappelle que dans le trafic aérien, il y a trois grandes catégories d’acteurs : les aéroports, les organismes de contrôle aérien et les compagnies aériennes. L’un ne va pas sans les autres, tout se tient

et il est essentiel de parvenir au niveau européen à une gestion intégrée de l’en-semble du trafic. Vous imaginez bien que la prise en charge de bout en bout d’un mouvement aérien, par optimisation des vols et du traitement au sol des avions, puisse permettre de dégager des gains de performance substantiels, notamment en termes de ponctualité.

C’est nécessaire car l’Europe est une plaque tournante du trafic aérien dans le monde et on y compte quatre aéro-ports avec plus de 100 mouvements par heure : Paris, Francfort, Heathrow et Amsterdam.

REE : Qu’est-ce que ces projets pourraient changer pour l’aéroport ? Lorsqu’on fréquente les grands aéro-ports américains (Atlanta, Chicago, Dallas), on a parfois l’impression que le trafic y est plus dense qu’à Roissy. Est-ce une réalité ? F. G : Roissy essaie d’être l’un des aéroports leaders en matière de qua-lité de service. Nous avons été labellisé A-CDM (Airport Collaborative Decision Making) en 2010, c’est-à-dire que nous avons mis en place des procédures qui permettent, en temps réel, de tirer le meilleur parti des ressources existantes. Si un créneau de vol ne peut pas être respecté, on essaie immédiatement d’en retrouver un nouveau, compte tenu du trafic réel observé.

Le temps de roulage sur les pistes est un critère essentiel. Nous l’avons ramené à Roissy de 18 min à 15 min en l’espace de trois ans. C’est un excellent résultat. Les grands aéroports américains se si-tuent loin derrière. Quant aux cadences de décollage, nous n’avons rien à leur envier, sachant que de toute façon la dissipation des turbulences impose des intervalles minimum entre deux avions.

REE : Un grand aéroport, c’est tout un ensemble de systèmes annexes

62 millions de passagers en 2012, 7e aéroport

dans le monde, 2e en Europe

CDG n'a pas besoin de nouvelles infrastructure

passager au moins d'ici à 2022/2023

Page 20: Aperçu du numéro 2013-3  de la REE (juillet 2013)

90 Z�REE N°3/2013

qu’il faut savoir gérer : bagages, éner-gie, fluides, sécurité, information des passagers… Quels systèmes vous paraissent les plus critiques ? Quelles innovations technologiques voient le jour aujourd’hui ?F. G : Effectivement un aéroport est une très grosse machine et il lui faut en pre-mier lieu de l’énergie. Nous avons 80 MW de puissance installée qui assurent l’ali-mentation de trois sous-systèmes :

du trafic. Sur ce réseau nous devons être capables, en cas d’incident de prendre le relais en instantané. Nous assurons le secours aéronautique 24h/24 sans interrup-tion grâce à des machines placées en réserve tournante et capables de fournir immédiatement le courant secouru.

des bâtiments recevant du public. Cela inclut les éclairages de sécurité et les systèmes de lutte contre l’incendie.

Nous devons assurer pour tous ces équipements une alimentation pen-dant au moins une heure à compter de l’incident. Ce délai est suffisant pour nous permettre de faire évacuer si cela était nécessaire ces bâtiments. Le se-cours est assuré par des turbines et par des batteries.

reste : éclairage, conditionnement, ban-ques d’enregistrement, etc. Il n’est pas prévu de secourir ces équipements à 100 % et nous avons un plan de déles-tage en cas d’incident.

REE : Quel effort faites-vous pour développer les énergies vertes ?F. G : Je vous rappelle qu’à Orly, j’avais eu l’occasion de mettre en service un

système de géothermie. Ici, à Roissy, nous avons installé une chaufferie à bio-masse qui couvre 25 % des besoins de chaleur du site. Nous avons aussi réfléchi au photovoltaïque car nous avons de l’espace, mais le problème des reflets est très bloquant.

Nous avons fait un gros effort sur le véhicule électrique en ayant recours, à une flotte de voitures de plus en plus importantes pour les besoins du service.

Le tractage des avions est un pro-blème important. Nous sommes partie prenante à un projet de développement de « Taxibots » qui sont des tracteurs d’avion venant se loger sous l’avant de l’appareil et dont le pilote prend directe-ment le contrôle pour propulser et diri-ger l’avion. Les Taxibots sont équipés de moteurs électriques actionnant chacune des roues. Ils permettront une économie considérable de carburant et une réduc-tion des émissions de CO2. Le problème qui reste à résoudre est celui du retour du Taxibot vers son point d’attache après que l’avion a eu recours à ses services.

REE : Parlez-nous du système de tri des bagages.F. G : C’est évidemment un point essen-tiel qui conditionne assez fortement le degré de satisfaction des usagers. Nous utilisons plusieurs systèmes qui reposent soit sur des convoyeurs à bande, soit sur

chariots transportant les bagages placés eux-mêmes sur des bandes transpor-teuses dotées de points d’aiguillage.

Aujourd’hui les bagages sont identi-fiés par code barre mais l’avenir est aux étiquettes radiofréquences du type RFID. Des plots identifient les bagages à leur passage pour leur faire prendre la bonne direction. Notez que là aussi, il nous faut assurer la coordination entre trois inter-venants : la compagnie aérienne, son entreprise sous-traitante en charge de la manutention des bagages et l’aéroport. Le plus gros trieur peut traiter 60 000 bagages par jour avec un taux de bagages mal triés de l’ordre de 2/10 000 (ce qui ne veut pas dire que le bagage soit perdu, bien entendu). La programmation et la gestion de ces systèmes est délicate. Il faut faire très attention à neutraliser rapi-dement toute zone où un défaut survient afin d’éviter que l’incident ne se propage à toute la chaîne. Mais on sait aujourd’hui à tout instant où se trouve un bagage ce qui permet de le sortir rapidement de l’avion au cas où, pour une raison quel-conque, un passager viendrait à ne pas embarquer.

REE : J’imagine que le contrôle des passagers est un autre système très critique.F. G : Bien évidemment et nous entre-tenons sur ce point une coopération étroite avec les services de l’Etat pour

essayer de faire en sorte que le dispo-sitif permette de répondre en perma-nence aux besoins quels que soient les aléas du trafic. Pour assurer la fluidité du contrôle, différentes innovations ont été mises en place. Roissy est l’un des rares aéroports où un contrôle biométrique appelé Parafe a été mis en place et ce gratuitement pour tous les passagers eu-

120 000 bagages par jour dont près de la moitié passent

dans un seul gros trieur avec un taux d’erreur inférieur

à 2/10 000

Contrôles biométriques, reconnaissance automatique

des liquides, traduction automatique

de la signalétique…

Roissy : 80 MW de puissance installée avec une disponibilité

de 100 % pour les applications

les plus critiques

jphauet
Rectangle
Page 21: Aperçu du numéro 2013-3  de la REE (juillet 2013)

REE N°3/2013 Z 93

ENSEIGNEMENT & RECHERCHE

Didier Marquis Président du groupe INSA Directeur de l’INSA de Toulouse

Introduction

C ette présentation du groupe INSA, rédigée à l’intention des lecteurs de REE, s’efforce de ne pas insister sur les caractéristiques partagées par toutes les écoles françaises

d’ingénieurs (attention portée aux travaux personnels et aux stages, importance accordée aux langues et à l’ouverture socio-économique, dialogue multiforme avec les milieux économiques…) Ce sont après tout des exigences de la Commission des Titres d’Ingénieur (CTI), longtemps présidée par Louis CASTEX, mon prédécesseur à l’INSA de Toulouse. Leur mise en œuvre, spécifique de chaque éta-blissement, est d’ailleurs vérifiée tous les six ans à l’occasion des habilitations périodiques de la CTI !

Un peu d’histoireLe premier INSA a été créé à Lyon en 1957 par le philosophe

Gaston Berger et le recteur Jean Capelle : il répondait à la volonté d’accompagner le développement de l’enseignement supérieur et la démocratisation des études. Cette création tenait compte également des perspectives démographiques (le baby-boom !) comme de la nécessité de mieux répartir sur le territoire les formations d’ingénieur. Les deux INSA suivants ont également été des créations, à Toulouse puis à Rennes. Ensuite les nouveaux INSA ont été des transforma-tions, d’ailleurs profondes, d’établissements antérieurs et le sixième INSA, actuellement en cours de gestation relève de cette même logique.

Les INSA sont des écoles d’ingénieurs publiques fondées sur des valeurs sociales imprégnant encore aujourd’hui fortement leur gou-vernance, quelles que soient les spécificités ou les origines de l’éta-blissement. Les INSA sont nés d’une ambition : ouvrir les carrières d’ingénieur à des jeunes issus de territoires et de milieux sociaux qui jusque-là n’accédaient pas à ces métiers. Depuis leurs créations, ils sont restés fidèles à ce dessein : si près de 35 % des étudiants sont boursiers, c’est le reflet d’une volonté !

INSA est devenu au fil des décennies une marque, de plus en plus connue et reconnue ; il n’est pas inutile de revenir sur l’intitulé complet : Institut National de Sciences Appliquées. Institut ren-voie au caractère pluridisciplinaire de chacun des établissements ; National évoque à la fois le caractère du recrutement majoritaire et l’aménagement du territoire que constitue désormais notre Groupe. Sciences appliquées renvoie au caractère professionnel de nos for-

mations. A sa création, l’INSA de Lyon devait de se démarquer des facultés des sciences, temples des sciences fondamentales, et il avait pour ambition de fournir à l’industrie des cadres compétents : ces orientations perdurent et même si la recherche s’est très largement développée, la majorité des 78 000 anciens de nos établissements exercent (ou ont fait leur carrière) dans le secteur privé.

Le mode de sélection d’un établissement est toujours important car il reflète largement la stratégie. C’est à dessein qu’à l’origine les INSA ont recruté sur dossier et non pas sur épreuves – de jeunes bacheliers : c’était une double façon de se démarquer des filières alors presque exclusives des ‘’Grandes Ecoles’’ recrutant au terme des classes préparatoires. Là encore, les divers INSA restent fidèles à ces principes et, parmi les très bons dossiers scolaires, la motiva-tion reste un critère déterminant. Les INSA valorisent les scientifiques d’excellence et accordent une grande place aux profils originaux.

Simultanément et progressivement, les établissements se sont ouverts à des publics nouveaux. Les filles d’abord, autrefois peu nombreuses sur les campus comme dans les débouchés indus-triels, constituent à présent près de 30 % des effectifs. Les étudiants étrangers représentent près d’un quart des promotions grâce à une politique très active d’échanges internationaux. Un accompagne-

INSA : six écoles, un groupe !Un modèle de grande école d’ingénieurs,

fondé sur des valeurs d’ouverture et de diversité

La création des INSA

Encadré 1 : Dates-clé de la création des INSA.

Page 22: Aperçu du numéro 2013-3  de la REE (juillet 2013)

94 Z�REE N°3/2013

ENSEIGNEMENT & RECHERCHE

ment particulier est également proposé pour que des jeunes souf-frant d’un handicap puissent suivre nos formations

L’émergence du groupe INSA et ses actions concertées

Établissements publics placés sous la même tutelle du ministère de l’Enseignement Supérieur et de la Recherche, les INSA partagent, depuis leur création, une vision commune :

sociale, équilibre hommes/femmes, ouverture internationale, prise en compte du handicap…) ;

humaines, culture et sport) ;

La similitude de leurs modes de recrutement, comme l’intérêt de partager plus largement leurs expé-riences, ont poussé à une conception plus riche et plus active de la notion de groupe. Désormais les six écoles ont adopté un logo commun, qui sert

de bannière pour des actions communes, lesquelles ont concerné d’abord la communication et le recrutement, ensuite la recherche et sa promotion auprès des pouvoirs publics comme des entreprises.

Les recrutements communs du groupe INSAAvec au total près de 3 000 recrutements annuels, conduisant

à chacune des quatre premières années de leur cursus de cinq ans (la durée minimale pour obtenir un diplôme d’ingénieur en France est de deux ans dans l’établissement diplômant), les INSA concré-tisent leur attractivité et représentent désormais environ 10 % des ingénieurs formés en France.

Les deux recrutements essentiels se situent après le bac (pour

environ les deux tiers des flux) ou après un cursus réussi de niveau bac + 2 (plus d’un quart du total) : ces deux recrutements sont com-muns, ce qui est unique en France. Un gigantesque travail d’analyse de dossiers, complété par des entretiens destinés à juger essentielle-ment la maturité des projets et la motivation, conduit pour ces deux flux à des classements uniques :

-registrés et analysés avant même les résultats de l’examen ; les meilleurs dossiers sont sélectionnés sans entretien, sous la seule condition de réussite au bac ! Cela conduit finalement à une liste unique de plus de 2 000 noms ; les affectations dans les écoles se font, comme pour les lauréats des concours des classes prépara-toires, par un service central appliquant un algorithme garantissant à chacun le meilleur choix de sa liste de préférences, compatible avec l’équité… et avec les classements de tous les établissements recrutant au niveau du bac. Finalement presque tous les admis ont une mention, et pour la moitié une mention TB, ce qui est considérable (10 % des bache-liers obtiennent cette mention d’excellence).

e année du cursus ; ils ne sont guère que 700 à intégrer les INSA, surtout issus

Les autres recrutements (en 2e e année) restent spécifiques aux écoles.

Les actions du Groupe INSA en matière de promotion et de recherche

INSA publie un rapport d’activité annuel, fort documenté.-

ter d’un portail unique de mise en relation écoles-entreprises : « PlaceOjeunes » est devenu le premier site français mutualisé d’offres de stages et de premier emploi, permettant de mieux ré-

jphauet
Rectangle
Page 23: Aperçu du numéro 2013-3  de la REE (juillet 2013)

REE N°3/2013 Z 101

O n parle beaucoup du numé-rique ces temps-ci ! Parmi les ouvrages de qualité qu’ins-pire la révolution éponyme,

nous avons été intéressés, séduits même par deux essais récents, qui donnent à lire, mais surtout à réfléchir. Les deux ouvrages présentent des caractéristiques communes ; ils sont écrits par des spécialistes de sciences humaines plus que par et pour des ingé-nieurs ou scientifiques, même si nombre des auteurs coordonnés par Francis JUTAND, et l’intéressé lui-même, ont une solide forma-tion technique. Ce qui caractérise l’ensemble des auteurs, c’est la proximité humaine et professionnelle avec ce qui s’élabore dans les laboratoires ou les bureaux d’études, avec ce qui s’expérimente en matière de TIC dans les secteurs les plus dynamiques et les plus innovants de la société contemporaine.

Il s’agit aussi de livres collectifs : c’est évident pour le premier, dont chaque cha-pitre est écrit par un spécialiste différent, après une riche introduction du coordon-nateur ; c’est vrai aussi pour le second, où deux anciens complices du site www.lemonde.fr, ont largement tenu compte de leur riche environnement culturel, mais aussi parce qu’ils ont conçu leur ouvrage comme neuf études largement indépen-dantes, chacune se plaçant sous l’inspira-tion et le patronage d’un auteur classique, emblématique du champ abordé : c’est ainsi que la société numérique est analy-sée sous l’autorité tutélaire d’André Malraux, de Boris Vian, de Tocqueville, d’Antoine Blondin, de Michel Houellebecq, de Karl Marx et de quelques autres qui ont su pen-ser la société de leur temps et poser des questions pour lesquelles les réponses nu-mériques sont encore à écrire ou à préciser.

Bref les deux ouvrages se lisent comme des suites d’essais, largement indépendants et pouvant, au gré des humeurs, être lus – et relus – sans ordre préétabli. Cela fait leur charme, et ce qu’on en apprend est toujours stimulant, mais cela constitue aussi la limite de l’exercice : le changement d’auteur ou de point de vue ne garantit guère la conti-nuité de l’argumentation, ni la cohérence d’ensemble, telle que peut la souhaiter

le lecteur ; il induit des répétitions ou des redondances, des colorations spécifiques, voire des divergences qui laissent parfois un peu songeur…

La métamorphose numérique qui sourd de toutes parts sera la quatrième de l’his-toire humaine, après l’émergence de sapiens sapiens, après la constitution d’états et de sociétés organisées, après la révolution industrielle et la maîtrise de la nature ; elle

peut être celle de l’homme, en tant que sujet et individu : comme métamorphose, elle concernera les champs les plus variés, de l’économique au culturel, de la sphère productive à celle des échanges. Son avè-nement ne sera effectif que grâce à l’appro-priation individuelle autant que collective des réseaux, auxquels chacun désormais se connecte. Elle sera planétaire, ou tragique-ment incomplète.

Il s’agit donc avant tout, dans chacun de ces ouvrages, de prospective, c’est-à-dire de récits d’un possible avenir, cohérent avec ce que l’on sait et observe des mutations enta-mées, mais encore largement inachevées. Le sens des évolutions est sans conteste dans chaque chapitre ou contribution large-ment dégagé, mais l’empathie des auteurs pour leurs sujets respectifs les conduit à évoquer plus le foisonnement et la richesse potentielle de ce qui devient possible ou souhaitable, que les risques d’appauvrisse-ment culturel ou de conflits économiques. On aimerait ici ou là un peu plus de dia-lectique, de référence à la complexité des sociétés ou à l’âpreté des enjeux : on songe au souffle qu’Edgar Morin ou Michel Serres auraient donné s’ils s’étaient emparé de telle ou telle problématique ! Comme il est souligné à plusieurs reprises, on observe à la fois accélération des évolutions, que les innovations technologiques promeuvent ou stimulent, et déstabilisation des équilibres, des fondements et des valeurs des sociétés. Ce qui peut surgir de ce double mouvement, est dicible mais largement inédit : on ne sait pas, ou bien mal, ce que seront les nouveaux équilibres, mais on pressent, après Prigogine, qu’ils sont potentiellement fort éloignés de ce qui a fait l’essence, le charme ou l’effica-cité de nos sociétés…

Ces incertitudes sont une raison supplé-mentaire de s’attacher aux recommandations conclusives, aux sept portes pour un avenir numérique, cognitif et humain, qui, mises en œuvre, peuvent nous rapprocher de la société de la connaissance et de la coopéra-tion. C’est au terme de mues répétées et de métamorphoses partielles, de bifurcations et de branchements, d’espérances déçues et d’espoirs renaissants que le numérique tiendra ses promesses : il faut se féliciter que beaucoup des auteurs de la métamorphose du numérique soient des enseignants-cher-cheurs (souvent au sein de l’Institut Mines-Télécom ou proches de lui). Il est bon que les futurs ingénieurs et managers soient sen-sibilisés à toutes ces questions sociétales : après tout ce sont eux qui seront les artisans des mondes à venir ! Q

B.Ay.

Francis Jutand (0uvrage collectif, sous ma direction)

La métamorphose numériqueVers une société de la connaissance

et de la coopérationÉditions Alternatives Collection manifestô

avril 2013 - 216 p. - 17 F

Jean-François Fogel & Bruno PatinoLa Condition numérique

Éditions Grasset avril 2013 - 224 p. - 18 F

CHRONIQUE

Prospective numérique : utopies ou fatalités ?

Page 24: Aperçu du numéro 2013-3  de la REE (juillet 2013)

102 Z�REE N°3/2013

LIBRESPROPOS

L e Gouvernement a engagé un grand débat sur la transition énergétique afin, selon ses propres termes « d’engager la France dans la transition énergé-tique, fondée sur la sobriété et l’efficacité, ainsi que sur le développement des énergies renouvelables, et plus globalement dans la transition écolo-

gique, en les inscrivant dans les cadres communautaires et internationaux ».

Des instances ont été mises en place, des contributions ont été sollicitées, de nom-breux débats ont été organisés dans toute la France afin de parvenir à un texte législatif à la rentrée prochaine. L’enjeu est important : les décisions qui seront prises influeront pendant de nombreuses années sur la stratégie des pouvoirs publics et sur celle des grands opérateurs du secteur de l’énergie.

La REE n’a pas vocation à prendre position en faveur de telle ou telle orientation politique. Elle est par contre dans son rôle en donnant à ses lecteurs la possibilité de s’informer et de s’exprimer. Dans cet esprit, nous donnons dans ce numéro la parole à deux personnalités éminentes qui disposent de l’expérience et du recul nécessaires pour juger des choses en toute sérénité : Pierre Delaporte, ancien Président d’Electricité de France, et Jacques Maire, ancien Directeur général de Gaz de France.

Nous ne doutons pas que ces contributions, qui n’engagent que leurs auteurs, inci-teront nos lecteurs à prendre la plume et à nous faire connaître leur point de vue. Q

Le comité de rédaction de la REE

La transition énergétique : la REE ouvre ses colonnes…

Page 25: Aperçu du numéro 2013-3  de la REE (juillet 2013)

REE N°3/2013 Z 103

PROPOSLIBRES

Pierre Delaporte Président d’honneur d’Electricité de France

A u plan mondial, les experts sont plutôt d’ac-cord pour distinguer les problèmes essen-tiels et les autres questions importantes mais accessoires. Les problèmes majeurs du

monde de l’énergie peuvent, pour leur part, se résumer selon eux à deux questions.

La première porte sur la mise au point, en vue grâce au ciel, de la voiture propre (très probablement mais pas cer-tainement électrique) car nous serons bientôt neuf milliards d’individus à désirer avec force un véhicule automobile… allemand probablement puisque, comme au football, ce sont toujours eux qui gagnent.

La seconde concerne la neutralisation des effets gravissimes de la consomma-tion du charbon dont nous ne pouvons malheureusement pas nous passer. L’es-poir est permis dans ce domaine grâce aux progrès des études sur la séquestration du CO2 que nous dominerons un jour mais quand et à quel prix ?

Comparés à ces deux problèmes ma-jeurs, les autres questions énergétiques semblent bien secondaires ; il est en effet important mais non vital de savoir si notre production d’électricité comprendra 10, 12 ou 20 % de nucléaire, d’hydraulique ou d’énergies renouvelables (soleil, bois, marées… tristes moulins à vent exclus).

Cette considération, assez morose mais de nature à cal-mer les faux débats entre pro et anti n’importe quoi, n’est vraie qu’à l’échelle mondiale et mérite donc un examen beaucoup plus soigneux au niveau de certaines régions particulièrement dépendantes des fournitures extérieures et tout spécialement de l’Europe occidentale et centrale

Le tour du propriétaire est assez vite fait entre les diverses façons d’y produire un bien devenu vital : l’élec-tricité…

peut être que marginal ;

-blèmes d’acceptabilité ;

-reuses et peu efficaces sauf énormes progrès du solaire.

Reste donc pour l’instant une seule médaille d’or,

mais dont les réserves sont copieuses, le prix encore raisonnable pour l’instant, les dommages à l’environne-ment mesurés et la dangerosité surestimée.

Voilà donc de bons atouts qu’ils soient réels ou seu-lement ressentis et vive le gaz naturel qui a par ailleurs de puissants alliés, conscients ou inconscients, qui œuvrent sans relâche à l’élargissement de son domaine.

On comprend donc bien pourquoi le gaz naturel importé qui représentait il y a une génération environ 10 % de l’énergie consommée en Europe soit mainte-nant la petite bêbête qui monte, qui monte, qui monte.

Sa croissance est, pour une part, nor-male devant le reflux que nous venons de constater de ses concurrents mais résulte également de certains aban-dons du terrain énergétique par des énergies qui ont été victimes de sa-vantes campagnes de dénigrement.

La première concerne le gaz de schiste qui a bouleversé les données du secteur aux USA mais a longtemps été en Europe, à tort et/ou à raison, dia-bolisé au point de refuser de savoir si nous disposons ou non de gisements.

La seconde est l’abandon ou la non réalisation de la production d’électricité par le nucléaire qui est absolu-ment dans les possibilités des pays européens à haut niveau technologique comme la République Fédérale et ses partenaires intellectuels.

Quoi qu’il en soit, le triomphateur est de toute évi-dence Gazprom et la méthode du consensus d’experts donne aujourd’hui, pour une politique au fil de l’eau, une part de gaz russe de 35 % qui n’est pas du tout terrifiante mais paraît un peu excessive. Il semble donc très souhai-table d’infléchir la situation actuelle en classant les actions souhaitables par ordre de difficulté décroissante.

On obtient alors quatre grands axes :1 – Promouvoir des projets de gazoduc évitant et

contournant la Russie et ses satellites et permettant des flux rebours ;

2 – Exploiter les réserves européennes de gaz non conven-tionnel malgré l’opposition farouche actuelle des khmers verts que ceux-ci soient manipulés ou non ;

Timide invitation aux Européens

à accepter, moyennant

un loyer modeste, un purgatoire énergétique

Page 26: Aperçu du numéro 2013-3  de la REE (juillet 2013)

104 Z�REE N°3/2013

LIBRES PROPOS

3 – Développer les activités de stockage souterrain et mutualiser cette activité qui a dans beaucoup de régions un avenir radieux si les sociétés réalisatrices reçoivent des garanties d’emploi qui ne seront rien d’autre que des primes d’assurance ;

4 – Augmenter beaucoup la part du GNL dans l’appro-visionnement de l’Europe en prospectant les zones capables de fournir ce produit dans de bonnes conditions et en multipliant les points d’entrée.

Chaque nouveau terminal méthanier vaut desserre-ment d’un cran de la dépendance vis-à-vis de Gazprom. On peut donc s’attendre à des hostilités locales, sponta-nées souvent, manipulées parfois, et chaque implantation nouvelle sera une victoire sur la voracité du Grand Fournis-seur et la niaiserie de ses associés, involontaires ou pas.

Ce point 4 nous fournit une première conclusion sans panache et volontairement modeste : la priorité des priorités pour l’Europe en matière d’énergie à moyen terme est de multiplier les points d’entrée du gaz naturel en s’ouvrant donc au transport mari-time du GNL qui nous procurerait une indépendance relative à la fois bon marché et sans prix.

« Homme libre, toujours tu ché-riras la mer ».Et après-demain ?

Nous venons de voir que de-main le gaz naturel va occuper une place prépondérante dans le panel énergétique européen.

Il est toutefois peu probable que cette énergie fos-sile et polluante conserve très longtemps cette posi-tion et après-demain, il n’existe que deux réponses possibles ayant toutes les qualités, réponses qui, heu-reusement ou malheureusement, sont différentes en France et en Allemagne.

Les Gaulois ne trouveront leur potion magique que dans le nucléaire de troisième ou énième génération tandis que les Germains vont faire un effort considérable sur le solaire photovoltaïque.

Ce pari sur le solaire n’est ni gagné, ni perdu d’avance. Il y a une génération, cette forme d’énergie était cent fois trop chère, ce qui limitait son emploi à des créneaux mi-nuscules. Elle est aujourd’hui en France, comme toutes les énergies intermittentes, dix fois trop chère, mais le progrès est évident même s’il ne garantit pas un avenir

radieux même dans les pays dénu-cléarisés.

Acceptons en conséquence ce défi et donnons rendez-vous à nos voisins et amis dans vingt ans sous la seule réserve qu’ils nous laissent développer notre propre cocktail énergétique en ne poussant pas au crime leurs croisés verts et bruns.

Une Europe de la coopération est évidemment souhaitable mais une Europe du respect de l’autre serait déjà une avancée tout à fait positive.

Et que le meilleur gagne au bé-néfice de tous… Q

Pierre Delaporte est ancien élève de l’Ecole Polytechnique et Ingénieur général des Ponts et Chaussées. Après un début de carrière au sein du Minis-tère de l’Equipement, puis comme collaborateur de plusieurs ministres, il a été nommé directeur général adjoint de Gaz de France en 1972, puis Direc-teur général en 1979. A partir de 1987, il a présidé le Conseil d’administration d’Electricité de France, jusqu’en 1992.Pierre Delaporte est Commandeur de la Légion d’Honneur et Commandeur de l’ordre national du Mérite.

jphauet
Rectangle
Page 27: Aperçu du numéro 2013-3  de la REE (juillet 2013)

REE N°3/2013 Z 105

PROPOSLIBRES

Jacques Maire Directeur général honoraire de Gaz de France

L ’expression « transition énergétique » a acquis droit de cité et figure en bonne place dans les discours des politiques et les positions des experts mais le sens usuel du mot transition

ne correspond pas au problème de l’énergie.Il ne s’agit pas de définir un chemin entre une situa-

tion à quitter le plus vite possible pour rejoindre un état défini idéal. La situation actuelle n’a rien de dramatique au moins dans les pays développés et personne ne peut définir la situation idéale dans vingt ou trente ans. L’ambition ne peut être que de déterminer les décisions opérationnelles des quelques prochaines années.

L’énergie est un problème de long terme car une dé-cision demande de nombreuses années pour être mise en œuvre mais c’est aussi un monde où les choses changent tout le temps. Per-sonne n’avait prévu l’arrivée des gaz de schistes américains pas plus que les prin-temps arabes. Personne ne peut prévoir les progrès techniques, par exemple dans le solaire ou le stockage de l’électricité.

Aucune des décisions que l’on peut imaginer n’a que des avantages et aucune n’a que des inconvénients. De plus les qualités ou les défauts peuvent varier avec le temps. Il s’agit donc d’être modeste dans les orientations et de penser toujours à la flexibilité, c’est-à-dire à ne pas mettre tous ses œufs dans le même panier.

Dans la société, l’énergie n’est qu’une utilité et non un but en soi. La collectivité et les individus ont des objectifs de bien être, de puissance, de pérennité, etc... pour lesquels l’énergie est nécessaire mais pas l’objectif. On peut aimer les promenades en voiture mais on n’a pas de sentiment pour l’essence, on veut simplement qu’elle ne soit pas trop chère et soit disponible. Si tel est le cas, on n’y pense plus.

Les décisions sur l’énergie doivent donc être prises rationnellement, sans sentiment et sans idée préconçue,

-çant dans les objectifs de la société.

Tout examen doit partir de celui de la situation exis-tante. Or pour notre pays au moins, la situation appa-

raît satisfaisante car nos concitoyens disposent d’une énergie à des conditions de prix et de sécurité plutôt meilleures que les autres pays européens. De plus les besoins sont relativement stables, il ne s’agit donc pas de courir après la demande comme en Inde ou en Chine (ou en France pendant les « trente glorieuses »). Le pro-blème est de voir les inflexions et orientations nouvelles à mettre en œuvre et non pas de développer a priori des moyens de production.

Il faut examiner en premier la situation économique générale. Le pays est en crise comme une bonne partie de l’Europe. En particulier les finances publiques sont en déséquilibre grave et tout le monde reconnaît que les prélèvements obligatoires sont trop élevés. Mais dans beaucoup de scénarios, la politique énergétique est à l’origine d’une forte croissance desdits prélèvements. Logiquement on doit se poser la question de la justifica-tion collective d’une telle orientation. Les prélèvements obligatoires, si malgré tout une augmentation est envisa-

gée, doivent-ils être utilisés pour l’énergie ou pour d’autres domaines tout aussi por-teurs d’avenir (universités, hôpitaux...).

Une politique de l’énergie doit donc commencer par une approche écono-mique, ne serait-ce que parce que les dépenses doivent toujours être couvertes par des recettes. Si le marché ne procure pas ces recettes spontanément, ce sont

les pouvoirs publics qui doivent soit les créer par des prélèvements, soit changer le marché par les lois et règlements.

Les particuliers dans le débat énergétique mettent en premier le prix qu’ils payent car cela impacte leur vie et les entreprises font de même car c’est un élément im-portant de leur compétitivité. A ce stade il est clair qu’il faut tirer le meilleur parti de ce qu’on a et non pas écar-ter a priori des équipements qui donnent satisfaction.

Mais la comptabilité nationale ou celle des entre-prises et individus ne traduisent qu’imparfaitement les problèmes de la société. Le PNB ne traduit pas le bonheur collectif car par exemple la qualité de l’envi-ronnement n’apparaît pas. Il y a eu des réflexions pour améliorer la mesure mais elles n’ont pas atteint le stade opérationnel et ne peuvent donc pas être la base d’une recherche d’optimum. Il faut donc se contenter d’exa-mens pas à pas pour voir comment prendre en compte les objectifs et surtout les contraintes collectives.

Transition énergétique :

quelle est la question ?

Page 28: Aperçu du numéro 2013-3  de la REE (juillet 2013)

106 Z�REE N°3/2013

LIBRES PROPOS

Les pouvoirs publics peuvent agir soit par la voie des impôts ou subventions, dans ce cas la mesure économique apparaît immédiatement, soit par la voie

il importe alors de le calculer et le comparer à l’objec-tif pour juger de son bien-fondé. Par règlements, nous pensons essentiellement à des mesures techniques en excluant des contraintes fortes sur le comportement (rationnement).

Le premier objectif est sans doute la continuité de service, même s'il n’est pas souvent mis en avant. C’est surtout vrai dans l’électricité qui n’est pas stockable. La difficulté est grandissante car la puissance de pointe croît, même si la consommation annuelle stagne. Les énergies nouvelles ajoutent une incertitude par leur intermittence et le bouleversement de l’organisation du marché a dispersé les responsabilités. Les récentes fer-metures de centrales à gaz, de même que les mises en sommeil de stockages gaziers ou la faible activité des terminaux de GNL laissent penser que la fiabilité des réseaux a tendance à se dégrader.

Quant à la vulnérabilité à long terme, les inquiétudes relatives aux disponibilités physiques se sont plutôt estompées. Certains disent même qu’il y trop de res-sources fossiles compte tenu du climat ! Ils restent bien

-versité est la seule orientation opérationnelle.

Le deuxième, dont on parle beaucoup est le chan-gement climatique et la diminution des gaz à effet de serre en particulier du CO2. C’est certainement l’objectif le plus contraignant dans les perspectives énergétiques.

qui varient de 0 pour des disciplines simples de compor-tement à plusieurs, à plusieurs centaines d’euros. Il faut

construction d’installations de pro-duction remplaçant des installations qui marchent est sans doute la voie la plus chère.

Les économies d’énergie consti-tuent la voie ou l’on risque le moins de se tromper même si il y a des

efficacité. Il faut obtenir les bonnes décisions des agents économiques. C’est difficile comme le montre l’échec du marché du CO2 et le rejet

de la taxe carbone ! La taxe est sans doute la voie la plus simple car compréhensible, visible et relativement facile à mettre en place.

Ceci dit c’est un domaine où l’action de la France et même de l’Europe n’est pas déterminante. Notre pays est plutôt bon élève. Il ne faut donc pas handicaper notre compétitivité seulement pour montrer l’exemple.

Le troisième est la place des énergies nouvelles. Il y a de nombreuses opportunités mais ce n’est pas non plus la panacée. Elles sont plus ou moins adaptées aux condi-tions locales. Mais il est certain que leur mise en place constituera un secteur en développement et il est légitime de vouloir y prendre une place mais comment ? Actuelle-ment la promotion se fait par des garanties de prix et de débouchés sans attendre la maturité des techniques. Cela conduit à une désorganisation du marché et à des dépenses publiques considérables et croissantes sur les-quelles on peut s’interroger compte tenu de la situation économique générale.

La protection de l’environnement immédiat tient rela-tivement peu de place dans le débat, pourtant les éner-gies nouvelles sont dévoreuses d’espace et il y a concur-rence avec d’autres besoins. Quant aux paysages, les atteintes qui leur sont portées ne sont traitées que par le biais des autorisations ou refus d’installations sans tenta-tive de valorisation. Pourtant, le blocage de la construc-tion de lignes montre l’importance de la question. La collectivité a jugé utile de consacrer plus d’un milliard d’euros pour enterrer la ligne traversant les Pyrénées ; c’est donc que la préservation du paysage valait plus. La multiplication des installations aériennes (éoliennes ou lignes) et donc l’atteinte croissante aux paysages est un aspect rarement mis en avant.

débats en supposant qu’il puisse y avoir débat car il se fait entre des groupes qui estiment pour les uns que c’est un mal dont il faut se débarrasser le plus vite possible et pour d’autres que c’est une des techniques qui répond le mieux aux objectifs globaux de la société à condition de bien trai-ter les problèmes de la sécurité. La question d’aujourd’hui est de savoir s’il faut anticiper des ferme-tures d’installations qui marchent.

Jacques Maire est ancien élève de l’Ecole Polytechnique et ingénieur au corps des mines. Il a été notamment directeur général de Gaz de France et a occupé plusieurs postes dans la haute fonction publique. Jusque en janvier 2013, il était président du conseil scientifique du Conseil Français de l’Energie, dont il reste membre.

jphauet
Rectangle
jphauet
Texte tapé à la machine
Vous voulez... Vous abonner à la REE ? Acheter un numéro ? Cliquer ICI Ou bien téléphoner au 01 56 90 37 04