aperçu du numéro 2015-3 de la ree (juillet 2015)

34
Numéro 2015 EDITORIAL Les 40 ans de la FIEEC Gilles Schnepp www.see.asso.fr 3 ISSN 1265-6534 LIVRE BLANC La matière noire Par André Deschamps L'ARTICLE INVITÉ DOSSIER

Upload: jean-pierre-hauet

Post on 22-Jul-2016

216 views

Category:

Documents


1 download

DESCRIPTION

Cet aperçu permet de découvrir le sommaire et les principaux articles du numéro REE 2015-3 publié en juillet 2015 - Pour s'abonner, merci de vous rendre à la dernière page.

TRANSCRIPT

Page 1: Aperçu du numéro 2015-3 de la REE (juillet 2015)

ÉNERGIE TELECOMMUNICATIONS SIGNAL COMPOSANTS AUTOMATIQUE INFORMATIQUE

Num

éro

2

015

EDITORIAL Les 40 ans de la FIEEC

Gilles Schnepp

www.see.asso.fr

3

ISSN

126

5-65

34

LIVRE BLANC

La matière noirePar André Deschamps

L'ARTICLE INVITÉ

DOSSIER

jphauet
Zone de texte
Cet aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro 2015-3 de la revue, publié en juillet 2015. Pour acheter le numéro ou s'abonner, se rendre à la dernière page.
Page 2: Aperçu du numéro 2015-3 de la REE (juillet 2015)

REE N°3/2015 Z 1

I l y a deux façons de lire l’histoire, notre histoire.Celle consistant à retracer les grandes étapes de notre vie syndicale et à prendre la mesure des réa-lisations passées, de la richesse de l’héritage ainsi

légué et de marquer le temps pour laisser un témoignage authentique à nos successeurs.Mais il y a aussi celle visant à analyser et projeter cette histoire dans notre avenir collectif, à bien la comprendre afin de capitaliser sur le passé pour bâtir une aventure sans cesse renouvelée, être forts et visionnaires dans un monde dont le mouvement s’accélère.Et si ces deux voies se complètent utilement, c’est bien la seconde qui guide notre réflexion sur les électro-tech-nologies, tant le rôle des industries électriques, électro-niques et de communication est central dans nos sociétés modernes.Cette réflexion commence par un anniversaire : le 1er juillet 1975, les organisations professionnelles représentant les in-dustries électriques et électroniques décident de fusionner pour renforcer leurs actions au service des entreprises de la profession. L’industrie électrique, d’un côté, est déjà centenaire et auréolée des progrès considérables que son essor avait produits sur la civilisation tout au long du XXe siècle.

L’industrie électronique, de l’autre, est un peu plus jeune, mais également en plein essor et déjà fière de grandes réalisations économiques et sociétales. Cette alliance iné-dite des courants forts et des courants faibles vient dès lors sanctuariser la naissance d’un secteur industriel de premier plan pour notre pays. Elle marque le début d’une aventure professionnelle dont les organisations attendent de fortes synergies et retombées bénéfiques en termes de fonction-nement et d’efficacité dans l’action collective.40 ans plus tard, ce qui frappe d’emblée l’observateur, c’est l’incroyable modernité de ce mouvement et son caractère vi-sionnaire. A l’heure où de nouvelles technologies disruptives bouleversent les paradigmes de notre société, les ensei-gnements de ce passé d’innovation et de complémentarité technologique apparaissent particulièrement éclairants.Cette démarche est exemplaire à plus d’un titre. Elle ren-force tout d’abord une conviction forte : celle de l’utilité et de la force de l’action collective pour exploiter au mieux les synergies entre des secteurs industriels très complémen-taires. L’organisation professionnelle devient le vecteur de cette synergie, son berceau et son ferment naturel. Celle-ci permet à l’ensemble d’une profession de par-ler d’une voix unifiée, de mieux anticiper les évolutions majeures de la société pour apporter des réponses

Les 40 ans de la FIEEC

EDITORIAL GILLES SCHNEPP

La FIEEC est une Fédération de l’industrie qui rassemble 24 syndicats professionnels dans les secteurs de l’électri-cité, de l’électronique et du numérique (biens de consommation, biens intermédiaires et biens d’équipement). Les secteurs qu’elle représente regroupent près de 3 000 entreprises (dont 87 % de PME et d’ETI), emploient 420 000 salariés et réalisent plus de 98 milliards d’euros de chiffre d’affaires sur le territoire national dont 40 % à l’export. La FIEEC est membre de l’ORGALIME, du GFI, du MEDEF, de la CGPME et de l’UIMM.

Les industriels des électro-technologies, réunis au sein de la FIEEC (Fédération des industries électriques, électro-niques et de communication) ont mené une réflexion d’envergure en travaillant pendant près d’une année avec de nombreux experts issus notamment des syndicats et entreprises du secteur. Cette démarche prospective a permis à la profession de dégager une vision commune basée sur la complémentarité des technologies électriques, élec-troniques et numériques.

Cette complémentarité accompagne les évolutions constatées dans la plupart des secteurs économiques (smart grids, smart cities, smart buildings, smart home, smart life…). Cette réflexion a donné lieu à la publication d’un document stratégique intitulé « Les industries électro-technologiques au service de la société » qui a été présenté aux Assises de la FIEEC du 25 novembre à l’Assemblée nationale et se poursuit désormais à travers une mise en perspective de l’histoire de la profession dans le document intitulé « FIEEC, une histoire d’avenir » qui a été rendu public à l’occasion de la célébration des 40 ans de la FIEEC, le 1er juillet 2015.

Page 3: Aperçu du numéro 2015-3 de la REE (juillet 2015)

2 Z�REE N°3/2015

pertinentes aux entreprises, aux pouvoirs publics et plus généralement à nos concitoyens.Elle vient, ce faisant, mettre en lumière la prise de conscience de l’interpénétration profonde entre nos indus-tries et la société dans son ensemble.Depuis plus d’un siècle en effet, les électro-technologies riment avec le progrès civilisationnel. Tous les besoins fon-damentaux de notre société ont bénéficié des avancées permises par l’électrification ou, plus récemment, par le déploiement des infrastructures numériques pour notre pays. Ces effets positifs en termes de santé, de sécurité, d’amélioration de la qualité de vie sous tous ses aspects ou de création de richesses et de bien-être, sont aujourd’hui possibles grâce à l’intégration massive des technologies de l’électronique, de l’électricité et du numérique : l’industrie du futur, le développement des objets connectés, les nou-velles formes de mobilité ou l’intégration des technologies dans le bâtiment, sont autant d’exemples qui révèlent que notre profession est non seulement au cœur mais aussi à la source de l’évolution technologique.

Cette position centrale nous confère un rôle sociétal majeur et une responsabilité de poids qui nous incline à poursuivre plus fortement nos actions, innover sans cesse pour demeurer un moteur de progrès pour l’ensemble de la société.Notre profession, guidée par cette conscience des enjeux, est fière de son histoire et résolument ancrée dans l’avenir. Au nom de tous les acteurs de nos industries, saluons les réalisations passées et projetons-nous ensemble dans ce futur enthousiasmant et plein de promesses.Les entreprises, les syndicats professionnels et la Fédéra-tion entendent donc bien amplifier cette force de proposi-tion qui caractérise notre profession pour relever ensemble les nombreux défis du 21e siècle qui nous font face.

Gilles SchneppPrésident de la FIEEC

Fédération des industries électriques, électroniques et de communication

Page 4: Aperçu du numéro 2015-3 de la REE (juillet 2015)

4 Z�REE N°3/2015

sommaireNuméro 3 Āþÿă

1 EDITORIAL Les 40 ans de la FIEEC

Par Gilles Schnepp

4 SOMMAIRE

6 FLASH INFOS Des progrès sur les batteries aluminium-ion7 Obtenir l’image d’un objet avec une lumière qui ne l’a pas éclairé 8 Un ruban souple de diodes éclairantes de 2 mm d’épaisseur 9 Des LED à température de couleur variable avec l’intensité 11 Le champ d’éoliennes East Anglia One est en route

14 A RETENIR Congrès et manifestations

16 VIENT DE PARAÎTRE La REE vous recommande

19 ARTICLE INVITÉ La matière noire

Par André Deschamps

29 LIVRE BLANC La cybersécurité des réseaux électriques intelligents Résumé 34 Introduction 40 Menaces, vulnérabilités et risques44 De la cybersécurité des installations industrielles à celle des REI46 Les mesures de protection 60 Les démonstrateurs 61 Conclusions et recommandations62 Annexes

75 GRAND DOSSIER Nouvelles contributions des TIC

à la médecine et à la chirurgie Introduction Par Robert Picard, Bernard Ayrault78 La robotique d’assistance à la chirurgie – L’avènement

de la co-manipulation Par Clément Vidal84 Sécurisation des images médicales externalisées :

tatouage et cryptographie Par Gouenou Coatrieux, Dalel Bouslimi, Michel Cozic

p. 29

p. 75

Photo de couverture : © James Steidl - Fotolia.com

p. 19p. 1

Page 5: Aperçu du numéro 2015-3 de la REE (juillet 2015)

REE N°3/2015 Z 5

92 Optimisation et coopération : la plate-forme européenne de télémédecine HIPERMED et le Living Lab PROMETEE

Par Jean-Marie Moureaux 99 Un exemple d’écosystème d'innovation en technologies

de la santé - Le laboratoire de recherche en imagerie et orthopédie de Montréal

Par Robert Picard, Jacques A. de Guise 107 Quelques pistes d’innovation

dans la recherche technologique en santé : Par Bernard Ayrault107 Lecteur optique à hautes performances

pour les laboratoires sur puce Par Yanek Gottesman109 Progrès dans l’imagerie polarimétrique Par Jihad Zallat111 Airways - Diagnostic et suivi des pathologies respiratoires

par l’image Par Catalin Fetita, Christophe Lefevre112 Modélisation de connaissances anatomiques

pour l’analyse des images médicales Par Isabelle Bloch

114 GROS PLAN SUR… Modélisation de l’aléa éolien - Application aux réseaux électriques Par Miranda Marchand, Grégoire Paul, Aude Wolny

126 ENSEIGNEMENT & RECHERCHE Quelques convictions pour l’évolution

de l’enseignement supérieur… Par Christian Lerminiaux130 Echos de l’enseignement supérieur Par Bernard Ayrault

132 CHRONIQUE Des nouveaux héros de romans ! Par Bernard Ayrault

133 LIBRES PROPOS Le gaz naturel, acteur incontournable

de la transition énergétique Par Jacques Deyirmendjian

138 SEE EN DIRECT La vie de l'association

GSI 20152nd Conference

on Geometric Science of Information

28-30 October 2015École Polytechnique Paris/Saclay Campus

https://www.gsi2015.org

Organized by:

Page 6: Aperçu du numéro 2015-3 de la REE (juillet 2015)

6 Z�REE N°3/2015

FLASHINFOS

Des progrès sur les batteries aluminium-ion

La découverte de couples électrochimiques toujours plus performants reste l’objectif de nombreuses équipes de recherche dans le monde, avec diverses finalités selon les applications visées : capacité massique, tension nomi-nale, coût, durée de vie, vitesse de décharge et de re-charge… Sur ce dernier point, une équipe de chercheurs de l’université de Stanford, coordonnée par Hongjie Dai1, a annoncé le 14 avril 2015 avoir mis au point une bat-terie aluminium-ion rechargeable, offrant une vitesse de décharge aussi bien que de recharge extrêmement rapide (typiquement une minute) et pouvant supporter un nombre de cycles supérieur à 7 500. Ces propriétés, alliées à un prix de revient prévisionnel très attractif, pour-raient lui permettre de remplacer un jour les batteries alcalines jetables (AA et AAA), considérées comme peu respectueuses de l’environnement, et les batteries Li-ion d’un prix assez élevé, présentant des risques d’ignition et offrant une durée de vie de l’ordre de 1 000 cycles.

Les travaux sur les batteries à l’aluminium ne sont pas nouveaux mais jusqu’à présent, il n’avait pas été possible d’en obtenir une tension suffisante et les durées de vie n’excédaient pas une centaine de cycles.

La batterie aluminium-ion testée à Stanford, est constituée d’une anode en aluminium et d’une cathode en mousse de graphite formant un réseau tridimension-nel. C’est la structure de ce graphite qui permet d’obtenir des vitesses de charge et décharge très élevées. Les élec-trodes sont immergées dans un électrolyte liquide à la température ordinaire – du 1-ethyl-3-methylimidazolium chlorure et du chlorure d’aluminium anhydre – l’ensemble étant immergé à l’intérieur d’une poche recouverte de polymère. Les échanges électriques se font par l’intermé-diaire d’ions tetrachloroaluminates AlCl4

- (figure 1).Outre sa capacité de recharge ultra-rapide, un autre

avantage de cette batterie réside dans sa flexibilité qui permet de l’incurver voire de la plier (figure 2), ce qui lui donne des facultés d’adaptation intéressantes. Enfin l’alu-minium est un composant moins onéreux que le lithium.

Les applications visées sont celles de l’électronique grand public, des smart phones notamment, qui pour-

1 An ultrafast rechargeable aluminium-ion battery – Meng-Chang Lin, Ming Gong, Bingan Lu, Yingpeng Wu, Di-Yan Wang, Mingyun Guan, Michael Angell, Changxin Chen, Jiang Yang, Bing-Joe Hwang & Hongjie Dai – Nature 520, 324-328 (16 April 2015) doi:10.1038/nature14340.

raient être rechargés en moins d’une minute. Mais l’équipe de Stanford réfléchit également à des applica-tions au stockage de l’électricité d’origine renouvelable, dans le secteur résidentiel et tertiaire.

Tout n’est cependant pas rose pour cette batterie : la tension aux bornes est 2 à 2,5 V alors que le lithium-ion offre 3,5 à 4 V. L’Al-ion permet de stocker environ de 40 Wh/kg alors que Li-ion permet actuellement d’at-teindre 160 Wh/kg avec des progrès prévisibles dans les prochaines années. La batterie Al-ion serait donc désa-vantagée dans toutes les applications pour lesquelles la masse est un élément critique (électronique et outillage portable, véhicule électrique) et la référence faite par l’équipe aux smart phones nous semble un peu rapide.

Par contre dans les applications où la masse n’est pas critique, l’horizon semble plus prometteur. On pense im-médiatement aux applications smart grids, en résidentiel

Figure 1 : Schéma de principe de la batterie aluminium-ion. Source : Lin & Al (2015).

Figure 2 : Batterie aluminium-ion testée à l’université de Standford.Source : Lin & Al (2015).

Page 7: Aperçu du numéro 2015-3 de la REE (juillet 2015)

REE N°3/2015 Z 7

FLASHINFOS

ou sur le réseau. L’aptitude à se décharger très rapide-ment permettrait d’offrir une puissance de 3 kW par kilo de batterie pendant une minute environ. Le nombre de cycles démontré en laboratoires (7 500) et le coût prévi-sionnel peu élevé seraient autant d’atouts appréciables. Il resterait cependant à démontrer la stabilité de la batterie dans le temps. Il ne suffit pas de réaliser 7 500 cycles en quelques semaines, il faut voir comment la batterie et ses différents composants résistent au temps, avant de pouvoir parler d’applications sur les réseaux. ■

JPH

Obtenir l’image d’un objet avec une lumière qui ne l’a pas éclairé

Une équipe de chercheurs de Vienne (Autriche), appartenant à l’Institut d’optique et d’information quan-tiques (IQOQI), au Centre de sciences et de technologies quantiques et à l’université de Vienne, ont développé une technologie d’imagerie totalement nouvelle qui permet d’obtenir l’image d’un objet à partir d’un faisceau totale-ment distinct de celui ayant servi à l’illuminer.

En général, pour obtenir l’image d’un objet, on l’illu-mine par un faisceau lumineux et on utilise une caméra qui capture et mesure la lumière qui est soit diffusée, soit transmise par l’objet. Cependant, dans de nombreux cas pratiques, la longueur d’onde idéale pour illuminer l’objet ne correspond pas à une longueur d’onde pour laquelle existent des caméras.

L’expérience publiée dans Nature contourne cet obstacle en utilisant des photons intriqués créés lorsqu’un faisceau laser (dans le vert) interagit avec un cristal non linéaire. Ces photons, dont les plus énergétiques (dans le rouge) sont dési-gnés par « signal » et les moins énergétiques (dans l’infra-rouge) par “idler“ (oisifs), sont en fait successivement géné-rés dans deux cristaux non linéaires identiques mais distincts, l’objet à examiner étant situé entre les deux (figure 1).

Le montage est conçu de façon que lorsqu’une une paire de photons est créée dans le premier cristal, seul le photon infrarouge vient interagir avec l’objet. Ce pho-ton, après avoir été combiné avec la seconde partie du faisceau laser initial, passe ensuite au travers du second cristal et crée une nouvelle paire de photons rouge et infrarouge. L’information a été transférée dans l’opération depuis le photon infrarouge, qui est finalement écarté, vers le photon rouge qui porte alors l’information. En combinant les deux chemins de photons rouges, on peut construire à la sortie du dispositif des images d’interfé-rence représentant l’objet analysé.

Le dispositif effectivement utilisé à Vienne utilise des cristaux dits “periodically poled potassium titanyl phos-phate (ppKTP)” qui permettent de réaliser la conversion spontanée de la source laser saphir à 532 nm vers des longueurs d’onde à 810 nm et 1 550 nm (en respectant la conservation de l’énergie). Le dispositif de détection à la sortie est une caméra EMCCD (Electron Multiplying Charge Coupled Device).

Le dispositif est conçu pour que l’objet soit éclairé par des photons à 1 550 nm mais c’est le faisceau à 810 nm qui est envoyé à la caméra EMCCD comme dans le mon-tage décrit plus haut. L’intérêt de cette expérimentation est d’utiliser, pour éclairer l’objet, une bande infrarouge qui est difficilement mesurable par un dispositif de prise d’image.

Figure 1 : Schématique de l’expérience. Cette figure montre les chemins suivis par les photons issus d’une source laser émettant à 532 nm dans le vert (en vert). Le faisceau laser

est divisé en deux par le séparateur BS1. Les phtons (a) et (b) sont envoyés :

de photons à différentes longueurs d’onde appelés respectivement « signal » à 810 nm (en jaune) et « idler » à 1 550 nm (en rouge). Ces deux photons sont séparés par la lame dichroïque D1. Les photons « idler » (d) sont envoyés sur l’objet O qui en modifie les caractéristiques ;

premier trajet avant d’aller exciter le second cristal NL2 et génèrent les flux de photons (e) et (f). A la sortie, le miroir dichroïque D3 extrait les photons « idler » (f) qui sont écartés.

Les deux chemins de photons « signal » (c) et (e) se recombinent en sortie de dispositif au niveau du séparateur BS2 et entrent dans le système de détection. Aucun photon « signal » n’a emprunté le trajet (d) (celui de l’objet O) mais les photons (e) possèdent l’information de l’objet du fait de la recombinaison intervenue dans BS2. Le détecteur de sortie permet d’obtenir une image inverse interférentielle de l’objet. Si l’objet est totalement transparent,

les photons et des interférences se forment. A l’inverse si l’objet est complètement opaque, il est possible au niveau du détecteur de savoir que les photons viennent de NL1 ce qui détruit les interférences. On peut donc obtenir une information sur l’objet (transparent ou pas) sans aucune interaction avec les photons qui ont interagi avec lui.

Page 8: Aperçu du numéro 2015-3 de la REE (juillet 2015)

8 Z�REE N°3/2015

FLASHINFOS

Dans leur publication, les auteurs mentionnent les images faites à partir de trois types d’objets : une découpe en forme de chat (afin d’évoquer le « chat de Schrödinger ») faite dans un carton, deux gravures sur sili-cium dont l’une est transparente à 1 550 nm et opaque à 810 nm et l’autre opaque à 1 550 nm et transparente à 810 nm.

La figure 2 représente les images obtenues dans la pre-mière expérience, avec des interférences quantiques, des-tructives ou constructives, à la sortie, sans qu’aucun des photons utilisés n’aient interagi avec la découpe du chat.

La solution imaginée par les chercheurs de Vienne per-met d’éviter l’inconvénient d’une mauvaise définition des objets à certaines longueurs d’onde et d’obtenir une image à partir de photons qui n’ont pas interagi avec l’objet. Les applications potentielles de ce dispositif sont nombreuses, en particulier dans le domaine de la médecine et la bio-logie où la longueur utilisée par les appareils de mesure peut être destructive ou nocive pour les tissus. De tels dispositifs permettraient de contourner le problème, tout en gardant les avantages liés à l’utilisation d’une longueur d’onde particulière pour la formation de l’image. ■

ML

Un ruban souple de diodes éclairantes de 2 mm d’épaisseur

La possibilité de fabriquer des dispositifs électroniques flexibles est un rêve des temps modernes que Salvador Dali avec sa montre molle avait anticipé. On imagine

facilement ce qu’il serait possible de réaliser les objets les plus divers avec des écrans ou des capteurs souples et flexibles, pouvant être roulés voire même pliés : vêtements ou chaussures intelligentes, batteries flexibles, revêtements photovoltaïques ajustables aux surfaces, équipements médicaux adaptables au corps humain, etc.

Une première piste a été ouverte par la découverte des polymères semi-conducteurs qui a valu à Alan J. Heeger, Alan G. MacDiarmid et Hideki Shirakawa de recevoir le prix Nobel de chimie en 2000. L’une des applications les plus évidentes, rentrée dans la vie de tous les jours, est celle des téléviseurs utilisant des OLED2 qui permettent de réaliser de grands écrans incurvés d’une minceur de moins de 5 mm qui est hors de portée des technologies classiques des LED et des LCD. Mais ces écrans restent rigides et l’utilisation de composants polymères avec des substrats flexibles pose problème, notamment en raison des traitements thermiques nécessaires après la phase d’impression du substrat.

Une autre voie réside dans le placement de com-posants conventionnels (inorganiques) sur un substrat flexible. C’est la voie suivie par une équipe de l’université du Minnesota à Minneapolis qui a publié en mai 2015 un article sur la réalisation d’un ruban souple de diodes éclairantes d’une épaisseur millimétrique3.

Les problèmes sont essentiellement technologiques puisqu’il s’agissait de réaliser des connections flexibles résistant à l’extension et à la torsion et de mettre au point un procédé susceptible de permettre la fabrication de grandes surfaces.

2 OLED: Organic Light Emitting Diode.3 Millimeter Thin and Rubber-Like Solid-State Lighting Modules Fab-

ricated Using Roll-to-Roll Fluidic Self-Assembly and Lamination – Se-Chul Park, Shantonu Biswas, Jun Fang, Mahsa Mozafari, Thomas Stauden, Heiko O. Jacobs – WILEY-VCH Verlag GmbH & Co. KGaA, Weinheim (mai 2015).

Figure 2 : Les images claires et sombres du chat sont celles d’un découpage dans un carton. Elles résultent d’interférences quantiques, destructives ou constructives, de photons qui n’ont

jamais interagi avec l’objet. – Source : Gabriela Barreto Lemos & Al.Figure 1 : Montre molle de Dali.

jphauet
Rectangle
Page 9: Aperçu du numéro 2015-3 de la REE (juillet 2015)

REE N°3/2015 Z 19

La matière noire

L'ARTICLE INVITÉ

Unlike normal matter, dark matter does not interact with the electromagnetic force. This means it does not absorb, reflect or emit light, making it extremely hard to detect. Researchers have been able to infer the existence of dark matter only from the gravitational effect it seems to have on visible matter. Dark matter seems to outweigh visible matter roughly five to one, making up 26.8 % of the universe. The matter we know and that makes up all stars and galaxies only accounts for 4.9 % of the content of the universe.Galaxies in our universe are rotating with such speed that the gravity generated by their observable matter could not possibly hold them together. Scientists think something we have yet to detect directly is giving these galaxies extra mass, generating the extra gravity they need to stay intact. This strange and unknown matter was called "dark matter" since it is not visible.However, at this point, there are still a few dark matter possibilities that are viable. The most common view is that dark matter is not baryonic at all, but that it is made up of other, more exotic particles like WIMPS (Weakly Interacting Massive Particles).

ABSTRACT

ANDRÉ DESCHAMPSIngénieur de recherche hors classe honoraire à l’Observatoire de Paris

Introduction

E n astrophysique, les termes de matière noire ou de matière sombre désignent une forme de matière aujourd’hui indétectable directe-ment mais dont l’existence a été formellement

démontrée et qui permet de rendre compte d’effets obser-vés qui seraient inexplicables en son absence. L’existence dans l’Univers d’une matière cachée constitue évidemment l’une des découvertes les plus fascinantes de ces dernières décennies, d’autant plus que l’on sait aujourd’hui que cette matière noire est dans l’univers observable cinq fois plus abondante que la matière ordinaire, ou matière baryonique, qui nous est familière. Le cas est d’autant plus étrange que, si l’on sait aujourd’hui que cette matière noire existe, on ne sait pas de quoi elle est faite.

Différentes hypothèses ont été émises sur la nature de cette matière noire mais sa composition fait toujours l’objet de spéculations contradictoires. Comme la matière baryo-nique, la matière noire est soumise aux lois de la gravitation universelle et c’est d’ailleurs aujourd’hui la seule façon de la détecter. Pourrait-elle dès lors être constituée de gigan-tesques nuages de gaz interstellaires, d’accumulations de naines blanches, de naines brunes ou de trous noirs ? Aucune des hypothèses allant dans cette direction n’est aujourd’hui en cohérence avec les ordres de grandeur qui gouvernent notre Univers. L’existence de la matière noire est l’une des trois découvertes fondamentales qui sont venues compléter le modèle standard au cours des dernières décennies :

-23 sec) qui a suivi le Big Bang et au cours de laquelle l’Univers a connu

une phase d’expansion très violente lui permettant de gros-sir d’un facteur énorme ;

-core moins de choses que sur la matière noire.

L’énergie noire est souvent confondue avec la matière noire. Elle en est pourtant fondamentalement différente : la matière noire exerce une attraction répondant aux lois de la gravitation universelle ; elle ne remplit l’univers que partiel-lement. L’énergie noire est au contraire une forme d’énergie, supposée remplir uniformément tout l’Univers, dotée d’une pression négative qui la fait se comporter comme une force gravitationnelle répulsive. L’existence de l’énergie noire est la seule explication trouvée à ce jour pour justifier le phéno-

l’Univers.Les observations du télescope européen Planck, com-

-

galé jusqu’à présent et permis de mieux comprendre les étapes de la formation de notre Univers et de préciser le rôle joué par chacun des ingrédients constitutifs. Grâce à Planck et à l’observation du rayonnement fossile on sait à présent que la matière noire présente une abondance envi-ron cinq fois plus importante que la matière baryonique et

le « rapport » entre énergie noire et matière noire évolue au cours des époques. Cette évolution conditionne ce que l’Uni-vers pourra lui-même de devenir : expansion à tout jamais

Page 10: Aperçu du numéro 2015-3 de la REE (juillet 2015)

20 Z�REE N°3/2015

L'ARTICLE INVITÉ

“Big Rip”) ou au contraire effondrement sur lui-même sous

serait le modèle du “Big Crunch”).

le destin de l’Univers. Jadis les hommes pensaient que la Terre était au centre de l’Univers. Aujourd’hui, ils réalisent que l’Univers observable, qu’ils ont mis des siècles à tenter de comprendre, ne représente à nouveau qu’une petite fraction d’un espace infiniment plus complexe.

La saga de l’UniversBig Bang or not Big Bang : l’inflation cosmique

Il est admis aujourd’hui que l’Univers tel que nous le connaissons n’a pas commencé par une gigantesque explo-sion nommée “Big Bang”, mais par une phase d’expansion

-gistes. L’Univers n’a pas été dispersé dans un espace préexis-tant un peu comme une bombe à fragmentation, mais c’est son tissu même qui s’est distendu comme une baudruche en entraînant tout son contenu. Durant cette période très

-32 environ pour former une « soupe » extrêmement dense et chaude de particules élémentaires qui entraient en collision les unes avec les autres et détruisaient toute forme native de matière sous forme atomique.

dense et chaud. On pense que sa masse volumique devait kilogrammes par m3. Pour-

tant, c’est au cours de cette période que sont apparues d’in-

qui sont à la base de la diversité de l’Univers.

Figure 1 : Part des différents « ingrédients » dans l’inventaire masse/énergie de l’Univers. Le “Before Planck” se réfère aux observations de la sonde Wilkinson Microwave Anisotropy Probe (WMAP) faites entre 2001 et 2010 – Source : ESA.

Figure 2 : Histoire de l’Univers – Source : “History of the Universe crop fr” par National Science Foundation – Wikipédia.

jphauet
Rectangle
Page 11: Aperçu du numéro 2015-3 de la REE (juillet 2015)

Le concept de réseau électrique intelligent (REI) ou “smart grid”1 est l’un des moyens au-jourd’hui reconnus pour optimiser les perfor-mances des réseaux électriques et améliorer les services rendus au consommateur tout en le transformant en « consom’acteur ». Les REI per-mettent de répondre à des besoins nouveaux tels que l’insertion des énergies intermittentes et/ou décentralisées dans les systèmes électriques ou la gestion des parcs de véhicules électriques.

Les REI constituent également un enjeu industriel important, pris en compte par la « Nouvelle France industrielle », qui pourrait représenter d’ici 2020 dans notre pays plus de 25 000 emplois directs en France pour un chiffre d’affaires d’au moins six milliards d’euros2.

Cependant les REI, comme tous les systèmes de collecte et de traitement de l’information, sont soumis à la menace de cyberattaques et aux risques qui en découlent, avec des consé-

1 Selon la feuille de route des réseaux électriques intelligents établie par l’initiative gouvernementale de la Nouvelle France industrielle, et présentée au Président de la République le 7 mai 2014 les réseaux électriques intelligents (REI) ou “smart grids”visent à intégrer de manière efficiente les actions de l’en-semble des utilisateurs (producteurs et consommateurs) afin de garantir un approvisionnement électrique durable, sûr et au moindre coût. Ils font appel à des produits et services innovants ainsi qu’à des technologies d’observation, de contrôle, de com-munication afin de :

de production, en particulier des renouvelables en réduisant

électrique complet ;

l’électricité, et améliorer les services actuels de façon effi-ciente ;

européen intégré ;

2 Selon la feuille de route précitée.

quences qui peuvent être particulièrement dom-mageables, compte tenu du caractère vital des infrastructures électriques. Se protéger contre le risque cybersécuritaire est donc une nécessité. Mais le problème est difficile du fait de l’éten-due et de la complexité des réseaux électriques, de l’exigence de sûreté de fonctionnement, de la nécessité de recourir à la télémaintenance pour diverses opérations, du nombre de parties prenantes et de l’émergence incessante de nou-velles formes d’attaques.

La SEE, du fait de son positionnement au carrefour entre industries électriques et élec-troniques et technologies de l’information et de la communication, a décidé d’élaborer, dans le cadre de son Cercle des entreprises, le présent Livre blanc.

Ce Livre blanc présente un caractère didac-tique : il met à la disposition des acteurs inté-ressés par les REI des éléments d’information essentiels sur la problématique des REI. Il ana-lyse le risque cybersécuritaire sous différents angles et notamment au regard des risques attachés aux aspects plus traditionnels de la sécurité, sûreté de fonctionnement en particu-lier. Il fait le point sur la réglementation et sur les normes potentiellement applicables aux REI qui, bien qu’étant pour certaines encore en cours de finalisation, permettent à la plupart des acteurs de disposer d’un référentiel suffi-sant pour construire un système de gestion de la cybersécurité adapté à leurs besoins.

Au niveau français, l’autorité en matière de cybersécurité est l’Agence nationale de la sécu-rité des systèmes d’information (ANSSI), à l’ori-gine notamment de la parution des décrets du 27 mars 2015 relatifs à la sécurité des systèmes d’information des opérateurs d’importance vitale (OIV). Au niveau international, le corpus norma-

LIVRE BLANCRésumé

REE N°3/2015 Z 29

Livre blanc sur la cybersécurité des réseaux

électriques intelligentsCe Livre blanc est issu des travaux du groupe de travail « REI-cyber »

constitué au sein du cercle des entreprises de la SEE. juin 2015

Page 12: Aperçu du numéro 2015-3 de la REE (juillet 2015)

30 Z�REE N°3/2015

tif est aujourd’hui essentiellement développé par la CEI et l’ISO, dans le cadre des normes géné-rales ISO/CEI 27001 et 27002 et des standards CEI 62443 spécifiques aux systèmes d’automa-tismes et de contrôle industriel (IACS) qui, dans leur version finale, intègreront les exigences des normes ISO/CEI 27001 et 27002. Le “Technical Report” ISO/CEI TR 27019, guide d’application de l’ISO/CEI 27002 pour les systèmes de contrôle des procédés spécifiques à l’industrie de l’éner-gie, ainsi que la norme CEI 62351 qui vise à sé-curiser les données et les communications dans les systèmes de puissance, complètent ce cor-pus normatif. Au niveau européen, des travaux importants ont été menés par l’ENISA et par un groupe de travail commun aux trois organismes de normalisation CEN, CENELEC et ETSI, dans le cadre du mandat M/490 qui leur a été délivré par la Commission européenne. Ces travaux3 ont conduit à la mise au point d’un modèle fonction-nel des REI, le « SGAM », et d’une méthodologie dite “framework SGIS” permettant d’analyser les risques encourus par les systèmes ou sous-sys-tèmes et de définir le niveau de sécurité à retenir pour leur protection.

D’autres référentiels sont également à prendre en considération dans certains pays et en parti-culier aux Etats-Unis où les standards CIP élabo-rés par le NERC ont été rendus obligatoires dans les réseaux de transport d’électricité.

Le cadre réglementaire et normatif ainsi ap-pelé, le Livre blanc s’attache à préciser la nature des attaques et des risques auxquels les REI sont confrontés. On retrouve dans le cas des REI les attaques qui peuvent affecter n’importe quel sys-tème de collecte et de traitement d’information. Toutefois les REI présentent des vulnérabilités spécifiques du fait de leur extension géogra-phique, de leur configuration évolutive et de la difficulté d’assurer la protection aux frontières d’un ensemble pouvant rassembler, comme en France, des dizaines de millions d’abonnés.

Les risques qui en découlent sont de trois natures principales :

3 Voir :CEN-CENELEC-ETSI “SG-CG/M490/F Overview of SG-CG Methodologies”, ftp://ftp.cencenelec.eu/EN/EuropeanStandardization/HotTo-

-tion des réseaux et pouvant aller jusqu’à leur effondrement, liée à des attaques du type homme du milieu, injection de code malveil-lant, déni de service, etc.

à la facturation des fournitures d’électricité ;

« privacité », du fait de l’utilisation abusive de données prélevées sur les équipements en relation directe avec le mode de vie des personnes (essentiellement aujourd'hui les compteurs communicants et, dans une moindre mesure, les stations de recharge des véhicules électriques).A l’avenir, le raccordement d’équipements de

plus en plus nombreux, en aval des compteurs communicants ou des “boxes” proposées par les fournisseurs d’accès à Internet ou les agré-gateurs d’effacement, élargira encore davantage la surface d’attaque et fera planer le risque de voir ces équipements manipulés à distance et de façon coordonnée.

Le Livre blanc passe en revue les principales mesures de protection qui peuvent être mobili-sées pour faire face à ces menaces. La cybersé-curité se construit sur la base de la combinaison de mesures techniques, organisationnelles et humaines. Ces mesures de protection doivent être conçues et mises en œuvre dans le cadre d’un programme de gestion de la cybersécurité construit de façon rationnelle en s’appuyant sur un référentiel normatif.

Les mesures techniques doivent être conçues tout d’abord au stade de la conception de l’ar-chitecture ; c’est la “security by design”. Une analyse menée selon les principes du SGAM et selon la méthodologie proposée par le groupe SGIS du CEN/CENELEC/ETSI permet de hiérar-chiser les niveaux de sécurité à retenir pour chaque élément constitutif de l’architecture et de jeter les bases d’une défense en profondeur. Cependant de nouveaux principes apparaissent, soutenus notamment par le Trusted Computing Group4, s’insérant dans une réflexion plus géné-

4 Voir notamment : TCG Guidance for securing IoT – Avril 2015 – http://www.trustedcomputinggroup.org/files/static_page_files/D6DED84B-1A4B-B294-D09EE5563BED7F93/TCG_Guidance_for_Securing_IoT_1_0r14-public-review.pdf

LIVRE BLANC Résumé

Page 13: Aperçu du numéro 2015-3 de la REE (juillet 2015)

Résumé LIVRE BLANC

rale menée sur l’Internet Industriel des Objets (IIoT). Cette approche vise à transformer le REI en une sorte de réseau social où chaque abon-né pourra converser de façon contrôlée avec les autres abonnés en fonction des droits qui lui auront été alloués.

La protection des îlots d’automatisme relève pour certains d’entre eux – pour les systèmes de contrôle de postes notamment – des méthodes classiques applicables aux systèmes de contrôle industriel. L’approche par sous-systèmes préco-nisée par l’ANSSI ou par zones de sécurité telles que définies par la CEI 62443, avec allocation de mesures de sécurité adaptées à chacun de ces sous-systèmes ou zones, est dans ce cas ap-propriée. Dans d’autres cas, des méthodes plus innovantes ont dû être imaginées, notamment pour le système de comptage Linky pour lequel des dispositions ont été prises au niveau du compteur et au niveau des concentrateurs dotés de modules de sécurité. Ces approches ouvrent la voie au développement de “Trusted Platform Modules”, composants cryptographiques maté-riels inviolables solidaires des équipements et dans lesquels sont stockés tous les éléments, tels que les clés de chiffrement et d’authentifi-cation, relatifs à leur sécurité.

La communication entre les ilots est évidem-ment un point sensible sur lequel se concentrent de nombreuses attaques. Les REI, comme la plupart des systèmes de contrôle industriel, utilise encore, par héritage du passé, des proto-coles faibles, souvent des protocoles applicatifs, construits au-dessus de la couche transport du modèle OSI, dont les vulnérabilités sont connues. Ces protocoles peuvent être détournés de leur objectif si l’on utilise certaines instructions pour exécuter des commandes dommageables au ré-seau ou pour créer des dénis de service.

La sécurisation des communications com-mence par la limitation des échanges à leur strict nécessaire et par l’application d’un principe de « subsidiarité » dans la gestion des informations. Pour les communications considérées comme nécessaires, il y a lieu d’homogénéiser les so-lutions utilisées, de façon à réduire la surface d’attaque, et de faire appel à des protocoles standardisés et reconnus comme robustes. De tels protocoles, ainsi que la technologie des

réseaux privés virtuels (VPN), sont bien maîtri-sés et doivent être mis en œuvre chaque fois que nécessaire, en veillant cependant à ce que cela ne porte pas atteinte aux performances du système.

Les connexions distantes, filaires ou par ra-diocommunications, ne sont pas à bannir de façon systématique car elles sont porteuses de gains de flexibilité et de productivité. Elles doivent cependant faire l’objet d’une analyse de risques spécifique et être utilisées avec la plus grande circonspection lorsque l’authentification de l’abonné distant ne peut pas être assurée ou lorsqu’elles pointent vers les équipements les plus sensibles des REI.

Les technologies de chiffrement et d’authen-tification jouent un rôle essentiel pour assurer la confidentialité et l’intégrité des données et prévenir des accès non autorisés. Elles parti-cipent également de la protection de la vie pri-vée en évitant la divulgation d’information de caractère personnel vers des tiers non autori-sés. De nombreux algorithmes, symétriques (AES 128 ou 256) ou asymétriques (RSA, courbes elliptiques), sont aujourd’hui dispo-nibles et semblent suffisamment robustes dans l’état actuel de la puissance des ordinateurs conventionnels, en attendant la mise au point sans doute encore lointaine d’ordinateurs quan-tiques. Le Livre blanc met cependant l’accent sur l’intérêt de développer les techniques de chiffrement « homomorphes » qui permettent de traiter des données chiffrées sans avoir pré-alablement à les déchiffrer. De telles techniques seraient particulièrement intéressantes dans le cas de chaines de traitement à plusieurs niveaux telles que celles des REI.

Le Livre blanc insiste également sur la qualité des logiciels. Celle-ci est bien évidemment une condition nécessaire à l’obtention d’un niveau de sécurité fonctionnelle suffisant. Mais un logi-ciel mal conçu ou porteur de défauts est plus vulnérable que d’autres à des attaques cybersé-curitaires. Les défauts de sécurité doivent être considérés comme des “bugs” des programmes et des outils d’analyse de code existent au-jourd’hui permettant d’établir de façon semi-automatique la conformité des composants logiciels aux exigences dé cybersécurité.

REE N°3/2015 Z 31

Page 14: Aperçu du numéro 2015-3 de la REE (juillet 2015)

32 Z�REE N°3/2015

En parallèle aux mesures techniques, les mesures organisationnelles sont primordiales pour construire la cybersécurité. Les exigences en matière d’organisation font l’objet de normes internationales qui sont citées en annexe 1. Elles doivent donner naissance à des procé-dures appropriées au rôle joué par les interve-nants dans la chaine des REI : développeurs et fournisseurs de composants et de systèmes, intégrateurs, opérateurs, sociétés de services. Le Livre blanc identifie plusieurs points-clés auxquels il convient de porter attention dans le cas des REI : filtrage des communications, authentification, droits d’accès et autorisations, traçabilité, supervision et administration du sys-tème de gestion de la cybersécurité, traitement des incidents et politique de reprise.

Ce dernier point est particulièrement impor-tant dans le cas des REI. La sécurité absolue n’existe pas et il faut se résoudre à ce que cer-tains incidents surviennent. Il faut en réduire la fréquence et en limiter les conséquences. Il faut aussi établir des règles de rétablissement du ser-vice dans des délais aussi courts que possible, en préservant les données qui permettront une analyse ultérieure de l’origine des défauts.

Parmi les mesures organisationnelles, une priorité est également donnée aux actions de formation. La cybersécurité est une « science jeune » et les compétences disponibles sur le marché sont encore rares et que les sociétés de service et de conseil absorbent une part im-portante du potentiel formé chaque année. La réponse aux besoins des REI pourrait être une combinaison de plusieurs approches : une for-mation amont combinant une « sensibilisation de masse » d’un grand nombre de personnels avec des formations plus spécifiques, au sein ou en complément de formations existantes, une formation des maitres d’ouvrage et maitres

d’œuvre, des intervenants professionnels, des opérateurs et des auditeurs.

Pour l’avenir, le Livre blanc recommande d’avoir une politique de démonstrateurs REI da-vantage ciblée sur la cybersécurité, comme l’est le projet5 « Postes électriques intelligents » lan-cé en 2013 par l’ADEME, RTE, ERDF et plusieurs industriels. Les démonstrateurs REI constituent en effet un axe important du Programme inves-tissements d’avenir (PIA) et la cybersécurité doit y figurer avec l’importance requise.

Le Livre blanc préconise de poursuivre les travaux de certification de sécurité des REI, au niveau des principaux composants et sous-systèmes, matériels ou logiciels, politique qui constituent un complément indispensable à la politique de normalisation et de qualifica-tion des prestataires. Des ébauches de telles politiques existent dans certains pays, pour les compteurs intelligents notamment, mais ces actions sont fragmentées. La politique de cer-tification doit être harmonisée au niveau euro-péen tout en laissant la possibilité aux Etats de développer éventuellement des règles spéci-fiques correspondant à des cas d’usage particu-liers dûment justifiés.

Enfin le Livre blanc recommande de pour-suivre les travaux de recherche-développement dans des directions ciblées : la sécurisation des systèmes distribués, en liaison avec les travaux sur l’Internet industriel des objets (IIoT), et les méthodes de chiffrement homomorphes.

La SEE se propose d’organiser en 2016, en liaison avec la nouvelle association Smart grids France, un forum qui permettra de prendre la mesure des progrès accomplis en matière de cy-bersécurité et de proposer de nouvelles recom-mandations sur les orientations à prendre. Q

5 Voir le dossier de presse à l’adresse http://www.presse.ademe.fr/files/2013_06_04-dossier-presse-postes-intelligents-v1.pdf

LIVRE BLANC Résumé

Page 15: Aperçu du numéro 2015-3 de la REE (juillet 2015)

LIVRE BLANC

Résumé ........................................................................................................................................ p. 29

1. Introduction ........................................................................................................................... p. 34

1.1. Pourquoi un Livre blanc ? .......................................................................................................... p. 341.2. La problématique de la cybersécurité des réseaux électriques .................................. p. 35

1.2.1. Définition de la cybersécurité ........................................................................................... p. 351.2.2. Aperçu sur la cybersécurité des réseaux électriques ............................................... p. 351.2.3. Cybersécurité et sûreté de fonctionnement ................................................................ p. 36

1.3. La réglementation française des REI .................................................................................... p. 361.4. Travaux européens sur la cybersécurité des réseaux électriques intelligents ......... p. 371.5. La réglementation aux Etats-Unis .......................................................................................... p. 391.6. Certification des réseaux électriques intelligents ........................................................... p. 40

2. Menaces, vulnérabilités et risques .................................................................................. p. 402.1. Quelques définitions ................................................................................................................. p. 402.2. Les menaces dirigées vers les REI ......................................................................................... p. 412.3. Les vulnérabilités propres aux REI ......................................................................................... p. 412.4. Les risques encourus par les REI .......................................................................................... p. 422.5. Construire la cybersécurité ...................................................................................................... p. 43

3. De la cybersécurité des installations industrielles à celle des REI ........................ p. 44

4. Les mesures de protection ................................................................................................. p. 464.1. Aperçu général ............................................................................................................................. p. 464.2. La sécurisation des architectures ......................................................................................... p. 46

4.2.1 La “security by design” et la défense en profondeur ............................................... p. 464.2.2 Orientations nouvelles ........................................................................................................ p. 48

4.3. La sécurisation des ilots d’automatisme ............................................................................ p. 494.3.1 Généralités .............................................................................................................................. p. 494.3.2. Le cas des installations terminales ................................................................................ p. 50

4.4. La sécurisation des réseaux de communication ............................................................... p. 514.4.1. Aperçu général ........................................................................................................................ p. 514.4.2. Techniques de protection des données transmises sur les réseaux .................. p. 524.4.3. Quels protocoles ? ................................................................................................................. p. 524.4.4. Les connexions distantes ................................................................................................... p. 53

4.5. Quelques technologies-clés .................................................................................................... p. 544.5.1. La cryptographie ................................................................................................................... p. 544.5.2. Authentification et identification ..................................................................................... p. 554.5.3. La qualité des logiciels ....................................................................................................... p. 55

4.6. Les mesures organisationnelles ............................................................................................. p. 564.6.1. Généralités .............................................................................................................................. p. 564.6.2. Les politiques et les procédures ...................................................................................... p. 574.6.3. Le traitement des incidents ............................................................................................... p. 584.6.4. La supervision de la cybersécurité ................................................................................. p. 594.6.5. La formation : formations existantes et formations nécessaires ......................... p. 59

5. Les démonstrateurs ............................................................................................................. p. 60

6. Conclusions et recommandations .................................................................................... p. 61

Annexes ........................................................................................................................................ p. 62Annexe 1 : Normes et guides ............................................................................................................ p. 62Annexe 2 : Certification européenne de la cybersécurité des réseaux intelligents ....... p. 64Annexe 3 : Les formations en cybersécurité ................................................................................ p. 65Annexe 4 : Les cryptosystèmes homomorphes .......................................................................... p. 65Annexe 5 : Principes d’identification et d’authentification ..................................................... p. 67Annexe 6 : Liste des contributeurs .................................................................................................. p. 68Annexe 7 : Définitions ......................................................................................................................... p. 69Annexe 8 : Acronymes utilisés dans le Livre blanc ..................................................................... p. 73

LIVRE BLANCSommaire

REE N°3/2015 Z 33

Page 16: Aperçu du numéro 2015-3 de la REE (juillet 2015)

LIVRE BLANC

34 Z�REE N°3/2015

La cybersécurité des réseaux électriques intelligents

1. Introduction 1.1. Pourquoi un Livre blanc ?

Un réseau électrique intelligent (REI en abrégé et « smart grid » en anglais) est un réseau électrique dans lequel un système de collecte et de traitement de l’information vient se superposer au transport et à la distribution de l’électricité afin d’optimiser les performances du réseau et d’améliorer le service rendu au consommateur tout en permettant de répondre à des besoins nouveaux tels que l’insertion des énergies intermittentes et/ou décentralisées dans le sys-tème électrique.

L’une des manifestations les plus tangibles du dévelop-pement des REI en France est le déploiement des comp-teurs communicants et en particulier en France du dispositif Linky promu par ERDF. Mais les ambitions des REI vont bien au-delà et doivent se traduire par une gestion du système électrique optimisée, fiable et sécurisée, répondant aux besoins des parties prenantes qu’ils soient producteurs ou consommateurs.

Cependant les REI, comme tous systèmes de traitement de l’information, sont soumis à la menace de cyberattaques et aux risques qui en découlent, avec des conséquences qui peuvent être particulièrement dommageables compte tenu du caractère vital des infrastructures électriques. Se protéger contre le risque cybersécuritaire est donc une nécessité. Mais le problème est difficile du fait de l’étendue et de la complexité des réseaux électriques, de l’exigence de sûreté de fonctionnement, de la nécessité de recourir à la télémaintenance pour diverses opérations, du nombre de parties prenantes et de l’émergence incessante de nou-velles formes d’attaques.

Des travaux importants sont en cours sur le sujet, chez les opérateurs, chez certains grands industriels, au niveau national et au niveau international. Cependant, il est apparu qu’il serait utile de donner de la cohérence à ces différentes approches en posant le problème dans sa globalité et en essayant de sérier les réponses qu’il est aujourd’hui pos-sible de lui apporter.

Ce faisant, le but n’était pas d’écrire une encyclopédie des REI qui nécessiterait des moyens considérables et entraînerait des délais prohibitifs, avec le risque de voir le

travail déjà obsolète le jour où il serait achevé. La SEE, au travers de son Cercle des entreprises, a voulu rassembler dans un seul document les informations essentielles per-mettant aux acteurs concernés par les REI d’user d’un voca-bulaire commun et d’acquérir rapidement les données de base nécessaires au développement de leurs activités dans leurs domaines respectifs.

Les cibles de ce Livre blanc sont donc : -

triques intelligents ; c’est-à-dire les parties prenantes telles que l’Administration et les organismes publics concernés : certains ministères, CRE, ANSSI, laboratoires de recherche publics, secteur académique…

-loppeurs de nouveaux équipements ou services, installa-teurs, etc.) ;

compétences propres requises par la gestion des REI, pourront néanmoins faire de ce Livre blanc un trait d’union avec leurs nombreux interlocuteurs. Ce document doit en effet permettre de développer les

messages que les opérateurs et d’autres grands acteurs, publics ou privés, souhaitent promouvoir pour clarifier les enjeux de la cybersécurité des REI et faire comprendre aux parties prenantes les dispositions à prendre. C’est pourquoi le Livre blanc s’attache à :

de l’art des REI et leurs évolutions possibles ;

les gérer ;

distinguant les contre-mesures qui existent de celles qui réclament encore des approfondissements ;

des équipes et leurs formations, les politiques et procé-dures ainsi que la gestion des infrastructures.

pas dans ce Livre blanc une analyse détaillée des menaces pesant sur les REI ainsi que des vulnérabilités qui pourraient être mises à profit par des attaquants éventuels. Les acteurs désireux de se prémunir contre de tels risques devront

Page 17: Aperçu du numéro 2015-3 de la REE (juillet 2015)

REE N°3/2015 Z 35

La cybersécurité des réseaux électriques intelligents

continuer à se rapprocher des opérateurs, des agences spécialisées et de l’ANSSI1 en particulier, en s’entourant des conseils de spécialistes du domaine.

1.2. La problématique de la cybersécurité des réseaux électriques

1.2.1. Définition de la cybersécuritéLa cybersécurité peut se définir comme l’état recherché

pour un système d’information lui permettant de résister à des événements d’origine malveillante, susceptibles de compromettre la disponibilité, l’intégrité ou la confidentialité des données stockées, traitées ou transmises et d’altérer en conséquence les services rendus par ce système. A cette fin, la cybersécurité met en œuvre des mesures techniques et organisationnelles de protection ainsi que des mesures de détection et de réaction face aux attaques

La cybersécurité est partie intégrante d’un concept plus vaste qui est celui de la sécurité. Cependant ce terme est ambigu et correspond, selon les contextes et les interlocu-teurs, des choses différentes. Afin de lever toute ambiguïté, nous éviterons dans ce Livre blanc de l’utiliser et le terme « cybersécurité » sera préféré dans la suite du texte.

1.2.2. Aperçu sur la cybersécurité des réseaux électriques

Le thème de la cybersécurité, s’il a pris une dimension médiatique très importante ces dernières années, n’est pas pour autant nouveau pour les responsables de la concep-tion et de la gestion des systèmes électriques. En effet, le pilotage du réseau de transport d’électricité implique l’échange de flux d’informations importants entre les centres de production, les centres de contrôle et les postes électriques. Le nombre finalement restreint d’acteurs, tous de culture industrielle, a permis jusqu’à présent de maî-triser le risque cybersécuritaire. En particulier, la mise en œuvre d’un réseau dédié – dont les points de connexion au réseau d’entreprise via des passerelles sont peu nombreux et peuvent être surveillés en continu – conjuguée à la pro-tection physique des sites les plus sensibles, a longtemps constitué une parade suffisamment efficace.

Depuis le début des années 2000, le fort développement du contrôle-commande numérique dans les postes élec-triques a fait apparaître une nouvelle classe de vulnérabilités,

1 ANSSI : Agence nationale de la sécurité des systèmes d’information. L'annexe du guide publié par l'ANSSI, intitulé, « Cybersécurité des sys-tèmes industriels, Méthode de classification et mesures principales » propose des définitions complémentaires auxquelles le lecteur pourra se reporter. Ce document est disponible à l’adresse http://www.ssi.gouv.fr/uploads/IMG/pdf/securite_industrielle_GT_methode_classification-principales_mesures.pdf

pas spécifique aux systèmes électriques, mais commune à l’ensemble des systèmes numériques de contrôle industriel qui a été mise en évidence par « l’épisode Stuxnet »2. La possibilité d’accéder au cœur de ces systèmes, facilitée par l’utilisation de systèmes d’exploitation à grande diffusion tels que Windows de Microsoft, a appelé l’attention de nombreux hackers et constitue aujourd’hui un nouveau défi. A cette occasion, une prise de conscience s’est développée quant à la nécessaire maitrise des modes opératoires et sur le fait qu’au-delà des dispositifs de protection physique et tech-nique, la formation des opérateurs était une composante essentielle de la maîtrise de la cybersécurité.

Depuis lors, cette préoccupation est intégrée aux dif-férents projets de démonstrateurs de REI. Ainsi en va-t-il

2013, soutenu par l’ADEME et qui regroupe des opérateurs de réseaux et des industriels3. Ce projet met l’accent sur la cybersécurité et vise à doter les futurs postes intelligents de moyens innovants de sécurisation pour faire face à l’en-semble des risques liés aux nouvelles technologies.

Il reste que le déploiement à grande échelle des REI, en raison du nombre très important d’acteurs devant com-muniquer entre eux, fait apparaître de nouveaux types de risques qui ne pourront être approchés par les méthodes traditionnelles applicables à la protection des systèmes numériques de contrôle industriel. C’est une nouvelle ap-proche de la cybersécurité, adaptée à l’architecture ramifiée et évolutive des REI qu’il faut développer.

dépend au premier chef de l’opérateur du réseau, elle dé-pend aussi d’autres acteurs ayant un rôle important dans l’équilibre offre-demande. C’est aujourd’hui le cas des grands sites de production mais c’est de plus en plus le cas des producteurs décentralisés et des consommateurs qui sont amenés à participer de plus en plus à la vie du réseau pour adapter, en permanence et au moindre coût, l’offre à la demande.

C’est donc l’ensemble de l’écosystème du monde élec-trique qui est concerné. Les REI, dont on attend beaucoup en termes de performances techniques et économiques devront savoir répondre au défi de la cybersécurité.

2 On appelle « épisode Stuxnet » l’attaque mise en évidence à partir de l’été 2010, qui a ciblé les installations iraniennes d’enrichissement de l’uranium et qui s’est traduite par un dérèglement du contrôle des cen-trifugeuses. L’attaque a été imputée à un logiciel malveillant, dénommé Stuxnet, vraisemblablement injecté initialement dans les systèmes à l’aide de clés USB corrompues.

3 http://www.presse.ademe.fr/files/2013_06_04-dossier-presse-postes-intelligents-v1.pdf

jphauet
Rectangle
Page 18: Aperçu du numéro 2015-3 de la REE (juillet 2015)

75 Z�REE N°3/2015

En médecine, on a sou-vent été tenté d’opposer l’homme et la technologie, l’industrie et la relation de soin. Il faut reconnaître que l’introduction des techno-logies de l’information et des communications s’est faite d’abord, comme dans de nombreux secteurs, au-tour de préoccupations de gestion et de maîtrise des flux financiers. Ces outils ont été souvent perçus par les praticiens comme des contraintes nouvelles, perturbatrices de leur activité et sans apport pour le patient.

Lorsque les technologies d’assistance ont com-mencé à intégrer l’électronique et l’informatique (voir REE 2014-1), le regard des praticiens a changé, mais seule la spécialité de médecine physique et de réadaptation était concernée. Aujourd’hui, ce sont tous les outils d’observation et d’assistance à l’inter-vention (dispositifs médicaux) qui deviennent com-municants et constituent ainsi autant de sources d’information et de connaissances nouvelles, élabo-rées et restituées aux praticiens, parfois même au cœur de leur intervention. On a pu craindre que ces nouveaux dispositifs technologiques ne viennent se substituer à l’intervention humaine, tant en méde-cine qu’en chirurgie. Mais les évolutions récentes de la recherche et les projets innovants semblent montrer que l’équilibre entre la décision et l’action humaines et celle des systèmes techniques est généralement fructueux, tant en termes de perfor-mances que de maîtrise des risques. Ainsi, l’homme et l’outil technologique sont dans une position d’en-traide, la stratégie du premier étant irremplaçable, le second apportant à l’action l’assistance et les bornes qui réduisent les risques d’erreurs et favo-risent la diffusion des pratiques maîtrisées.

On notera que, dans cette approche, deux types de systèmes technologiques tendent à prendre une importance croissante :

-formations et les données d’observation, tout par-ticulièrement les systèmes d’imagerie médicale ;

-lation, autour des robots chirurgicaux.

L’imagerie interventionnelle indique que ces domaines ne sont pas disjoints et que la décision et l’action, fortement imbriquées dans les compor-tements humains, poussent naturellement à l’inter-

connexion des technologies qui les supportent.

Dans ce contexte, la question de la conception de tels dispositifs tech-niques doit être abordée d’une façon nouvelle : il est en effet nécessaire de s’assurer dès le départ que l’interaction entre les utilisa-teurs humains, au sein des équipes soignantes, avec et au travers de la solution,

sera d’excellente qualité. La conception ouverte, par-ticipative, orientée utilisateur, renvoie à l’approche dite “Living Lab” (voir encadré) qui occupe une place croissante dans le domaine de la santé. C’est cette révolution qui a guidé le choix des articles consti-tuant le présent dossier : deux d’entre eux illustrent cette approche “Living Lab”.

Les quatre articles qui suivent développent cha-cun une des facettes de la collaboration de plus en plus étroite entre les professionnels et les systèmes technologiques.

Le premier, dont l’auteur est Clément Vidal, pré-sident de la société EndoControl, concerne la robo-tique d’assistance à la chirurgie : les premiers robots chirurgicaux opéraient un clivage entre le chirurgien, appelé à s’éloigner du champ opératoire, et le robot opérateur. Celui-ci était vu comme un substitut de la main et du geste. Ce dont il est question ici, c’est au contraire l’avènement de la co-manipulation, tech-nique dans laquelle l’homme et le robot collaborent efficacement avec la finalité commune d’opérations sûres et les moins invasives possibles.

Le deuxième article, proposé par le professeur Gouenou Coatrieux, Dalel Bouslimi et Michel Cozic, chercheurs au SePEMeD, s’intéresse à la sécurisation des images médicales. L’image envahit en effet toutes les spécialités médicales. Elle devient le support privi-légié de l’observation et contribue ainsi à la décision sous toutes ses formes : choix des traitements, de l’intervention, jusqu’au guidage fin du geste chirurgi-cal. Il est donc essentiel de s’assurer qu’elle n’a pas été corrompue, par erreur ou par malveillance, ce qui pourrait avoir des conséquences dramatiques. Les techniques de tatouage et de cryptographie, ju-dicieusement conjuguées, permettent d’assurer au décideur humain qu’il prend sa décision à partir d’un support technologique digne de confiance.

Le troisième article, dont l’auteur est Jean-Marie Moureaux, professeur à Télécom Nancy et chercheur

LES GRANDS DOSSIERSIntroduction

Nouvelles contributions des TIC à la médecine et à la chirurgie

Robert PicardIngénieur général

des Mines

Bernard AyraultDirecteur honoraire de Télécom Bretagne

Page 19: Aperçu du numéro 2015-3 de la REE (juillet 2015)

76 Z�REE N°3/2015

au Centre de recherche en automatique de Nancy (CRAN), a trait à la question de l’optimisation des ressources et à la coopération des équipes de soin au travers de systèmes avancés d’imagerie médi-cale. Le système technologique est une plate-forme européenne de télé-médecine : HIPERMED ; mais le travail d’équipe entre chercheurs, praticiens, industriels a également permis le développement d’un savoir-faire de co-conception qui prend aujourd’hui corps au sein d’un Living Lab dénommé PROME-TEE, également décrit dans cette communication.

Enfin, le quatrième article est proposé par Robert Picard, réfé-rent santé du Conseil général de l’économie, et le professeur Jacques de Guise de l’université de Montréal. Ils développent une réflexion sur l’évolution de l’inno-vation en technologies de la santé et sur la transformation de la vision des chercheurs sur la valorisation. Les auteurs s’appuient pour cela sur les pratiques développées au sein du Laboratoire de recherche en imagerie et orthopédie de Montréal. Son fonctionnement se réfère en effet à l’approche Living Lab, qui se traduit ici par des rela-tions quotidiennes entre profes-sionnels de santé et technologues

autour de problématiques médicales concrètes. Les entreprises industrielles et les questions d’indus-trialisation sont également très présentes. Les avan-tages de cette façon de faire sont illustrés au travers d’un système d’imagerie orthopédique, KneeKG, qui connaît un succès international.

En conclusion, ce dossier présente enfin quelques pistes d’innovation dans la recherche technologique en santé. Ces pis-tes ont été sélectionnées parmi une quinzaine, présentées lors d’une journée consacrée à ce thème et organisée récemment par l’Institut Mines Télécom. On y découvrira successivement, en partant de dispositifs tech-nologiques originaux d’acquisi-tion de données pour s’approcher progressivement de domaines où le traitement de ces données devient prépondérant, quatre projets de recherche prometteurs. Ces quatre projets concernant respectivement un nouveau cap-teur biophotonique destiné aux « laboratoires sur puce » ; les pro-grès réalisés dans l’imagerie po-larimétrique ; le diagnostic et le suivi des pathologies respiratoires par l’image ; la modélisation des connaissances anatomiques pour l’analyse des images médicales. Q

LES GRANDS DOSSIERS Introduction

Robert Picard est diplômé de l’Ecole polytechnique et titulaire d’un PhD en sciences de gestion. Ingénieur général des Mines, il est le référent santé au Conseil général de l’économie, au sein du Ministère de l’Economie et des finances. Très engagé dans la dynamique des Living Labs, il a créé avec Antoine Vial, expert en santé publique, le forum des Living labs en santé et autonomie (LLSA), dont il préside l’association de soutien.Bernard Ayrault est diplômé de l’Ecole polytechnique et Docteur ès sciences. Il est ancien directeur de Télécom Bretagne (Institut Mines-Telecom), membre émérite de la SEE, il fait partie, depuis son départ en retraite, du comité de rédaction de la REE, dans laquelle il tient avec régularité plusieurs rubriques ou chroniques.

La robotique d’assistance à la chirurgie - L'avènement de la co-manipulation Par Clément Vidal ......................................................................................................................................................... p. 78Sécurisation des images médicales externalisées : tatouage et cryptographie Par Gouenou Coatrieux, Dalel Bouslimi, Michel Cozic .................................................................................. p. 84Optimisation et coopération : la plate-forme européenne de télémédecine HIPERMED et le Living Lab PROMETEE Par Jean-Marie Moureaux .......................................................................................................................................... p. 92Un exemple d’écosystème d’innovation en technologies de la santé Le laboratoire de recherche en imagerie et orthopédie de MontréalPar Robert Picard, Jacques A. de Guise ................................................................................................................ p. 99Quelques pistes d’innovation dans la recherche technologique en santéPar Bernard Ayrault ................................................................................................................................................... p. 107

Lecteur optique à hautes performances pour les laboratoires sur pucePar Yanek Gottesman .................................................................................................................................................................. p. 107Progrès dans l’imagerie polarimétrique Par Jihad Zallat ............................................................................................................................................................................. p. 109Airways - Diagnostic et suivi des pathologies respiratoires par l’imagePar Catalin Fetita, Christophe Lefevre .................................................................................................................................. p. 111Modélisation de connaissances anatomiques pour l’analyse des images médicales Par Isabelle Bloch ......................................................................................................................................................................... p. 112

LES ARTICLES

Page 20: Aperçu du numéro 2015-3 de la REE (juillet 2015)

77 Z�REE N°3/2015REE N°3/2015 Z 77

LES GRANDS DOSSIERSIntroduction

Caractérisation des LL en santé et autonomie (LL SA)L’approche Living Lab, qui diffuse aujourd’hui dans la santé, en Europe et en France, ouvre des perspectives

intéressant à la fois l’innovation et la démocratie sanitaire. Elle est singulière, innovante, adaptée et profitable, tant pour les utilisateurs (patients et professionnels de santé), les offreurs (industriels et société de services), les financeurs (assurances obligatoire et complémentaire), que pour la collectivité (dépenses de santé et emplois).a. singulière parce qu’elle introduit l’utilisateur (patient et/ou professionnel) dans la réalisation d’un produit ou

service dès le début de la conception – alors que les produits de santé sont traditionnellement conçus via une coopération entre l’industrie et les seuls praticiens hospitaliers ;

b. innovante car susceptible de déboucher sur des produits de santé vraiment nouveaux, dont la valeur est perçue au-delà des établissements de santé et de la Sécurité sociale, par des acteurs économiques susceptibles de payer. Elle est éprouvée, car déjà mise en œuvre dans d’autres secteurs industriels concurrentiels (la téléphonie mobile, par exemple), et permet de gagner en temps et donc en coût de conception et en pénétration du marché ;

c. adaptée aux secteurs sanitaire et médico-social car fruit d’un travail collaboratif de trois ans impliquant profes-sionnels de santé et représentants de patients : la mission de 2010 du CGE a conduit au rapport « Pertinence et valeur du concept de « laboratoire vivant » en santé et autonomie » remis en juillet 2011. Sa restitution a vu la demande unanime des participants de poursuivre un partage sur le sujet. Le « Forum LLSA » a pris forme pro-gressivement. Il est vécu par les participants comme un outil de politique publique d’innovation dans la santé ;

d. profitable : les LL SA portent une démarche accélérant la diffusion de solutions technologiques réellement utiles et efficientes dans une authentique politique de démocratie sanitaire.

Réalité des LL Santé Autonomie nationauxLes LL SA procèdent de démarches variées, selon l’histoire, la culture du territoire et le profil du porteur, mais

ils conjuguent toujours une dimension d’innovation technico-économique et d’innovation dans le champ sani-taire et/ou social, réconciliées au sein du territoire. Il en résulte une ouverture : des espaces de concertation et de participation opérationnelle, lieux de création et d’évaluation de solutions nouvelles, adaptées aux patients et citoyens « acteurs de leur santé » ; du temps gagné pour concevoir produits et services sur des concepts éprouvés, grâce à une évaluation continue des solutions ; des idées de produits et services qui débouchent plus fréquemment sur des solutions viables répondant aux attentes des publics : 50 % des idées explorées ainsi trouvent un marché, contre 20 % selon les approches traditionnelles ; l’obtention de solutions appropriées en accélère la diffusion (quelques mois pour une solution professionnelle au niveau d’une région, au lieu de plusieurs années), d’où des résultats en termes de santé, des retours sur investissement plus rapides et des solutions pérennes.

Favoriser les liens inter-LLSA : la valeur ajoutée du Forum LL SARapprocher développement économique, amélioration de la santé des populations et participation de celles-

ci : cette triple ambition devient réalité dans plusieurs territoires. Mais les initiatives identifiées – qui mobilisent la démarche Living Lab – gagneraient à bénéficier d’un soutien national.

En effet, en l’absence d’initiative nationale, ce mouvement risque de conduire à une dispersion de l’effort public, avec des résultats locaux partiels, non reproductibles et dont la pérennité est fragilisée. Inversement, une institutionnalisation classique (labels assortis de dotations budgétaires, par exemple) serait vraisemblablement à la fois coûteuse et stérilisante – car peu compatible avec les dynamiques locales à l’œuvre actuellement.

L’existence d’un Forum Living Lab Santé Autonomie, voulue par les porteurs régionaux, constitue une opportunité unique pour une troi-sième voie, conjuguant initiative locale et intérêt général. Il reste à préci-ser la place de ce Forum au milieu des autres acteurs publics ou privés, tout en soutenant l’action engagée.

Mais parallèlement les liens inter-régionaux et l’interaction perma-nente des territoires se développent, avec une animation nationale propre à accélérer les partages d’expériences, à développer ensemble les éléments de mesure d’impact tant économiques que médico-sociaux, à valoriser le savoir-faire français au niveau européen et international, à favoriser enfin l’émergence d’une véritable politique d’innovation à la fois économique et sociale. Q

Le Forum des Living Lab en santé & autonomie

Page 21: Aperçu du numéro 2015-3 de la REE (juillet 2015)

78 Z�REE N°3/2015

NOUVELLES CONTRIBUTIONS DES TIC À LA MÉDECINE ET À LA CHIRURGIEDOSSIER

La robotique d’assistance à la chirurgieL’avènement de la co-manipulation

Par Clément VidalSociété Endocontrol

As robots are more and more used in industry and everyday life, surgery presents an intrinsic difficulty: due to a large variety in patients’ anatomy and pathology, it cannot be reduced to perfectly reprodu-

cible tasks. This might explain why, while first surgical robots were inspired by their ancestors used in Industry, new approaches are now developed. Telemanipulation has first convinced the surgical community of its clinical inte-rest. Today, a new generation of collaborative robots is emerging in surgery. This paradigm allows simultaneous operation of the surgeon and the robot on the patient, to leverage both robotics precision and human knowledge and adaptability. As such it opens up exciting perspectives both for the industry and for the clinical community.

ABSTRACT

IntroductionÀ l’ère de la robotisation des tâches,

la médecine présente une singularité : du fait des grandes variations anato-miques et de pathologies entre les patients, elle ne peut être réduite à des gestes parfaitement reproductibles. Les actes chirurgicaux sont nécessairement individualisés et spécifiques à chaque patient ; il est très difficile de les planifier entièrement à l’avance. C’est pourquoi, si les premières approches en robo-tique d’assistance chirurgicale étaient fortement inspirées de la robotique industrielle, des voies nouvelles sont apparues. Après la télémanipulation, qui a permis à la robotique de convaincre le milieu médical de son intérêt clinique, nous voyons arriver aujourd’hui l’ère de la co-manipulation, ce nouveau para-digme permettant le travail simultané, autour du patient, des robots et des personnels de soin.

Le terme robot provient du tchèque robota signifiant travail forcé (« corvée »). Il fut introduit en 1920 par le dramaturge Karel Capek dans sa pièce de science-fic-tion intitulée R.U.R (Rossum’s Universal Robots). La signification de ce terme a évolué au cours du temps, mais il conti-nue à se caractériser par une importante polysémie. Il est intéressant de le souli-gner puisque la chirurgie bénéficie à plu-

sieurs niveaux de ces différents aspects que peut prendre la robotique.

Un robot ménager est un bloc-moteur électrique combinable avec divers acces-soires permettant d’effectuer plusieurs opérations culinaires. Plus généralement, un robot est un appareil automatique capable de manipuler des objets ou d’exécuter des opérations selon un pro-gramme fixe, modifiable ou adaptable. Dans les œuvres de science-fiction, c’est une machine à l’aspect humain capable de se mouvoir, d’exécuter des opérations et de parler (robotique humanoïde).

De nos jours, les robots sont essen-tiellement utilisés en routine pour ef-fectuer des tâches requérant une très grande précision ou pour travailler dans un environnement hostile.

La robotique au service du mini-invasif et de la précision

La chirurgie est une discipline mé-dicale spécialisée dans le traitement de maladies et de traumatismes qui consiste à pratiquer manuellement, à l’aide d’instruments, des actes opé-ratoires sur un corps vivant. Le succès d’une chirurgie demande avant tout non seulement de poser la bonne indica-tion opératoire, mais aussi de réaliser le geste juste afin d’assurer l’efficacité

thérapeutique tout en limitant les effets collatéraux.

Sur ce dernier point, la discipline s’est attachée durant les dernières décennies à :

-caux, notamment en réduisant la taille des incisions ;

plus en plus petites, avec une préci-sion toujours accrue.

Un premier exemple est la chirurgie laparoscopique : en chirurgie abdomi-nale, les voies d’accès (dites laparosco-piques) consistent en la réalisation de plusieurs petites incisions abdominales, de 5 à 10 mm, remplaçant la tradition-nelle incision large, dite laparotomie. Les instruments chirurgicaux sont introduits dans l’abdomen via ces incisions, ainsi qu’un endoscope muni d’un système d’éclairage et d’une caméra. Le chirur-gien visualise la cavité abdominale par l’intermédiaire d’un écran vidéo situé à côté de la table d’opération, et non plus directement à travers l’incision. Cette technique chirurgicale a drastiquement réduit l’invasivité du geste et donc la douleur associée, les cicatrices, la durée d’hospitalisation, le temps de repos né-cessaire avant une reprise du travail… si bien qu’elle a largement remplacé la laparotomie pour de nombreuses indi-cations. Néanmoins, ces voies d'accès

Page 22: Aperçu du numéro 2015-3 de la REE (juillet 2015)

REE N°3/2015 Z 79

La robotique d’assistance à la chirurgie

laparoscopiques posent des problèmes inédits aux chirurgiens en limitant l’ac-cès tant visuel que tactile aux organes à traiter.

Dans d’autres domaines, on cherche à limiter encore plus la taille des inci-sions en utilisant des aiguilles, qu’il faut positionner avec précision pour prélever des tissus (biopsies) ou appliquer un traitement local (thérapie percutanée).

L’évolution de ces techniques mini-malement invasives vers des indications de plus en plus complexes et deman-dant une précision toujours plus grande, nécessite une adaptation de l’instru-mentation. C’est dans ce contexte que la robotique a fait son entrée dans les blocs opératoires pour apporter la préci-sion et la capacité de réaliser des gestes complexes dans un environnement contraint.

L’évolution de la robotique vers une co-manipulation dite « intelligente »Les pionniers : des robots issus du monde industriel

Les robots chirurgicaux partagent les mêmes objectifs de précision : aider le chirurgien à réaliser des tâches précises selon un planning opératoire prédéfini.

L’histoire de la robotique chirurgicale a commencé dès 1985 avec l’utilisa-tion du robot PUMA 560 (un système de manipulation initialement destiné à l’industrie), pour réaliser des biopsies requérant une grande précision, notam-ment en neurochirurgie.

Le principe était de procéder à un recalage peropératoire, c’est-à-dire à une mise en correspondance entre le repère du robot (celui dans lequel il sait évoluer) et un repère lié au patient. Une fois ce recalage effectué, le robot était capable d’exécuter une trajectoire pré-programmée avec une grande précision.

Ce principe a ensuite été repris pour l’orthopédie, par exemple avec le sys-tème Robodoc. Dans cette application,

le robot (un robot fabriqué à l’époque par IBM pour la fabrication de cartes électroniques), réalise une opération de fraisage de l’os afin de creuser le logement d’une prothèse de genou. Là encore, c’est la précision du suivi de trajectoire, bien meilleure que celle obtenue à la main – fût-elle celle d’un chirurgien – qui justifie l’usage du robot.

Mais force est de constater que ces robots, s’ils affichaient les performances attendues, n’ont pas pénétré le mar-ché de façon significative. Une des rai-

sons de cet échec est sans doute un mode de fonctionnement inadapté au contexte de la chirurgie : le robot inter-venait ici à la place du chirurgien, lequel, relégué au rôle de simple observateur était cantonné à l’actionnement d’un bouton d’arrêt d’urgence pendant la réa-lisation du geste.

Le mode « recalage + exécution d’un geste automatique » avait vécu. Il fallait trouver un moyen d’apporter sûreté, précision et mini-invasivité en conser-vant le chirurgien dans la boucle.

Figure 1 : Les robots de télémanipulation sont de plus en plus présents dans les blocs opératoires. Ici, le système Da Vinci (Intuitive Surgical Inc.) et VIKY UP (ENDOCONTROL SAS). Ces systèmes permettent d’améliorer la stabilité, la dextérité, la force et la précision du geste opératoire - Source : ENDOCONTROL.

jphauet
Rectangle
Page 23: Aperçu du numéro 2015-3 de la REE (juillet 2015)

REE N°3/2015 Z�107

NOUVELLES CONTRIBUTIONS DES TIC À LA MÉDECINE ET À LA CHIRURGIE DOSSIER

Quelques pistes d’innovation dans la recherche technologique en santé

Les recherches scientifiques et technologiques relatives au domaine de la santé ont pris beaucoup d’ampleur depuis une dizaine d’années ; en particulier les écoles d’ingénieurs dédiées aux technologies de l’information et de la commu-nication (TIC) sont particulièrement actives et l’Institut Mines-Télécom a explicitement inscrit le secteur « TIC & santé » parmi ses axes stratégiques.

C’est donc tout naturellement qu’il a organisé le 5 mars 2015 à Evry, dans l’enceinte de Télécom SudParis et en liaison avec CYSTENE, une « Bourse aux technologies » dédiée aux « Technologies numériques pour la santé » ; rappelons ici que CYSTENE est le consortium de valorisation thématique qui regroupe les organismes publics de recherche de l’Alliance numérique, constituée outre l’Institut par le CNRS, l’INRIA, le CEA… avec l’objectif de renforcer le système de recherche et d’innovation en matière de transfert dans le domaine des TIC.

Parmi la quinzaine d’applications prometteuses et d’innovations présentées le 5 mars, nous en avons sélectionné quatre, en excluant celles qui, concernant l’aide à la personne, relevaient plus explicitement du dossier que REE a récem-ment consacré aux « TIC et la lutte contre la perte d’autonomie » (REE 2014-1).

La richesse des informations contenues dans les images explique clairement que la plupart des projets concernent de près ou de loin l’image mais celle-ci peut intervenir tout au long d’une chaine qui va de la capture à l’interprétation des pathologies.

Les quatre flashs qui suivent illustrent cette grande variété et le lecteur pourra successivement s’intéresser à la façon de capturer l’information fournie par les cellules bio-photoniques, à un élégant moyen d’enrichir les images de la micros-copie traditionnelle, à une méthode de diagnostic puis de suivi, grâce à l’image, de certaines affections respiratoires, enfin à la modélisation des connaissances anatomiques en vue d’interpréter les images médicales pour y reconnaitre d’éventuelles pathologies.

Bernard Ayrault

Face au vieillissement des populations

et à l’organisation actuelle de la prise en

charge des patients dans les hôpitaux, les

chercheurs imaginent et proposent depuis

près d’une vingtaine d’années de nou-

velles approches permettant des analyses

médicales rapides et fiables. Au-delà de

ces préoccupations, le concept même des

équipements d’analyse a été repensé en

profondeur et a finalement débouché sur

la conception de ‘’laboratoires sur puce’’.

Dans l’élaboration des solutions actuel-

lement les plus matures, se cache fina-

lement une question simple : comment

réduire la taille des équipements néces-

saires aux analyses biologiques usuelles ?

Les diverses voies développées ont en

commun le fait qu’elles cherchent toutes

à intégrer sur des volumes ou surfaces

miniaturisées toutes les fonctions néces-

saires à l’analyse biologique recherchée.

Pour s’en faire une image plus pré-

cise, il faut se représenter les laboratoires

sur puce comme des dispositifs de taille

et d’aspect comparables à ceux d’une

puce électronique telle qu’un micro-

processeur, obtenue à des coûts com-

parables, mais comprenant des circuits

intégrés de nature bien différente, en

particulier des circuits intégrés optiques

et des circuits micro-fluidiques dédiés à la

détection et à la quantification des molé-

cules cibles recherchées ; ces dispositifs

doivent pouvoir travailler dans des temps

très brefs, à partir par exemple d’une

goutte de sang. C’est pourquoi de telles

solutions portent en elles la promesse

d’être accessibles d’ici peu à tous, d’être

transportables au chevet des patients, voire

d’être portables à la façon des montres

connectées, grâce à leurs faibles coût et

encombrement. Comme il peut être aisé-

ment imaginé, ces approches peuvent

changer considérablement les façons de

suivre un patient.

Lecteur optique à hautes performances pour les laboratoires sur pucePar Yaneck GottesmanMaître de conférences à Télécom SudParis

Page 24: Aperçu du numéro 2015-3 de la REE (juillet 2015)

108 Z�REE N°3/2015

NOUVELLES CONTRIBUTIONS DES TIC À LA MÉDECINE ET À LA CHIRURGIEDOSSIER

On note que dans ce contexte, l’essen-

tiel des innovations a porté sur la concep-

tion même des puces, sur les biocapteurs

photoniques qui y sont intégrés et sur

le choix des phénomènes physiques à

exploiter à ces nouvelles échelles. La lec-

ture des capteurs est alors associée à une

instrumentation optique aussi simple que

possible. Dans les approches usuelles, les

propriétés des molécules observées à tra-

vers ces capteurs sont codées/décodées

grâce aux propriétés élémentaires des

photons analysés après interaction avec

les molécules ciblées. En guise d’exemple

on peut se référer aux deux grandes fa-

milles existantes de lecteurs :

-

tation d’imagerie spectroscopique qui

détecte la longueur d’onde de résonance

des différents capteurs ;

en un système d’imagerie de longueur

d’onde fixe, qui se charge d’enregistrer

uniquement l’intensité de la lumière ré-

fléchie par les capteurs. Le changement

de la fréquence optique de résonance

des capteurs est alors évalué indirecte-

ment à travers un modèle physique qui

compense l’absence d’enregistrement

spectroscopique.

Même si ces différentes approches

ont montré leur efficacité pour différentes

applications biologiques au point d’être

disponibles commercialement, elles sont

insuffisantes dès lors que l’on cherche à

repousser les limites des analyses acces-

sibles aux laboratoires sur puce. Ces

limites sont indéniablement pour partie

liées à la faible richesse des informa-

tions actuellement enregistrées. Notre

approche concerne précisément ce point

essentiel ; elle répond également à un

second besoin exprimé : celui d’une com-

préhension plus fine du fonctionnement

interne des biocapteurs, comme cela est

essentiel pendant les différentes phases

de leur prototypage (optimisation de leur

design et des procédés de fabrication

employés). La solution que nous avons

développée est issue de travaux antérieurs

que nous avions effectués sur l’analyse du

fonctionnement de composants photo-

niques analogues à ceux utilisés dans le

domaine des circuits intégrés photoniques

du secteur des télécoms. Il s’agit d’une

technique d’imagerie OCT (pour Optical

Coherence Tomography), qui consiste en

une imagerie interférentielle de la surface

des capteurs obtenue grâce à un interfé-

romètre de Michelson (figure 1) éclairé en

lumière blanche.

Dans un des bras de l’interféromètre se

trouve un miroir de référence dont la posi-

tion peut être contrôlée. Dans l’autre bras

(le bras de mesure) se trouve l’échantillon

sous test à travers un système de micros-

copie et une tête optique contenant un

jeu de miroirs orientables afin de déplacer

une sonde optique sur la surface à ana-

lyser. L’enregistrement dynamique des

franges d’interférences permet finalement

de faire une imagerie 3D des capteurs,

ces franges étant effectivement localisées

autour des centres diffusants avec une

résolution spatiale de quelques microns

(figure 2). Un tel instrument associe de

plus une instrumentation spectrosco-

pique (spectroscopie par transformée de

Fourier : figure 3) à une mesure de phase

optique de très haute qualité. Cette der-

nière clé, essentielle dans le dispositif

permet alors délivrer des images spec-

troscopiques volumiques Doppler sur

l’ensemble du volume analysé. Il en est

de même pour le dernier type d’image

volumique également enregistrable : une

image ellipsométrique volumétrique liée

à l’état de polarisation des photons cap-

tés. Ainsi l’instrument que nous avons mis

au point enregistre de façon simultanée

une information complète (au sens de

l’optique linéaire) des propriétés optiques

des surfaces ou tissus analysés. Son archi-

tecture est protégée par deux brevets que

nous avons déposés dès 2011 (figures 2

et 3).

Figure 1 : Schéma de principe du lecteur optique.

Figure 2 : Exemple d’image 3D obtenue sur un objet diffusant en paraffine.

Page 25: Aperçu du numéro 2015-3 de la REE (juillet 2015)

REE N°3/2015 Z 109

Quelques pistes d’innovation dans la recherche technologique en santé

De notre point de vue, le principal inté-

rêt de cet instrument, dénommée HPR-

OCT (pour Hyperspectral Polarization

Resolved OCT) réside dans la richesse et

la précision des différentes mesures effec-

tuées de façon simultanée. Il a été conçu

pour répondre aux besoins du secteur des

laboratoires sur puce, soit, dès à présent

pour une instrumentation scientifique po-

lyvalente de haute précision destinée aux

industriels travaillant sur le prototypage et

le développement des laboratoires minia-

turisés, soit, très prochainement, en tant

qu’équipement hospitalier pour diverses

analyses biologiques. La première généra-

tion d’instruments, développée au stade

de prototype avancé, est localisée au sein

de Télécom-Sudparis, dans ses laboratoire

du site « nano-innov » à Palaiseau.

Les équipements sont facilement ac-

cessibles aux équipes ou industriels qui

souhaitent les tester. Leur flexibilité garan-

tit une forte polyvalence applicative et

grâce à des adaptations faciles, ils peuvent

répondre à des besoins variés tels que la

caractérisation fine de surfaces/volumes

optiques, ou toute autre application re-

quérant une analyse poussée de proprié-

tés optiques à des échelles variant du

microscopique au macroscopique.

Institut Mines-TélécomTélécom SudParis

CNRS UMR 5157 [email protected]

Figure 3 : Mesure du spectre optique en un point de l’échantillon. La courbe bleue est le spectre mesuré par un analyseur de spectre optique calibré et souligne la qualité métrologique de notre dispositif. Le repère correspond à la longueur d’onde de résonance de la source optique utilisée.

L’imagerie optique conventionnelle re-

pose sur l’analyse des valeurs de luminance

d’une scène et ignore la nature vectorielle

de l’onde lumineuse, en particulier son

état de polarisation. L’imagerie polarimé-

trique tient compte de la polarisation qui

est beaucoup affectée par la manière dont

l’objet interagit avec la lumière.

Les images portent ainsi l’empreinte

des interactions de l’objet avec la lumière

et l’on a ainsi montré, dans le cadre de

l’analyse de tissus biologiques, que les

propriétés de diffusion de la lumière à

l’intérieur des tissus ainsi que des carac-

téristiques telles que la biréfringence et

la dépolarisation ne sont pas identiques

pour des tissus cancéreux et sains .

Par ailleurs la structure 3D est spéci-

fique des systèmes biologiques et les pro-

cessus biologiques peuvent se produire à

différentes échelles de profondeur. Afin

d’accéder à cette structure essentielle,

différentes techniques de microscopie

3D ont été développées comme celles

basées sur la déconvolution, la micros-

copie confocale et la microscopie à deux

photons. Toutes ces technologies sont très

coûteuses et ont chacune leurs propres

limitations. De plus, chacune de ces tech-

nologies doit être implantée dans un sys-

tème de microscopie spécifique qui ne

réalise que l’image à laquelle il est dédié.

Nous travaillons sur un dispositif, bap-

tisé Micropol 3D, qui est une plate-forme

de microscopie spectro-polarimétrique

en mode tomographique, constituée d’un

module indépendant, de faible coût et

susceptible de s’adapter à tout type de

microscope standard. Il est capable de

moduler continûment les états de polari-

sation de la lumière ; grâce à une tech-

nologie brevetée, le dispositif reste très

stable dans le temps (sans dérive) et ne

nécessite pas de réétalonnages récur-

rents. Micropol 3D permet des mesures

multi-spectrales de polarisation et dote le

microscope d’un mode d’imagerie 3D.

Il comporte essentiellement deux parties :

Beaucoup de systèmes de mesure de

la polarisation utilisent des éléments de

modulation de la phase contrôlés élec-

triquement ce qui les avantage en terme

de rapidité et de facilité d’utilisation.

Cependant, ces éléments sont connus

pour leur sensibilité à la température ce

qui amène à des procédures d’étalonnage

récurrentes. Ces procédures sont fonda-

mentales lorsqu’il s’agit d’effectuer des

mesures quantitatives de la polarisation

Progrès dans l’imagerie polarimétriquePar Jihad Zallat Professeur à Télécom Physique Strasbourg

jphauet
Rectangle
Page 26: Aperçu du numéro 2015-3 de la REE (juillet 2015)

114 Z�REE N°3/2015

GROS PLAN SUR ...

ContexteUn système élec-trique sensible aux conditions clima-tiques

Le système élec-trique, en France et en Europe, est affecté par des phénomènes mé-téorologiques : le vent conditionne le fonctionnement des éoliennes, le rayonnement celui du photovoltaïque, la température affecte les consomma-tions (augmentation du chauffage lorsqu’il fait froid en hiver, et dans une moindre mesure, augmentation de la climatisation lorsqu’il fait chaud en été), et l’hydraulicité (conditions sèches

ou humides) a un impact direct sur les énergies tur-binées par les barrages au cours de l’année.

Une augmentation forte des parcs éo-liens et solaires ces dernières années…

La capacité des sys-tèmes de production d’électricité d’origine renouvelable ins-tallés en France, en particulier d’origine solaire et éolienne, a considérablement augmenté ces dernières années. En 2014, la couverture de la consommation par les EnR atteint 19,6 % (hydraulique inclus).

Modélisation de l’aléa éolien - Application aux réseaux électriques

Les caractéristiques spatiales et temporelles de la production éolienne et des éléments déterminants

du fonctionnement du système électrique

RTE - Direction Economie, Prospective et TransparenceMiranda Marchand Grégoire Paul Aude Wolny

An important growth of renewable energy sources, mainly solar and wind, was observed in France and Europe during last decade. This growth is expected to continue in the future, with ambitious targets defined at both natio-

nal and European levels. The scheduled replacement of much of the existing capacities with new ones, located differently, and which are, compared to classical thermal units, more variable and not easily dispatchable, is of outmost importance for prospective transmission grid development on the one hand (necessity to detect future bottlenecks induced by renewables), and adequacy issues in the other hand (quantifying the occurrence and level of situations at-risk in terms of generation/consumption equilibrium at national level)Those new issues underline the necessity to develop methods to better assess temporal and spatial characteristics of re-newable forms of energy. We present here a method to derive wind production, in MW, from European windspeed scenarios (in meter per second), and then roughly describe the simulated behaviour of the wind production in Europe (level of correla-tion, variability, range of magnitude…)An example of usage of data built with this method is also presented, through the analysis of flows at the France-Germany border.

ABSTRACT

Figure 1 : Evolution en MW des parcs éolien et photovoltaïque en France - Source : RTE – Panorama des énergies renouvelables 2014.

Page 27: Aperçu du numéro 2015-3 de la REE (juillet 2015)

REE N°3/2015 Z 115

Modélisation de l’aléa éolien – Application aux réseaux électriques

… qui se poursuivra dans les prochaines décen-nies, en France et en Europe

Les scénarios prévisionnels établis par RTE pour 2020 considèrent un parc de respectivement 12 GW pour l’éolien (+ 100 % par rapport au niveau de décembre 2014) et 8 GW pour le photovoltaïque (+ 50 %). A l’horizon 2030, le parc installé pourrait être de 12 GW à 24 GW pour le photovol-taïque et de 22 à 37 GW pour l’éolien (onshore et offshore) selon différents scénarios prospectifs établis par RTE pour 20301 (soit un taux de pénétration des EnR allant de 28 % à 40 %2 de la consommation).

A l’étranger, bien que la croissance du secteur des énergies renouvelables semble se ralentir comparativement au déve-loppement dynamique de ces dernières années, les pers-pectives d’augmentation à long terme restent conséquentes dans la plupart des pays européens : ainsi, sur l’ensemble de la plaque européenne, la puissance installée pour le parc renouvelable, de l’ordre de 400 GW actuellement, pourrait atteindre de 650 GW à 1150 GW en 20303.

Les principales caractéristiques des énergies éolienne et solaire

Ces énergies renouvelables présentent la caractéristique d’être variables et non dispatchables (c’est-à-dire non contrôlables) : la production varie en fonction des conditions météorologiques et, à l’inverse des centrales thermiques et des barrages hydrauliques, n’est pas pilotable par un opéra-teur en fonction des besoins du système en temps réel.

1 Source : RTE - Bilan prévisionnel 2014.2 Le projet de loi relatif à la transition énergétique a comme objectif un

taux de couverture par les EnR de 32 % de la consommation finale brute.

3 Source : Visions ENTSO-E du Ten-year-Network-Development-Plan 2014.

Par ailleurs, les profils de ces énergies sont plus ou moins réguliers : par exemple, le profil de la production solaire pos-sède une forme répétitive d’un jour à l’autre (dont l’ampli-tude dépend des conditions d’ensoleillement), tandis que la production éolienne peut avoir un profil très accidenté d’un jour à l’autre.

Enfin, il existe des disparités géographiques de produc-tion : ainsi, à un instant donné, les parcs en Bretagne et en Normandie ont en général des facteurs de charge (définis comme le niveau de production à un instant donné divisé par la puissance installée) proches, mais très décorrélés de facteurs de charge de régions plus éloignées comme la PACA ou le Languedoc Roussillon.

Ces caractéristiques sont illustrées par la figure 2.

Une production qui modifie en profondeur le fonctionnement du système électrique

En raison de ces caractéristiques, les énergies renouve-lables installées sur le réseau ont un impact significatif sur le fonctionnement du système électrique et en particulier sur :

l’équilibrage en temps-réel de la production et de la consommation : il doit tenir compte des variations de pro-duction des énergies renouvelables (variation d’une heure à l’autre, d’une saison à l’autre…) ; la gestion des flux sur le système électrique : les nou-veaux sites de production étant généralement situés dans des zones éloignées des centres de consommation, des flux vont s’établir sur le réseau. Ces flux seront d’autant plus importants que la production renouvelable créera des dé-séquilibres entre les différentes régions.

Ces deux problématiques sont à considérer au niveau européen : ainsi, une production renouvelable importante en Allemagne a un impact significatif sur les flux transfrontaliers avec la France (figure 3).

Figure 2 : Evolution comparée des facteurs de charge de la production solaire (à gauche) et éolienne (à droite) du 8 au 14 février 2012 pour plusieurs régions en France – Source : RTE - données historiques.

jphauet
Rectangle
Page 28: Aperçu du numéro 2015-3 de la REE (juillet 2015)

126 Z�REE N°3/2015

ENSEIGNEMENT & RECHERCHE

REE : Vous avez récemment, terminé un double mandat, à la présidence de l’Université technologique de Troyes (UTT) et à celle de la CDEFI. Nos lec-teurs savent ce que sont les universités technologiques mais beaucoup ignorent le rôle de la CDEFI. Pourriez-vous le pré-ciser ?Christian Lerminiaux : Les écoles d’ingénieurs françaises sont à la fois nombreuses (plus de 200 !) et variées ; mais elles ont des points communs nombreux, en particulier parce que depuis 80 ans elles font l’objet de l’accrédi-tation de la Commission du titre d’ingénieur (CTI). La CTI examine régulièrement (tous les six ans) toutes les formations, pérennes ou nouvelles, conduisant au titre d’ingénieur ; elle a fixé des repères et des exigences qui s’imposent à tous et qui sont des garanties tant vis-à-vis des diplômés que de leurs futurs employeurs (connais-sance des méthodes, maîtrise de l’anglais, stages en entreprise, initiation à la recherche, formation en sciences économiques et sociales…).

Il était naturel qu’une structure à la fois représentative de la diver-sité même des écoles d’ingénieurs et reconnue de l’ensemble des acteurs concernés voit le jour : la Conférence des directeurs des écoles françaises d’ingénieurs (CDEFI) joue ce rôle, qui a d’ailleurs été officialisé et l’encadré ci-dessous rassemble l’essentiel de ce qu’il convient de savoir à son sujet. J’ajoute que cette structure légère sti-mule un travail collectif et varié au sein de ses diverses commissions, où l’échange est la règle. Pour ma part, avant d’être élu président par mes collègues, je me suis consacré tout spécialement à la recherche et au développement : compte tenu de mon cursus comme de mes fonctions à l’UTT, je suis très attaché au développement de la R&D au sein des écoles, alors même qu’on leur a souvent reproché de se dispenser de cet aspect, essentiel dans les universités. L’expérience de ces 20 dernières années montre d’ailleurs que la recherche s’est largement développé dans les écoles… en même temps que se développaient les coopérations entre écoles et universités.

Les écoles d’ingénieurs ont toujours su être à la pointe de l’inno-vation technologique et organisationnelle et elles ont un rôle-clé dans la réflexion à mener dans l’enseignement supérieur en France ; il est important que ce rôle continue de se renforcer, grâce à la CDEFI bien sûr, mais aussi par d’autres voies – je pense en particulier à la consti-

tution de réseaux ou à l’ouverture internationale.

REE : Les écoles ne relevant pas du ministère de l’Education natio-nale, de l’enseignement supérieur et de la recherche (MENESR) ont-elles à craindre un certain étouf-fement ?C. L. : La CDEFI a su fédérer l’en-semble des écoles privées et pu-bliques quel que soit le ministère de tutelle. Elle a d’ailleurs quelque-fois joué le rôle d’intermédiaire entre les différents ministères.

Il paraît logique que Programme 150, relatif aux formations supé-

rieures et à la recherche universitaire au sein de la LOLF (loi organique relative aux lois de finances), regroupe l’ensemble des établissements publics et qu’il soit placé sous la coordination du MENESR ; mais il est important de maintenir la grande diversité des établissements et je ne pense pas que nous nous dirigions aujourd’hui vers un regroupement des écoles sous la seule tutelle du MENESR.

Il faut maintenir la diversité des établissements

REE : La Nation accorde-t-elle suffisamment d’importance à la recherche et au développement dans l’enseignement supérieur ?C. L. : Aujourd’hui, les dépenses globales concernant l’enseignement supérieur en France sont inférieures à la moyenne de l’OCDE, mais les dépenses publiques sont à peu près à hauteur. Il faut donc mener une réflexion globale sur le financement en mettant à contribution les usagers et surtout les entreprises. Les entreprises allemandes, par exemple, contribuent deux fois plus que les entreprises françaises au financement de la recherche publique, y compris par l’intermédiaire des fondations. Si l’on s’inspire de ce modèle, cela signifie aussi qu’il y aura davantage de contrats, de financements non pérennes et qu’il faut davantage professionnaliser la contractualisation. Un des challenges est le suivant : comment faire une politique de long terme avec un financement contractuel à court et moyen termes ? Aujourd’hui on ne sait pas faire, et on n’ose pas faire ! Il faudra sans doute améliorer nos outils de pilotage et de gestion financière. En ce qui concerne les autres financements possibles, celui venant des particuliers est un enjeu tout aussi important, même si, pour des raisons culturelles, il est encore peu développé en Europe. Mais cela

Quelques convictions pour l’évolution de l’enseignement supérieur…

Entretien avec Christian LerminiauxAncien président de la CDEFI

Figure 1 : Les locaux historiques de la doyenne des Ecoles d’ingénieurs françaises, l’Ecole Royale des ponts et chaussée créée en 1747

et devenue Ecole nationale des ponts et chaussées.

Page 29: Aperçu du numéro 2015-3 de la REE (juillet 2015)

REE N°3/2015 Z 127

ENSEIGNEMENT & RECHERCHE

viendra. Il faut savoir se doter de structures capables d’aller convaincre les anciens, notamment ceux qui sont proches du terme de leur vie professionnelle, dont les enfants ont fini leurs études et ont trouvé l’emploi auxquels ils aspiraient, de consacrer à leur établissement d’ori-gine une partie de l’argent qu’ils ont gagné durant leur carrière. C’est ce que les universités américaines appellent le département « développe-ment » et effectivement aujourd’hui, le plus gros du développement des universités américaines repose sur ce financement. Il est nécessaire d’augmenter la part des entreprises dans le finan-cement de la recherche et des particuliers dans le financement des établissements.

REE : Faut-il augmenter les frais d’inscription ?C. L. : Sans doute. Les ménages devront contribuer un peu plus no-tamment dans les filières les plus professionalisantes, celles qui per-

mettent un débouché assuré, comme les formations d’ingénieurs. Mais soyons réalistes, cette augmentation sera loin de venir assurer les besoins de financement des établissements (pour information ces ressources constituent aujourd’hui de 1 à 3 % des recettes des écoles d’ingénieurs dépendant du MENESR), et les ressources envisagées précédemment restent primordiales.

En même temps, si l’on augmente les frais de scolarité, il faudra mettre en place un système incitatif qui permettra aux défavorisés de ne pas être exclus, un système de bourse ou de paiement différé leur demandant de rembourser quand ils auront un emploi. L’avantage du paiement différé est qu’il permettra d’éviter la crise des prêts étudiants comme c’est le cas aux Etats-Unis. Ce dispositif obligera également les organismes de forma-tion à être performants car ils ne seront payés que si emploi il y a après le cursus !

Créée par décret en 1976 et confirmée dans son rôle par la loi du 1er août 2007 relative aux libertés et responsabilités des universités, la CDEFI a pour mission de représenter les écoles d’ingénieurs et les universités de technologie auprès de l’Etat, de l’Union européenne et des organisations internationales. Association régie par

la loi de 1901, elle regroupe les directeurs des établissements de même que la Conférence des présidents d’université (CPU) regroupe les présidents des universités : mutatis mutandis, CDEFI et CPU jouent des rôles analogues auprès de l’Etat, des pouvoirs publics et des organisations à caractère professionnel. Au nom des écoles d’ingénieurs, la CDEFI formule des vœux, bâtit des projets et rend des avis motivés sur des questions relatives à l’enseignement supérieur et à la recherche. Dans un contexte de compétition internationale et de naissance d’un marché mondial de l’enseignement supérieur, sa vocation première est de promouvoir l’ingénieur en France, en Europe et dans le monde.Auprès des écoles la CDEFI agit comme une structure de conseil :

-tiques…

La CDEFI est animée par une commission permanente de 20 membres, autour d’un bureau constitué d’un président et de trois vice-

et structuration de l’enseignement supérieur et de la recherche.La CDEFI gère cinq programmes de mobilité étudiante et enseignante à l’international et elle a conclu de nombreux accords d’échanges.

Chiffres-clés

211 écoles d’ingénieurs comptant au total 125 000 étudiants

qu’un triplement sur la même période.Les étudiants boursiers représentent 30 % des étudiants éligibles.Plus de 34 000 diplômes -

domaine des sciences et technologies, les jeunes ingénieurs, trouvent un emploi en moins de deux mois pour 76 % d’entre eux, en CDI F.

jphauet
Rectangle
Page 30: Aperçu du numéro 2015-3 de la REE (juillet 2015)

Chronique inhabituelle que celle de ce numéro de REE : d’habitude celle-ci s’appuie sur des livres dont le caractère scientifique est évident,

par le titre comme par le contenu, même si parfois ils s’aventurent aux confins de ce que la rigueur scientifique recommande ou exige. Il s’agit ici de deux romans, parus simultanément chez deux éditeurs prestigieux, spécialistes de ce genre littéraire, et d’ailleurs la critique ne s’y est pas trompée, qui fut à la fois littéraire et élogieuse !

Les titres de ces deux ouvrages renvoient à deux éminents scientifiques : Évariste évoque clairement la vie fulgurante d’Évariste Galois, qui en quelques mois d’un engagement ro-mantique bouleversa de façon durable les ma-thématiques et que le bandeau du livre baptise « Le Rimbaud des mathématiques » ! Sous le titre plus mystérieux du second ouvrage, trans-parait Werner Heisenberg, dont le nom est associé depuis près d’un siècle au « Principe d’incertitude », fondement de la mécanique quantique, qui oblige à penser chaque objet comme étant à la fois onde et particule.

Les grands scientifiques ont souvent droit à des biographies : ce genre présente une grande variété, de la piété filiale voire hagio-graphique (on songe par exemple à Eve Curie et à André Langevin), à des ouvrages ardus où c’est l’œuvre scientifique qui est exposée ou mise en valeur, parfois vulgarisée ; parmi ces nombreuses biographies, dont le point com-mun est sans doute d’être produites par des scientifiques, on retiendra en particulier les excellents ouvrages parus chez Belin. Les vies des grands hommes et femmes de science sont souvent exceptionnelles ou inattendues ; on pourrait souvent les qualifier de roma-nesques, mais ici avec Galois et Heisenberg, il s’agit de véritables romans, avec une recons-titution psychologique, s’appuyant sur une documentation de grande qualité et imaginant un parcours crédible pour ces deux destinées d’exception.

Tout semble opposer Galois (1811-1832) à Heisenberg (1901-1972) : leur siècle d’abord, leur discipline – maths ou physique – ensuite, mais aussi leurs vies : au génie incompris de l’un, à son radicalisme romantique, à une vie passionnée interrompue par un duel à 21 ans s’oppose une longue carrière chargée

d’honneurs (Chaire à Leipzig à 25 ans, prix Nobel à 31 ans). D’un côté un génie solitaire, incompris des sommités scientifiques de son temps et dont la gloire fut tardivement pos-thume ; de l’autre l’un des grands esprits du siècle, assistant de Born puis familier de tous les grands physiciens et entouré de disciples ; ici le républicain convaincu dont les obsèques furent suivies par plusieurs milliers de parti-sans de la Cause des amis du Peuple, là un savant que son nationalisme et son ambition personnelle aveuglent, qui accepte le régime nazi sans réticence, au point de devenir, de 1941 à 1943, le père du programme Uranium dont le but était de préparer la bombe ;

Heisenberg dut d’ailleurs fournir après-guerre quelques explications, peu convaincantes. Les voies du progrès de la connaissance sont déci-demment fort diverses !

Mais ces deux destins d’exception ont su inspirer deux véritables écrivains, c’est-à-dire des hommes de lettres soucieux d’imagi-ner un parcours psychologique plausible et non pas des hommes de science attachés à reconstruire un itinéraire intellectuel incontes-table. Jérôme Ferrari (né en 1968) a fait des études de philosophie, qui pointaient dans ‘’Le sermon sur la chute de Rome’’, couronné par le prix Goncourt en 2012 ; une documentation

exceptionnelle, s’appuyant sur l’autobiographie de Heisenberg (‘’Der Teil und das Ganze’’ : La partie et le tout) ainsi que sur les enquêtes des alliés en 1945/6, permet de suivre pas à pas le physicien : le romancier, qui a pris le parti d’une écriture distanciée, témoigne d’une précision toute clinique et l’on reste passionnément atta-ché à suivre et à comprendre une destinée… Et puis parfois, Ferrari se met à rêver, à évoquer des paysages ou encore à philosopher ou à imaginer ce que pensent Heisenberg et ceux qu’il rencontre : le lecteur oscille avec plaisir entre le récit d’une vie et d'un univers où la poésie le dispute parfois au tragique.

Évariste est de son côté le premier roman de François-Henri Désérable, jeune écrivain né en 1987, dont la formation fut à la fois économique et sportive, et qui fut joueur pro-fessionnel de hockey sur glace. Révélé il y a deux ans par le récit de la fin de vie de Danton (‘’Tu monteras ma tête au peuple’’) qui obtint plusieurs prix, il vient d’écrire un roman salué comme une grande réussite et dont l’écriture ressemble à la vie du héros : aux passions frénétiques d’Évariste, correspondent un récit qui parfois évoque Alexandre Dumas, lequel croisa d’ailleurs Évariste !

Elève précoce du lycée Louis le Grand, Galois commença de créer avant même d’affronter les concours et publia à 17 ans un théorème sur les fractions continues ! Ce sera la première d’une courte série de publications, consacrées aux racines des équations algé-briques et terminée par les quelques pages grif-fonnées dans la nuit qui précéda le duel funeste. Le mémoire sans aucun doute essentiel de Galois, rédigé pour un concours de l’Académie des sciences, a été perdu et il fallut plusieurs dé-cennies pour comprendre ses fulgurantes intui-tions sur la théorie des groupes. Le respect des institutions et des hommes n’était pas le souci de Galois : il échoua deux fois à Polytechnique et se fit renvoyer de l’Ecole préparatoire, l’ac-tuelle Ecole normale supérieure. Son engage-ment lors des Trois Glorieuses, puis sous Louis- Philippe parmi les Républicains, lui vaudra la prison où il connaitra Nerval et Raspail, avant une fin tragique liée à la passion amoureuse : comme s’étonner que cet homme de passion ait laissé un tel souvenir dans la mémoire col-lective et ait inspiré un si talentueux roman ! Q

B. Ay.

132 Z�REE N°3/2015

Jérôme FerrariLe principe

RomanActes Sud - mars 2015 - 176 p. - 16,50 F

François-Henri DésérableÉvaristeRoman

NRF Gallimard - mars 2015 - 176 p. - 16,90 F

CHRONIQUE

Des nouveaux héros de romans !

Page 31: Aperçu du numéro 2015-3 de la REE (juillet 2015)

REE N°3/2015 Z 133

LIBRES PROPOS

Jacques Deyirmendjian Ancien élève de l’Ecole polytechnique et de l’ENSAE Président de Deynergies

D ans ce monde où le caméléonisme éner-gétique est de règle, il arrive que des opi-nions non conformistes puissent s’expri-mer. Je suis heureux que la REE offre à un

« gazier première langue » l’occasion d’attirer l’attention sur certains aspects troublants concernant le gaz dans les politiques énergétiques européenne et française. L’un d’eux se trouve dans l’exposé des motifs de la loi sur la « transition énergétique pour la croissance verte » qui présente l’essor de nouvelles énergies comme un moteur de l’Histoire, veut renouer avec le volontarisme énergétique de la France, économiser l’énergie dans les bâtiments, créer des emplois, développer les EnR en valorisant les ressources des territoires, le tout dans le dialogue avec les citoyens ; il men-tionne aussi la réalisation du programme nucléaire à la suite du choc pétrolier de 1973 mais le gaz naturel n’existe pas !

Le gaz naturel est l’acteur de « la transition énergétique pour la croissance et un ciel plus bleu »

Pourtant l’industrie gazière pratique depuis 50 ans la « transition énergétique » mais discrètement et à l’instar de ses invisibles tuyaux. Les gisements découverts au milieu du 20e siècle dans certains pays ont d’abord été exploités localement ; puis le commerce international du gaz s’est développé grâce à la mise au point des contrats d’approvisionnement à long terme et aux pro-grès techniques pour le transport à grande distance, terrestre par gazoduc ou maritime par méthanier après liquéfaction.

Depuis 40 ans, l’approvisionnement européen est sûr et sécurisé et n’a pas connu de situation que les moyens techniques et contractuels disponibles n’aient permis de gérer. Le gaz naturel assure environ 25 % de l’approvisionnement en énergie primaire de l’Union eu-ropéenne (UE), 15 % en France en raison du nucléaire. En remplaçant le charbon et les produits pétroliers dans les installations existantes et en assurant une forte part des besoins nouveaux, cette « énergie propre, puissante

et pas chère », la moins carbonée des énergies fossiles et respectueuse de l’environnement – un gazoduc de diamètre 700 mm transporte autant d’énergie que les lignes électriques évacuant la production d’une centrale de 5 000 MW – a largement contribué à réduire les émissions de gaz à effet de serre, à rendre plus res-pirable l’air de nos villes et plus visible le bleu du ciel, couleur préférée des gaziers.

Cette transition a été réussie en respectant les règles classiques des coûts et de la concurrence : sans sub-ventions ni prélèvements obligatoires contrairement aux pratiques favorisant les EnR. Fondée sur des relations à long terme équilibrées entre les parties, notamment en matière de partage des risques, le gaz naturel a contri-bué à l’intégration européenne par la création d’infras-tructures transnationales et à favoriser la paix par la convergence d’intérêts de l’UE et des pays producteurs.

L’organisation monopolistique de jure ou de facto qui prévalait au sein de ces pays a facilité l’accès aux rende-

ments croissants qui caractérisent l’in-dustrie gazière. Les monopoles parlaient aux monopoles par-dessus les frontières en s’efforçant de tenir à l’écart le monde politique. Le succès de cette organisa-tion, que nul ne peut nier, finit par sus-citer la convoitise des gros consomma-teurs de gaz. Ainsi, le chimiste allemand BASF réussit à traiter avec Gazprom dès

le début des années 90. Une dizaine d’années plus tard, à l’ouverture des marchés, les électriciens inventèrent la « convergence de l’électricité et du gaz » pour vendre le gaz en plus de l’électricité, et surtout pour shunter les gaziers dans l’approvisionnement des nombreux cycles combinés (CCGT) planifiés.

Au-delà de sa lisibilité, la répartition des rôles des opérateurs gaziers de part et d’autre des points de livrai-son prévus aux contrats d’approvisionnement présentait des avantages importants notamment en matière de coûts et de sécurité d’approvisionnement, mais l’UE a choisi de passer outre.

Les directives européennes ont démantelé la chaîne gazière et augmenté son coût

La Commission européenne (CE) a mis sous tutelle ces contrats, proscrit les clauses de destination et défait les partenariats ; la production et le commerce du gaz ont dû être séparés des infrastructures ; les maillons de

Le gaz naturel, acteur

incontournable de la transition

énergétique

Page 32: Aperçu du numéro 2015-3 de la REE (juillet 2015)

134 Z�REE N°3/2015

LIBRES PROPOS

la chaîne gazière (transport, stockage, terminal de récep-tion de gaz naturel liquéfié (GNL) et distribution) ont dû être placés dans des entités juridiques distinctes mises sous la tutelle plus ou moins forte des commissions de régulation de l’énergie et des ministères compétents. Chaque entité cherchant à se renforcer tout en maximi-sant son bénéfice, le coût d’acheminement a augmenté considérablement par rapport à la gestion précédente, intégrée et optimisée globalement.

Parallèlement, des points virtuels d’échanges de gaz ont été créés sur les zones où le réseau de transport peut satisfaire aux demandes même dans certaines hypothèses extrêmes, rendant possible une tarifica-tion « entrée-sortie ». En France, de sept en 2003 leur nombre a été réduit à deux en 2015 moyennant des investissements importants ; des ouvrages de plusieurs centaines de millions d’euros ont été décidés pour n’avoir plus qu’une zone de marché en France en 2019.

Cette démarche s’inscrit dans l’objectif final de la CE de créer un nombre limité de zones de prix qui servent de référence pour la vente de gaz sur le marché inté-rieur et pour les importations. D‘ores et déjà, la CE incite les importateurs à exiger de telles références dans leurs contrats, ce qui fait supporter au consommateur euro-péen le surcoût mis en évidence ci-dessus, alors que le calcul “netback” classique l’aurait transféré au produc-teur. Mais l’intégration des marchés est prioritaire pour le succès de l’UE ; la compétitivité est un concept pour les discours.

Le démantèlement de la chaîne gazière a reposé la question de la sécurité d’approvisionnement

L’industrie gazière a attiré avec insistance l’attention sur les conséquences dommageables pour la sécurité d’approvisionnement du démantèlement engagé. Toute à son credo libéral, la CE n’a rien voulu entendre. Il a fallu la crise russo-ukrainienne de 2006, malgré son impact limité, pour qu’elle finisse par déclarer vouloir prendre le sujet au sérieux et, le 13 novembre 2008, devant le Par-lement européen, elle admit que « la sécurité d’approvi-sionnement […] est de plus en plus considérée comme un bien public méritant une attention plus soutenue de la part de l’UE » !

Pour la France, la sécurité d’approvisionnement est un « bien public » depuis la « crise algérienne de Skikda » en 1973. Gaz de France, aidé par Elf pour le Sud-Ouest

du pays et sous le contrôle de l’Administration, mit ce thème au centre de sa stratégie ; malgré les contraintes financières, il bâtit en 30 ans un système intégré de res-sources diversifiées et d’infrastructures interconnectées permettant d’assurer les fournitures fermes même en cas d’arrêt d’une source majeure pendant un an. Ce résultat fut atteint au moindre coût grâce à la maîtrise de l’ensemble de la chaîne.

Depuis l’ouverture des marchés, chaque opérateur arbitre entre les solutions possibles en fonction de son couple coût-risque, et notamment du coût du stockage versus le "spread“ hiver-été fourni par les marchés. Plus que par le passé, l’Administration veille à la sécurité d’ap-provisionnement et agit via des obligations de stockage sur le territoire national, ce qui révèle un manque de confiance dans les marchés, va à l’encontre de l’intégra-tion européenne et limite les arbitrages des opérateurs. Mais, elle a raison de ne pas faire confiance à la CE au vu de son action destructrice de la relation de confiance patiemment établie par les gaziers européens avec Gaz-prom malgré les tensions politiques.

La CE fait obstacle au processus d’évite-ment de l’Ukraine engagé il y a 20 ans

Depuis 1972, le gaz soviétique devenu russe à la chute de l’URSS a toujours été une ressource très fiable. Au dé-but des années 80, malgré l’opposition des Etats-Unis, les gaziers européens soutenus par leurs gouvernements sollicitèrent une augmentation des volumes notamment pour compenser l’annulation par la République islamique d’Iran du contrat conclu en 1976 par le régime précé-dent ; c’est ainsi que, en 1990, le gaz russe prit la « pole position » de l’approvisionnement de la France.

Le processus d’évitement de l’Ukraine a commencé au milieu des années 90 après le refus des Ukrainiens de placer le réseau principal de transport de gaz sous un régime international. Une autre décision aurait donné un cours différent à l’histoire et l’Ukraine serait devenue un lien fort entre l’UE et la Russie, et non la ligne de fracture d’aujourd’hui. Mais ayant abandonné l’arme nucléaire sous la pression internationale unanime, elle choisit de conserver l’arme gazière que constituait sa position stra-tégique sur le trajet du gaz russe. Gazprom fit part à ses acheteurs de ses doutes sur la fiabilité du partenaire ukrainien et passa à l’action pour sécuriser ses fourni-tures et ses revenus. Avec des partenaires européens, il réalisa le Yamal-Europe à travers la Pologne (1997), le

Page 33: Aperçu du numéro 2015-3 de la REE (juillet 2015)

REE N°3/2015 Z 135

LIBRES PROPOS

Blue Stream (2002) sous la Mer Noire vers la Turquie par 2 000 m de fond sur 430 km de long, une première mondiale, et le Nord Stream sous la Baltique (2012)… dont la CE interdit encore l’usage à pleine capacité.

La CE commet une faute grave en s’oppo-sant à la construction du South Stream

Le South Stream devait être la dernière étape mais la CE en a décidé autrement. Elle a pressé la Bulgarie de ne pas donner suite à l’accord d’atterrage sur son territoire et vient d’engager une action contre Gazprom pour abus de position dominante et infractions diverses. Las, Gazprom a remboursé rubis sur l’ongle les dépenses de ses parte-naires du South Stream (Eni, Wintershall et EDF) et lancé une variante atterrissant en Turquie. Ce lien direct libérera la Turquie du transit à travers l’Ukraine et l’UE, privera la Roumanie et la Bulgarie de revenus de transits et placera l’UE sous la dépendance de la Turquie… qui n’en deman-dait pas tant ! La responsabilité de la CE pourrait être recherchée par Gazprom, mais aussi par les opérateurs européens, si une solution raisonnable n’était pas trouvée rapidement. Au contraire de la France qui, il y a 20 ans, sut établir un lien direct avec la Norvège, la CE fait une faute historique en refusant le lien direct avec Gazprom. Un espoir ténu existe encore car ni les cartes de poker ont été abattues, ni l’« échec et mat » annoncé.

Dès le début des années 90, Gazprom a poursuivi une stratégie d’intégration européenne, prenant des risques qui ont arrêté les autres grands producteurs. Mais depuis le tournant du siècle, le dialogue énergé-tique avec la Russie a vécu. La CE a changé de straté-gie ; elle s’irrite du style dominateur de Gazprom, de sa communication inadaptée au contexte européen, de sa connivence supposée avec les anciens « monopolistes » et, envieuse du monopole d’exportation par gazoduc de Gazprom, évoque même l’idée d’un monopole d’im-portation du gaz dans l’UE ! Cette attitude de la CE est bien antérieure à la crise politique ukrainienne en cours, sur laquelle l’honnêteté oblige à rappeler qu’elle a son origine dans une révolte de la rue soutenue par l’UE et les Etats-Unis contre une décision prise par un gou-vernement et un parlement démocratiquement élus et internationalement reconnus ; l’annexion de la Crimée et la guerre dans l’Est du pays sont venus ensuite. Mais cette crise motive peut-être l’aveuglement de la CE à ne pas voir que l’arme du gaz contre Gazprom et la Rus-sie est pointée sur sa propre industrie gazière. Rejetés,

Gazprom et la Russie se tournent vers la Turquie et l’Asie, laissant l’UE débattre de son avenir énergétique.

L’industrie gazière entre les mains de la diplomatie européenne

La nouvelle équipe de la CE a annoncé pour le début 2016, une nouvelle « diplomatie de l’énergie » compor-tant une diversification par le GNL et la promotion du stockage, et s’interroge sur la façon de faire de l’Europe « un marché attrayant pour les fournisseurs clés tels que l’Algérie, le Nigéria et le Qatar ». Cette démarche surpre-nante fait fi de la notion de marché, credo de la CE, et ignore qu’il faudra payer le GNL plus cher que les clients actuels des fournisseurs ; il est vrai que la compétitivité est un concept, pas un objectif de la CE. Les nouveaux pays exportateurs de GNL ne sont pas cités, mais une face cachée de la crise ukrainienne ne serait-elle pas la bataille Etats-Unis-Russie pour une part de 10 % du mar-ché gazier européen ? Rappelant que le GNL américain est produit à partir de gaz de schiste, dont la recherche est interdite en France et ailleurs...

Dans un registre analogue, la CE précédente a beau-coup dépensé pour le « corridor sud » ; Nabucco fut un spectacle en plusieurs actes, avec des signatures d’ac-cords à grands renforts de publicité, qui s’acheva comme dans tout opéra ; l’échec était prévisible, car la dimension politique dépassait de beaucoup l’intérêt industriel. Fina-lement un projet de taille réduite, nommé TANAP, a été décidé fin 2013 par les producteurs de gaz du gisement azéri de Shah Deniz 2, sans la CE ; il améliorera la sécurité gazière de la Turquie mais pas celle de l’UE car, en cas de crise avec Gazprom, les volumes destinés au marché du sud européen resteront très probablement en Turquie.

L’intégration des marchés gaziers reste capitale pour le succès de l’Union de l’énergie

L’Union de l’énergie comporte cinq dimensions : sé-curité énergétique, marché intérieur, efficacité énergé-tique, réduction des émissions de CO2 et recherche, qui se placent dans la perspective des objectifs du paquet climat-énergie pour 2030. La CE vient d’entamer un pro-cessus de consultations par pays, dont la synthèse doit figurer au rapport annuel de l’UE de novembre 2015, et espère définir des « plans nationaux pour une énergie sûre, durable et compétitive », selon les objectifs euro-péens. Les gouvernements préparent, de leur côté, leurs

jphauet
Rectangle
Page 34: Aperçu du numéro 2015-3 de la REE (juillet 2015)

144 Z�REE N°3/2015

Impression : Jouve - 53100 Mayenne Dépôt légal : juillet 2015

Edition/Administration : SEE - 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 5690 3709 - Fax : 01 5690 3719 Site Web : www.see.asso.fr

Directeur de la publication : François Gerin

Comité de rédaction : Bernard Ayrault, Alain Brenac, Patrice Collet, André Deschamps, Jean-Pierre Hauet, Jacques Horvilleur, Marc Leconte

Rédaction : Catherine Vannier - Tél. 01 5690 3704

Promotion : Mellyha Bahous - Tél. 01 5690 3711

Régie publicitaire : FFE - Tél. 01 5336 3787

Abonnements : Tél. : 01 5690 3704 - www.see.asso.fr/ree Prix de l’abonnement 2015 : France & UE : 140 F - Etranger (hors UE) : 150 F Tarif spécial adhérent SEE : France & UE : 60 F - Etranger : 70 F Vente au numéro : France & UE : 32 F - Etranger : 34 F

Conception & réalisation graphique JC. Malaterre - Tél. : 01 7946 1470

Impression : Jouve - 53100 Mayenne. Siège social : 11 Bd de Sébastopol - 75027 Paris cedex 1 Tél. : 01 4476 5440

CPPAP : 1015 G 82069

Copyright : Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des présentes pages publiées faite sans l’autori-sation de l’éditeur, est illicite et constitue une contrefaçon. Toutefois les copies peuvent être utilisées après autorisation obtenue auprès du CFC - 20 rue des Grands Augustins, 75006 Paris (Tél. : 01 4404 4770) auquel la SEE a donné mandat pour la représenter auprès des utilisateurs (loi du 11 mars 1957, art. 40 & 41 et Code Pénal art. 425)

La revue REE est lue par plus de 10 000 ingénieurs et cadres de l’industrie, dirigeants d’entreprises, directeurs des ressources humaines, formateurs… profitez de ce lectorat ciblé et de qualité pour publier vos annonces (em-plois, stages, manifestations…)

Répertoire des annonceurs BAUR PRUF - UND MESSTECHNIK ................................................... C2 GENERAL CABLE Interview ............................................................ p. 3 GSI’2015 ............................................................................................ p. 5 HORIZON HOUSE PUBLICATION LTD .......................................... p. 13 LEM INTERNATIONAL SA ............................................................. p. 15 AOIP SAS ...................................................................................... p. 143 GENERAL CABLE ............................................................................... C3 OMICRON ELECTRONICS FRANCE ...................................................C4

Prochains Grands Dossiers Dossier 1 : TIC/Énergie Dossier 2 : Le sondage de la matière par ondes radio

Une publication de la

Entre science et vie sociétale,les éléments du futur

6 CLUBS TECHNIQUES Q Automatique, Informatique et Systèmes Q Ingénierie des Systèmes d’Information et de Communication Q Électronique Q Radar, Sonar et Systèmes Radioélectriques Q Électrotechnique Q Systèmes électriques

12 GROUPES RÉGIONAUX

Conférences nationales et internationales Journées d’études thématiques Conférences-Débat Congrès internationaux, en partenariat ou non, avec d’autres sociétés scientifiques

La SEE contribue à l’organisation KL�JVUMtYLUJLZ�ZJPLU[PÄX\LZ�LU�-YHUJL� LU�Z»HWW\`HU[�Z\Y�ZLZ�*S\IZ�[LJOUPX\LZ� et ses Groupes régionaux

Grades Senior et Émerite SEE Prix : Brillouin-Glavieux, Général Ferrié, André Blanc-Lapierre... Médailles : Ampère, Blondel...

La SEE récompense les contributeurs éminents au progrès des sciences et technologies dans ses domaines

Revue de l’Électricité et de l’Électronique (REE) Revue 3EI Monographies Publications électroniques : SEE Actualités

La SEE favorise le partage du savoir, et contribue aux débats sur des problèmes de société en éditant des revues ZJPLU[PÄX\LZ�L[�V\]YHNLZ�[OtTH[PX\LZ�

La SEE fédère un vaste réseau d’experts universitaires et industriels en faveur des H]HUJtLZ�ZJPLU[PÄX\LZ�L[�[LJOUVSVNPX\LZ

La SEE, société savante française fondée en 1883, forte de 3 000 membres, couvre les secteurs de l’Électricité, de l’Électronique et des Technologies de l’Information et de la Communication. Elle a pour vocation

de favoriser et de promouvoir le progrès dans les do-maines : Énergie, Télécom, Signal, Composants, Auto-matique, Informatique.

SOCIÉTÉ DE L’ÉLECTRICITÉ, DE L’ÉLECTRONIQUE ET DES TECHNOLOGIES DE L’INFORMATION ET DE LA COMMUNICATION

17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 56 90 37 09/11 - Fax : 01 56 90 37 19

www.see.asso.fr

jphauet
Rectangle
jphauet
Texte tapé à la machine
Vous voulez... Vous abonner à la REE ? Acheter un numéro ? Cliquer ICI Ou bien téléphoner au 01 56 90 37 04