aperçu du numéro 2015-1 de la ree (mars 2015)

44
Numéro 2015 EDITORIAL Régalez-vous, c’est autant que les Prussiens n’auront pas… Jean-Pierre Hauet ENTRETIEN AVEC Dominique Ristori L’Europe et l’Énergie www.see.asso.fr 1 ISSN 1265-6534 DOSSIERS Géométries fractales et sciences de la complexité Application à la sécurité énergétique et au contrôle des blackouts électriques Par Alain Le Méhauté et Frédéric Héliodore L'ARTICLE INVITÉ

Upload: jean-pierre-hauet

Post on 08-Apr-2016

221 views

Category:

Documents


1 download

DESCRIPTION

Cet aperçu permet de découvrir le sommaire et les principaux articles du numéro REE 2015-1 publié en mars 2015 - Pour s'abonner, merci de vous rendre à la dernière page.

TRANSCRIPT

Page 1: Aperçu du numéro 2015-1 de la REE (mars 2015)

ÉNERGIE TELECOMMUNICATIONS SIGNAL COMPOSANTS AUTOMATIQUE INFORMATIQUE

Num

éro

2

015 EDITORIAL

Régalez-vous, c’est autant que les Prussiens n’auront pas…

Jean-Pierre Hauet

ENTRETIEN AVEC Dominique RistoriL’Europe et l’Énergie

www.see.asso.fr

1

ISSN

126

5-65

34

DOSSIERS

Géométries fractales et sciences de la complexitéApplication à la sécurité énergétique et au contrôle des blackouts électriquesPar Alain Le Méhauté et Frédéric Héliodore

L'ARTICLE INVITÉ

jphauet
Zone de texte
Cet aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro 2014-5 de la revue, publié en décembre 2014. Pour acheter le numéro ou s'abonner, se rendre à la dernière page.
Page 2: Aperçu du numéro 2015-1 de la REE (mars 2015)

dĂƌŝĨƐϮϬϭϱ;ĞŶĞƵƌŽƐͿ;DĞƌĐŝĚĞĐŽĐŚĞƌůĂĐĂƐĞĚĞǀŽƚƌĞĐŚŽŝdžͿ

^ƚĂŶĚĂƌĚZĞƚƌĂŝƚĠƐĞŶƐĞŝŐŶĂŶƚƐũĞƵŶĞƐĂĐƚŝĨƐ;фϯϱĂŶƐͿ

ƚƵĚŝĂŶƚƐĞŶƌĞĐŚĞƌĐŚĞĚĞŵƉůŽŝ

AbonnementREE(1) FranceetUE:140,00€TTC HorsUE:150.00€(HT)AbonnementREEͲTarifspécialAdhérentsSEE(1)(2) FranceetUE:60,00€TTC HorsUE:70.00€(HT)

AccèseͲREE–FormuleSolo(3) 90,00€TTC 50,00€TTC 10,00€TTCAdhésionSEE(incluantaccèseͲREE)–FormuleDuo 125,00€TTC 81,00€TTC 15,00€TTC(1)Lescinqnuméros2015–Distributionpostale(2)Accès eͲREEincluspourles adhérentsSEEͲ Adhésionensus.(3)AccèsauxpublicationsélectroniquesdelaSEE,ouvertpendantunanàcompterdeladatedesouscription.

Nometprénom:………………………………………………………………….N°demembreSEE:……………………………………………………………..Adresse:…………………………………………………………………………………………………………………………………………………………………………………………

Codepostal Ville:……………………………….Pays:…………………………………………………………………………………..eͲmail:………………………………………………………………………………..Date,signatureetcachetdel’entreprise,s’ilyalieu:

Jerèglelasommede:…………………….……€par Chèqueàl’ordredelaSEE Cartebancaire(Visa,Eurocard/Mastercard,AmericanExpress)N°Carte Datedevalidité Cryptogramme Jedésirerecevoirunefactureaunomsuivantpourpaiementàréception:……………………………………………………………………………………….Adresse:…………………………………………………………………………………………….

Codepostal Ville:……………………………….………….Pays:………………………………………N°TVAintracommunautaire:…………………………………………………………….ObligatoirepourrèglementHTenUEhorsdeFrance

Conformémentàlaloidu06/01/1978,vousdisposezd’undroitd’accèsauxinformationsquivousconcernentetderectification.ContacterleserviceAbonnementsdelaSEE.

BULLETIN D’ABONNEMENT 2015 AretourneràlaSEE–17ruedel’AmiralHamelin–75783Pariscedex16– France–Fax:331 56903719–[email protected]

Abonnement en ligne : www.see.asso.fr/ree

Page 3: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 1

L ’année 2015 démarre pour l’écono-mie française sous des auspices inat-tendus. La baisse des prix du pétrole, que beaucoup pensaient possible

mais qu’aucun n’avait prévu, a ramené en cinq mois, d’août 2014 à janvier 2015, le prix du baril de 105 à 50 USD. Une telle baisse, jamais vue depuis 1986, vient alléger la facture énergétique de la France d’un montant inespéré : 11 Mrd EUR en 2014 et sans doute plus de 15 Mrd en 2015. Une somme considérable représentant à elle seule une injection dans l’économie française qu’aucun plan de relance n’aurait imaginé pos-sible, surtout dans la période de disette budgé-taire que nous connaissons.

Au niveau européen, ce sont plus de 500 Mrd EUR qui pourraient être ristournés à l’économie euro-péenne sur trois ans renvoyant au second plan les 315 Mrd EUR du plan Juncker de relance des investissements. Au niveau des pays en voie de développement, les sommes rétrocédées vers les pays consommateurs éclipsent très lar-gement le financement de 100 Mrd USD que les pays riches se sont engagés à Copenhague à apporter d’ici 2020 aux pays en développe-ment pour les aider à réduire leurs émissions et à s’adapter aux dérèglements climatiques.

Pourtant peu de responsables politiques s’inter-rogent sur l’utilisation qu’il conviendrait de faire de cette manne. On disserte sur l’impact straté-gique que peut avoir la baisse des prix du pétrole sur les relations avec la Russie et avec l’Iran, et sur la rentabilité des sociétés pétrolières, notam-ment celles engagées dans la mise en valeur des ressources en eau profonde ou des hydro-carbures non conventionnels. On s’interroge sur les conséquences néfastes qu’aura la baisse sur les économies des pays producteurs les plus dé-pensiers et dépourvus de réserves financières, Venezuela, Nigéria, Algérie, Equateur… mais aussi sur les effets bénéfiques qu’elle pourrait avoir sur le financement du terrorisme interna-tional.

Pour le reste, les pays consommateurs se contentent d’avaler la bouffée d’oxygène qu’on leur tend : « Régalez-vous, c’est autant que les Prussiens n’auront pas » aurait dit ma grand-mère. Beaucoup de responsables se donnent bonne conscience en conjecturant : « Ça ne va pas durer » et c’est vrai ! La remontée du prix des hydrocarbures est inévitable et il y aura une quatrième crise de l’énergie avec à nouveau une hausse des prix du pétrole que l’on ne saura pas davantage maîtriser que les précédentes et qui à nouveau sera dommageable à nos économies. Le problème est que l’on ne sait pas quand cette nouvelle crise surviendra. En 1986 aussi, les te-nants du « ça ne va pas durer » donnaient de la voix mais la pause a duré plus de 15 ans !

Dans notre livre « Comprendre l’énergie », paru en avril 2014, nous avancions que « le monde pourrait continuer à progresser tant bien que mal par une succession de stop and go géné-rant à chaque étape des kyrielles de laissés pour compte ». Si nous ne réfrénons pas nos appétits gloutons, si nous ne nous préparons pas à faire face à la prochaine hausse du pétrole, nous fe-rons un jour définitivement partie de ces laissés pour compte. Ce devrait être un impératif majeur que de profiter des périodes d’accalmie pour se préparer à faire face aux prochaines bourrasques.

Aujourd’hui, notre économie est si déprimée et l’opinion si remontée contre tout ce qui peut ressembler à une taxe, que nos politiques ont raison de laisser le citoyen souffler un peu et profiter d’une douceur qu’il n’espérait plus. Mais cela va à contrecourant des politiques de pro-motion de l’efficacité énergétique et des éner-gies alternatives que le gouvernement entend promouvoir. Certes, il récupère par litre de car-burant et de gas-oil, depuis le 1er janvier 2015, 2,1 à 4,8 centimes supplémentaires de taxes intérieures, mais une telle hausse ne représente en année pleine que 1,1 Mrd EUR de recettes supplémentaires qui étaient déjà budgétées avant la baisse des prix du pétrole, notamment

Régalez-vous, c’est autant que les Prussiens n’auront pas…

EDITORIAL JEAN-PIERRE HAUET

Page 4: Aperçu du numéro 2015-1 de la REE (mars 2015)

2 ZREE N°1/2015

par le canal de l’écotaxe à laquelle la hausse de 2 centimes supplémentaires sur le gas-oil se substitue partiellement. Le gouvernement fait donc le pari d’une relance keynésienne en lais-sant le consommateur libre de dépenser l’essen-tiel du surplus dégagé.

Fort bien ! Mais pendant ce temps la rentabi-lité de l’efficacité énergétique et des solutions alternatives aux hydrocarbures commence à se dégrader. Le premier indice est le recul des investissements des sociétés pétrolières vers les ressources les plus incertaines. Les écologistes s’en réjouiront au nom du principe selon lequel il est impératif à présent de laisser en terre les ressources fossiles. Mais c’est aussi la meilleure façon de préparer la future hausse des prix, en redonnant notamment aux pays du Moyen-Orient la primauté qu’ils étaient en passe de perdre.

Le véhicule électrique va voir son émergence rendue encore plus difficile et l’action de la so-ciété Tesla aux Etats-Unis a déjà perdu 25 % de sa valeur depuis septembre dernier. Le gaz, qui a conquis, grâce à la RT 2012, 75 % du marché des logements neufs, va voir son hégémonie renfor-cée et ce pour 100 ans, durée de vie moyenne des logements en France. Et ne parlons pas des énergies solaires ou éoliennes dont la rentabilité vacillante ne va pas se trouver renforcée. Dans le même temps, le financement des grandes

actions de R&D sont à la peine et le financement du réacteur Astrid de 4e génération n’est pas ac-quis au-delà du stade de l’avant-projet.

Curieusement la loi de transition énergétique, qui n’est pas avare sur les sujets traités, allant des centrales nucléaires aux couverts en plas-tique, ne parle pas des problèmes de finan-cement. Là est pourtant l’enjeu essentiel. La sagesse vient peut-être d’outre-Manche où nos amis anglais ont décidé depuis le 1er avril 2013 un “carbon price floor” permettant d’atteindre progressivement la valeur cible du prix du CO2 de 30 £/t en 2020, quelle que soit la valeur du prix du carbone sur les marchés européens. A partir de 2015, le “carbon price support” ainsi levé atteindra 18,08 £/t et permettra de financer de nombreuses actions de développement de technologies bas-carbone.

Pourquoi ne pas aller dans ce sens dans toute l’Europe et en France en particulier, en profitant des heures propices et en accompagnant une telle évolution d’une refonte de la contribution au service public de l’électricité (CSPE) qui pèse de plus en plus lourdement sur les consomma-teurs d’électricité et finance aujourd’hui, au-delà du raisonnable, des énergies alternatives qu’il est temps de remettre dans le circuit du marché.

Jean-Pierre HauetRédacteur en chef de la REE

Page 5: Aperçu du numéro 2015-1 de la REE (mars 2015)

4 ZREE N°1/2015

sommaireNuméro 1 Āþÿă

1 EDITORIAL Régalez-vous, c’est autant que les Prussiens n’auront pas...

Par Jean-Pierre Hauet

4 SOMMAIRE

7 FLASH INFOS Communications HF à large bande avec forme d’onde à haut débit 11 Avantages et limitations pour l’intégration des fibres optiques

en milieux radiatifs13 La 3D plein les oreilles !16 Le projet Argolight : enfin une solution d’étalonnage et de suivi

pour les systèmes d’imagerie en fluorescence

20 ACTUALITÉS Un grand projet pour le Musée Ampère

22 A RETENIR Congrès et manifestations

24 VIENT DE PARAÎTRE La REE vous recommande

26 ARTICLE INVITÉ Géométries fractales et sciences de la complexité. Application

à la sécurité énergétique et au contrôle des blackouts électriques Par Alain Le Méhauté, Frédéric Héliodore

38 LES GRANDS DOSSSIERS Les démonstrateurs smart grids en France Introduction : Démonstrateurs et expérimentations

smart grids en France Par Thierry Sudret, Régine Belhomme41 Evaluations économiques des smart grids. Enjeux, méthodes,

état d’avancement et démonstrateurs Par Andrei Nekrassov, Sophie Chartres, Florent Chiappini,

Mathilde Drouineau, Nouredine Hadjsaïd, Cédric Léonard53 Apport des démonstrateurs « smart grids » dans le transport

d’électricité et les architectures de marché Par Michel Béna, Thierry Buhagiar, Christian Lemaître,

Tanguy Janssen, Benjamin Guedou63 Enjeux et apports des démonstrateurs smart grids

pour le réseau de distribution. Focus sur l’intégration de la production décentralisée

Par Maria Sebastian Viana, Gilles Malarange, Nouredine Hadjsaïd, Marc Petit

p. 1

p. 38

p. 12

7

p. 82

p. 2

6

p. 137

Photo de couverture © Francesco De Paoli - Fotolia.com

Page 6: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 5

72 Enjeux et apports des démonstrateurs smart grids pour l’évolution des métiers de la fourniture et des pratiques de consommation d’énergie

Par Guillaume Lehec, Rafael Jahn, Etienne Gehain

82 Câbles et infrastructures optiques Introduction : Câbles et infrastructures optiques Par Jean-Pierre Bonicel, Patrice Collet85 Du cuivre à l’optique : Une évolution irréversible

vers le très haut débit Par Bruno Capelle, Hervé Touzeau 91 Les réseaux optiques « longue distance » :

Historique et perspectives Par Nicolas Brochier 99 La fibre optique : retour sur 50 ans de développement.

Où en sommes-nous aujourd’hui ? Par Lionel Provost, Pierre Sansonetti, Laurent Gasca,

Alain Bertaina, Jean-Pierre Bonicel 111 Des produits innovants : fibres, câbles, connectivité

pour des infrastructures FTTH performantes et pérennes Par Jean-Pierre Bonicel, Laurent Gasca

127 GROS PLAN SUR … Le piégeage et la récolte de l’énergie. L’energy harvesting Par André Deschamps, Jean-Pierre Hauet

137 ENTRETIEN AVEC... Dominique Ristori,

Directeur Général de l’Énergie, Direction Générale de l’Énergie, Commission européenne

L’Europe et l’Énergie 141 ENSEIGNEMENT & RECHERCHE L’optique en France, un secteur dynamique Par André Ducasse147 Echos de l’enseignement supérieur

Par Bernard Ayrault

149 CHRONIQUE Lumières sur l’optique… Par Bernard Ayrault

152 LIBRES PROPOS La pensée stratégique de la Chine classique :

Un enseignement pour l’Occident ? Par Jean-Pierre Bessis

155 SEE EN DIRECT La vie de l'association

ETTC

’20

15

ETTC’2015

EUROPEAN TEST

& TELEMETRY

CONFERENCE

9-11 June 2015

Toulouse - France

Organized by:

www.see.asso.fr/ettc2015

Page 7: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 7

FLASHINFOS

Communications HF à large bande avec forme d’onde à haut débitCatherine Lamy-BergotGrand Prix de l’Electronique Général Ferrié 2014 décerné par la SEE

Le Grand Prix de l’Electronique Général Ferrié récompense des travaux ayant contribué aux pro-grès de la radioélectricité, de l’électronique et de leurs applications. Décerné depuis 1949, il commé-more les travaux du Général Ferrié, pionnier de l’uti-lisation de la radio auquel on doit des réalisations remarquables telles que la liaison Côte d’Azur-Corse dès 1901 et la première station radiophonique com-merciale de la Tour Eiffel.

Les transmissions en bande HFLa gamme HF (pour High Frequency) est celle des

ondes décamétriques. Cette bande de fréquence est uti-lisée depuis les débuts des ondes radios car elle permet des liaisons à très longue distance (> 10 000km) grâce à la capacité des ondes à ces fréquences de se réflé-

chir sur certaines couches de l’atmosphère (ionosphère). Comme illustré en figure 1, l’ionisation des couches situées entre 50 et environ 600 km d’altitude permet l’établissement de communications transhorizon sans nécessiter l’emploi de relais car l’onde se propage par une ou plusieurs réflexions sur l’ionosphère et sur le sol et les communications HF peuvent ainsi être établies sur de longues distances malgré l’absence d’un trajet direct du à la courbure terrestre.

Le canal HF permet également la propagation par onde de sol (onde guidée le long de la surface terrestre), second mode qui voit un canal moins perturbé mais n’est utilisable que sur des distances nettement plus courtes. C’est pour cela que c’est le mode ionosphérique qui est celui le plus utilisé, même si il est également le plus dif-ficile. En effet, on observe sur le canal de propagation des multi-trajets importants (différents retards de propa-gation correspondant aux différents trajets liés à la stra-tification du milieu), des décalages Doppler et un éta-lement spectral importants (liés à l’évolution moyenne de l’altitude et de l’ionisation des couches le long de chaque trajet), des évanouissements temporels (liés à la non-homogénéité de l’ionisation des couches qui

Figure 1 : Mode de propagation ionosphérique pour les ondes HF.

La SEE décerne chaque année un certain nombre de Grands Prix destinés à récompenser et à faire connaître des travaux scientifiques et techniques de premier plan réalisés en France dans les domaines de sa compétence. Dans certains cas, la SEE s’allie à d’autres organismes pour sélectionner et honorer les lauréats. La Cérémonie annuelle des Grands Prix 2014 s’est tenue le 8 décembre 2014 et a été présidée par François Gerin, président de la SEE et Erich Spitz, membre de l’Académie des Sciences et de l’Académie des Technologies, président du Comité des Grades et des Distinctions.

La REE est heureuse de publier ci-après un ensemble de Flash Infos écrits par les lauréats et destinés à présenter les travaux qui leur ont valu d’être distingués.

Page 8: Aperçu du numéro 2015-1 de la REE (mars 2015)

8 ZREE N°1/2015

FLASHINFOS

provoque une réfraction diffuse de l’onde) et, comme sur tout autre canal de propagation sans fil, des atténuations importantes (distance parcourue par l’onde, absorption dans le milieu ionosphérique, possibles réflexions lors de rebonds sur le sol) ainsi que des sources de bruit (bruit extérieur naturel : cosmique et atmosphérique, et bruit extérieur lié à l’activité humaine : interférences liées aux autres utilisateurs et bruit industriel). De plus, en propa-gation ionosphérique, la bande de fréquence utilisable pour une communication entre deux points donnés n’est pas la bande HF complète ([1,5 ; 30] MHz) mais une sous-bande comprise entre la fréquence minimale utilisable (ou LUF : Lowest Usable Frequency) et la fré-quence maximale utilisable (ou MUF : Maximum Usable Frequency), ces fréquences étant définies notamment en fonction de l’angle d’incidence, de l’état d’ionisation cou-rant sur le trajet entre les deux points.

Les communications HF sont donc un domaine diffi-cile mais qui continue de présenter un intérêt très impor-tant en particulier pour les forces armées projetées du fait de leur capacité en termes de distance couverte au-delà de l’horizon sans recours à un satellite ou à l’emploi de stations relais.

Emergence de nouveaux besoinsLes systèmes HF déployés actuellement sont princi-

palement employés par les forces armées. Ils opèrent à l’alternat sur des bandes passantes typiques de 3 kHz, avec des débits modems usuels de 600 à 4 800 bit/s, jusqu’à 9 600 bit/s en pointe. Suffisants pour des appli-cations de phonie, de télégraphie sans fil ou de transmis-sion de très courts messages, ces débits restent néan-moins limités, voire très limités, lorsque l’on calcule le débit utile moyen fourni à l’utilisateur, c’est-à-dire que l’on prend en compte l’alternat, le temps de prise de liaison (pouvant durer plusieurs minutes dans des cas défavo-rables), le temps de reprise sur perte du lien…

L’évolution des télécommunications, dans les forces armées et dans le monde civil, a fait émerger de nou-veaux besoins qui ne sont pas satisfaits par les solutions actuelles. Tout d’abord, l’emploi de transmissions de données en sus des habituelles transmissions en pho-nie introduit de nouvelles exigences de fiabilité (plus faibles taux d’erreur nécessaires). Ensuite, comme dans toutes les autres gammes de fréquences, dans le sil-lage de l’essor impressionnant des télécommunications civiles (GSM, UMTS, LTE…), les utilisateurs demandent des débits plus importants, permettant de transmettre

plus ou plus vite. Dans le contexte HF, cela se traduit par une demande supérieure à 64 voire 100 kbit/s. Enfin, un troisième besoin est celui d’un renforcement de l’auto-matisation, de façon à pouvoir s’adapter plus rapidement aux éventuelles variations du canal mais aussi masquer la difficulté du canal HF à l’utilisateur.

Augmenter la puissance rayonnée pour améliorer la fiabilité, ou augmenter l’efficacité spectrale pour accroître le débit maximal, se révèle soit impossible soit insuffi-sant : les puissances employées sont déjà souvent su-périeures à 100 W voire 1 kW et l’efficacité spectrale maximale de la norme OTAN STANAG 4539 est déjà de 3 bit/s/Hz. Conformément au théorème de Shannon, la seule option est donc d’élargir la bande passante utile. Mais on se heurte ici au revers de l’intérêt de la propa-gation ionosphérique : sa capacité à se propager au-delà de l’horizon et des frontières des états a amené à une définition internationale des fréquences utilisables pour telle ou telle liaison… fragmentant la bande sur la base d’une canalisation typique de 3 kHz, en particulier dans les zones denses telle l’Europe ou le Proche-Orient. Re-quérir des largeurs de bande significativement plus large (comme la norme américaine MIL STD 188-110C-D qui nécessite 24 kHz de bande pour atteindre des débits de 76 voire 120 kbit/s) se révèle en pratique illusoire dans ces régions car, outre la difficulté qu’il pourrait y avoir à attribuer ou réattribuer à un même service différentes fréquences contiguës potentiellement déjà en service, les Etats n’ont en général tout simplement pas dans leurs attributions officielles de telles fréquences contiguës.

Une approche large bande et trans-couches : HF XLPour répondre aux exigences formulées dans le

paragraphe précédent, nous proposons d’adopter une démarche de type système, en considérant l’ensemble de la chaîne de communication et non pas simplement de se focaliser sur la partie modem comme l’ont pro-posé certains de nos concurrents. Prenant en compte la contrainte primaire de la disponibilité des fréquences d’émission, mais également le fait que le canal HF a sou-vent une bande de cohérence assez faible, la stratégie la plus judicieuse est d’augmenter significativement la bande passante du transmetteur, pour n’occuper que les canaux disponibles (c’est-à-dire faisant l’objet d’une attri-bution par les autorités de gestion des fréquences mais également étant d’une qualité suffisante pour permettre une communication) et à ne pas transmettre de signal sur les autres. Ceci conduit à la définition d’une forme

Page 9: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 9

FLASHINFOS

d’onde multi-porteuses non contiguës, comme illustré en figure 2.

Cette approche présente différents avantages : par construction, elle garantit que les fréquences utilisées seront bien libres et d’une qualité suffisante mais elle permet également d’écouter sur une bande plus large que celle d’émission des signaux et ainsi de collecter de l’information sur le bruit ambiant (plancher de bruit), les variations des canaux proches (détection de brouilleurs, détection de l’évolution de la bande LUF-MUF…). Au niveau de la gestion et du maintien du lien, cette capa-cité en large bande sera particulièrement intéressante, puisque l’on pourra aussi écouter plusieurs canaux en parallèle, par exemple pour prendre le lien plus vite ou pour modifier les places des porteuses en fonction de la qualité des différents canaux de la bande utile du trans-metteur. De plus, l’usage de transmissions sur une bande allant jusqu’à 200 kHz permet de bénéficier d’une diver-

sité fréquentielle qui améliore le bilan de liaison moyen et donc la fiabilité du lien. Il est intéressant de noter que des essais préliminaires en configurations SIMO (Single-Input Multiple-Output) montrent que cette diversité de fréquence reste importante même lorsque l’on la com-bine à une diversité de polarisation en réception.

Les contraintes de la démarche, les solutions applicables

Cette approche HF XL n’est cependant pas sans dif-ficultés techniques. La difficulté majeure se situe dans la partie « radio » : antenne, amplification et tête radio-fréquence. Il s’agit en effet tout d’abord de réaliser des antennes suffisamment large bande tout en restant ac-cordables autour de la fréquence d’intérêt pour ne pas trop fortement dégrader le bilan de liaison. A cet effet, nous avons développé de nouvelles antennes HF (pour les contextes naval et terrestre) qui ont été éprouvées

Figure 2 : Principe de la forme d’onde multi-porteuses HF XL.

Figure 3 : Schéma bloc de la couche physique proposée pour HF XL.

jphauet
Rectangle
Page 10: Aperçu du numéro 2015-1 de la REE (mars 2015)

20 ZREE N°1/2015

Une page d’histoire…Né à Lyon en 1775, André-Marie

Ampère passa son enfance et son adoles-cence à Poleymieux-au-Mont-d’Or, à 14 km du centre-ville. Ses expériences et décou-vertes sont si importantes qu’en 1881, le Congrès international des électriciens don-ne son nom à l’unité d’intensité du cou-

rant électrique qui sera l’une des sept unités fondamentales du Système international d’unités.

La SEE est propriétaire du domaine d’Ampère depuis 1928. L’acquisition fut possible grâce à une souscription internationale. L’intégration d’un musée de l’électricité dans la maison du sa-vant a été spécifiée dans le legs des deux généreux industriels américains, Hernand et Sosthène Behn (ITT).

La SEE confia le domaine deux ans plus tard à la Société des amis d’André-Marie Ampère (SAAMA), créée pour per-pétuer la mémoire du savant. Le musée a été inauguré le 1er juin 1931 par le président Édouard Herriot, maire de Lyon.La visite du domaine permet de découvrir, aujourd’hui :

Maison d’Ampère qui évoque l’éducation du savant à la « mode Rousseau » et sa vie et qui présente son œuvre ;

musée de l’électricité qui, avec des maquettes interactives, dont certaines d’époque, montre les découvertes fondamentales d’Ampère en 1820 et décrit l’essor scientifique et industriel de l’électricité au travers de nombreuses machines et instruments.

Le sauvetage du musée en péril…Le musée-maison d’Ampère a dû faire face à de graves me-

naces de glissements de terrain risquant de détruire ou d’endom-mager ses bâtiments. Des travaux de reprise des structures et des fondations ont été indispensables.

Le financement de ces travaux de réhabilitation, réalisés en 2013 et 2014, a pu être réuni grâce à un très fort engagement de l’ « équipe Ampère » qui a su mobiliser des ressources locales auprès des élus et industriels et grâce à l’action volontaire de la Fondation du patrimoine qui a permis de bénéficier de donations de la Fondation Total.

Cette opération a été une opportunité pour mettre en valeur deux magnifiques colonnes circulaires de grande hauteur en pierres dorées taillées, spécifiques des Monts d’Or mais devenues très rares. Au premier étage, une salle d’une capacité de cinquante personnes a été créée.

La reprise de la structure et la rénovation du bâtiment, la construction de la salle, l’aménagement des abords ont nécessité 170 000 EUR. Pour terminer la salle, il faut trouver un financement d’au moins 50 000 EUR.

Un ajout d’importance pour ce bâtiment est aussi l’installation de 45 m² de panneaux photovoltaïques sur le toit, offerts par EDF-Energies Nouvelles Réparties-Solaire et raccordés au réseau ERDF. La production journalière est de 40 kWh par beau temps et autour de 10 kWh par temps couvert.

Pour être complet sur l’ensemble des travaux réalisés récemment, il faut mentionner la réfection de la salle de réception du musée (peinture et carrelage) dans les techniques de l’époque.

ACTUALITÉS

Un grand projet pour le Musée Ampère

Page 11: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 21

Le ministère de la Culture a décerné fin 2013 le label « Maisons des Illustres » à la Maison d’Ampère, seul lieu d’ha-bitation restant en France du grand savant, pour son entretien, sa mise en valeur et son ouverture au public.

Ces résultats sont aussi la reconnaissance des actions de l’équipe de bénévoles : les visites, les conférences, la participa-tion aux Journées de la Fête de la Science et de celles du Patri-moine, l’animation des ateliers-découverte, la création de nou-velles expériences dont le vélo à assistance électrique, la gestion du site Web et l’entretien complet du musée et de ses extérieurs.

Une dynamique dans la communication…Il faut compléter ce panorama par les actions de communica-

tion visant à faire connaître et valoriser le musée.La visite du musée est facilitée par les audio-guides fournis et

entretenus depuis 2007 par le Groupe régional Rhône-Bourgogne de la SEE. Sous l’égide des Amis d’Ampère et de la SEE, le mu-sée s’est rapproché du musée de l’automobile Henri Malartre de Rochetaillée et du laboratoire Ampère de l’université de Lyon. Cette entente a permis l’organisation d’évènements sur les quatre dernières années, tel l’Ion Rallye, fondés sur les véhicules élec-triques et dédiés à la promotion des musées.

L’avenir porté par un « grand projet »... et une commémoration en 2020

L’ambition est née de vouloir se rassembler autour d’un grand projet d’avenir, porteur du nom d’Ampère, visant à moderniser et à aménager le site du musée et à participer encore davantage au rayonnement de la métropole de Lyon et de la région Rhône-Alpes.

La Société des Amis d’André-Marie Ampère (SAAMA), la mai-rie de Poleymieux et la SEE s’unissent pour porter ce projet archi-tectural et scénographique qui est aussi un projet pédagogique. Le montant est estimé à quatre millions d’euros.

En 2015, une large campagne de communication auprès des entreprises, des élus et des collectivités sera lancée pour trouver des soutiens financiers. Un grand dîner de gala a été organisé, fin 2014, pour détailler les orientations de ce projet en présence du président de la Métropole de Lyon, Gérard Collomb et de nom-breuses personnalités.

Les ambitions et les objectifs de ce projet sont de :

-rique et scientifique ;

des vocations scientifiques ;

Le site du musée Ampère présente en détail ce dossier. La réalisation du projet pourrait être couronnée par la célébration des 200 ans de la découverte des lois fondamentales de l’électro-magnétisme (1820) en organisant un évènement national : le transfert des cendres d’Ampère au Panthéon (actuellement au cimetière de Montmartre). C’est une œuvre de grande et longue haleine demandant un travail de lobbying important auprès de la presse et des corps constitués qui ne peut être menée qu’en sym-biose étroite entre le niveau national et le niveau local. Il ne fait pas de doute que ce transfert aura des répercussions importantes sur Poleymieux, sur Lyon et sur le nombre de visiteurs du musée.

Ajoutons que l’idée de ce transfert a déjà été suggérée en 1921, en présence du président de la République de l’époque Alexandre Millerand, par le docteur Mailloux, président de la Commission électrotechnique internationale.

Un homme emblématique…André-Marie Ampère est un exemple dans le monde scienti-

fique. Savant en mathématiques, physique, chimie, astronomie, botanique… il sut aussi être humaniste.

Entretenir sa mémoire et permettre à chacun de découvrir ses expériences, participe du rayonnement culturel d’une région mais aussi du souvenir de l’un des derniers savants universels. La France a déjà marqué sa reconnaissance, chaque ville a une place ou une rue Ampère, nous pensons que la réalisation de ce projet pérennisera le musée en modernisant la présentation des collections et sera le témoignage que tous les français veulent rendre à Ampère qui leur a apporté la « lumière » !

Texte et photos : Geneviève Comte-Bellot, présidente de la SAAMA - Georges Delorme, délégué général de la SAAMA - André Gromier, vice-président SEE Rhône-Bourgogne et administrateur de la SAAMA - Patrick Leclerc, président SEE Rhône-Bourgogne et administrateur de la SAAMA, Christian Barberon, infographiste et membre de l’équipe des bénévoles.

ACTUALITÉS

Maison d’Ampère - Musée de l’Electricité - 300, route d’Ampère - D73 - 69250 Poleymieux-au-Mont-d’Or Ouverture : samedi de 14 h à 18 h et dimanche de 10 h à 12 h et de 14 h à 18 h - Tous les jours pour les groupes sur rendez-vous au 04 78 91 90 77. Accès : Un parking et une borne de recharge sont à la disposition des visi-teurs. L’accès est possible en 30 min par la ligne de bus TCL n° 84 qui part de la Gare de Vaise. Site internet : www.amperemusee.fr Contact : [email protected]

Le rallye de 2013 a été l’occasion d’installer sur le parking du musée une borne de recharge fournie par la CNR et gracieusement raccordée au réseau par ERDF. Le musée Ampère est le premier musée de France à permettre aux visiteurs équipés en vé-hicules électriques de refaire le plein d’électricité pendant la visite ! Ce qui montre que ce musée n’est pas statique, il sait s’adapter au monde qui évolue.

Page 12: Aperçu du numéro 2015-1 de la REE (mars 2015)

26 ZREE N°1/2015

Géométries fractales et sciences de la complexité

Application à la sécurité énergétique et au contrôle des blackouts électriques

L'ARTICLE INVITÉ

The power plants and the coupling in space and time of their distribution and fields of consumption, lead electrical networks of being “complex systems”. Such systems are characterized by dynamic singularities under the control of entangled causalities which condemn any intuitive mastery of sometimes chaotic and even catastrophic behaviors. Facing them, the intuitive rational control must give way to a simulation which has especially to take into account the multi-evaluation of response functions. This feature, leads however to refer the behavior of these systems to the dynamics on hyperbolic manifolds, and especially on their most common physical archetype: the fractal geometries. We show that the singularities are distributed according to scaling laws associated to these geometries. The experimental relevance of these laws is confirmed and with it, the efficiency of simulation tools developed to give to the technical and political actors, the tools required to monitor, manage and anticipate the network behavior.

ABSTRACT

ALAIN LE MÉHAUTÉ1 FRÉDÉRIC HÉLIODORE2

Materials Design SARL & Inc. et Institut franco-québécois1

R&D Project leader, Automation and Smart Grid solutions - Alstom Grid2

Page 13: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 27

L'ARTICLE INVITÉ

Une nouvelle classe d’objets scientifiques : les « systèmes complexes »

L es « systèmes complexes » constituent une nou-velle classe « d’objets » de recherche « scienti-fique ». Ils exigent en effet une extension de la méthodologie cartésienne de connaissance

à des champs d’entendement et d’expérimentation, certes de moins en moins systématiquement reproductibles, mis en ordre et mesurés [1], mais ne relevant pour autant ni des seules statistiques ni de la chose impensable [2] : systèmes vivants, systèmes économiques financiers et sociaux, grands dispositifs d’ingénierie interconnectés, évènements histo-riques à très faible probabilité, écologie, etc. Bien que leur définition formelle ne fasse pas l’unanimité et bien que la « causalité » cartésienne, fondement de la démarche scienti-fique, doive alors faire place à une « causalité intriquée et/ou simulée », un constat s’impose : il s’agit de systèmes n’entrant pas stricto sensu dans le cadre d’une connaissance au sens traditionnel. En particulier, notre rapport à de tels objets est par essence irréductible au projet Laplacien selon lequel la connaissance du passé (et/ou de la partie) donne toutes prédictions sur le devenir (ou/et sur la phénoménologie globalement attachée à l’objet). Les méthodes scientifiques de type analytique et réductionniste se heurtent ici à des limites théoriques et pratiques aujourd’hui sans alternatives assurées et mettant en outre en question la notion même de causalité donc de temporalité.

Les membres du Comité de pilotage du Réseau national des systèmes complexes (RNSC) ont, au cours des dernières années, convenu de définir un « système complexe » selon trois composantes principales :

-tiques universelles telles que l’autosimilarité ou/et la renor-malisation [3]. L’archétype est ici « l’objet fractal » [4] ;

de la chose complexe », problématiques auxquelles nous confrontent les grandes bases de données (“big data”) et les « phénomènes saturés » [2] (lorsque l’intuition de l’unité de la « chose » dépasse nos facultés de représentation ration-nelle immédiate, obligeant à utiliser des artefacts d’entende-ment justifiés par la seule efficacité) ;

— entre autres sujet-objet ou/et local-global — à revisiter. La dualité onde/corpuscule et local/non local en mécanique quantique est un exemple qui illustre cette composante de la complexité.

En dépit de la diversité des problématiques, on peut ob-server qu’une des caractéristiques communes des systèmes complexes est la propriété d’arborescence, qui implique des cascades hiérarchiques et des ultramétriques pour les me-sures de distances entre nœuds. Cette propriété associe de facto l’algèbre de ce type de systèmes — c’est-à-dire notre capacité à les composer et à les décomposer— aux groupes dits hyperboliques eux-mêmes associables à des propriétés

Figure 1 : Exemple de représentation de l’arborescence fractale du réseau www en fonction des opérateurs.

Page 14: Aperçu du numéro 2015-1 de la REE (mars 2015)

28 ZREE N°1/2015

L'ARTICLE INVITÉ

de renormalisation. Ce constat est évident si l’on s’intéresse par exemple à la construction des objets fractals.

L’arbre y apparaît comme la structure duale naturellement associée à l’évolution dans l’ordre hiérarchique. L’arbre peut par ailleurs être pris à rebours pour le traitement des “big data” dont les représentations pointent systématiquement sur des arborescences et des lois d’échelle (exemple figure 1). Enfin, comme l’avait perçu Henri Bergson [5], c’est par le truche-ment du concept de temps (irréversible), que l’on peut aborder de manière critique la question de la séparation sujet-objet. En effet, l’incertitude qui affecte notre rapport aux systèmes complexes introduit dans l’action un facteur entropique. Une rapide analyse dimensionnelle portant sur la conjugaison des deux composantes, action et entropie, fait émerger une variable qui n’est autre que le temps.

Dans tous les cas, la fractalité géométrique et les dyna-miques d’ordre non entier qu’elle induit sont d’excellents guides pour penser l’universalité de la complexité. Comme le montre par exemple le mouvement brownien fractionnaire, la fractalité véhicule, dans sa pratique géométrique et analy-tique, des questions interrogeant la conjugaison du hasard et de la nécessité, du déterminé et du contingent, du présent et de la mémoire. La question de l’évènement comme sin-gularité dans le temps — dont le “blackout” électrique est un exemple qui sera développé plus loin — relève à l’évidence de ce type d’interrogation.

De l’objet fractal et de son introduction en physique

On doit à Benoît Mandelbrot, en 1975, tout à la fois le terme de « fractal » et la synthèse lumineuse de probléma-tiques qui, initiées avec Leibniz, ont interrogé successivement Liouville, Weierstrass, Cantor, Peano, Hausdorff, Sierpinsky et bien d’autres grands mathématiciens. Bien que le mot n’ait pas été défini, et sans doute pour cette raison, la fractalité eut, après un bref temps de latence (10 ans), un succès média-

tique et scientifique considérable qui fut servi par la puissance de traitement croissante des cartes graphiques associables aux ordinateurs. La simulation se dotait alors d’une capacité réelle de représentation et de décodage de la complexité.Ce succès était mérité pour plusieurs raisons [6] :

pose la question centrale de la récursivité en géométrie mais aussi en analyse. Cette récursivité ramène aux problé-matiques soulevées par les automorphismes et les endo-morphismes, deux champs d’interrogations majeures en théorie des groupes ;

fractalité pose de manière pratique la question de l’actuali-sation de l’infini, mettant ainsi en exergue l’importance de ce que l’on appelle en mathématique la compactification1 ;

géométrique, non sans puissance artistique [7], la géomé-trie fractale pointe ses liens étroits avec la notion de variétés et de groupes hyperboliques, interrogeant alors en profon-deur, et au-delà de la seule statistique, une thermodyna-mique à repenser ainsi que sa variable phare, l’entropie qui prend ici un tour géométrique ;

terme « fractal » ouvre la voie à de nouvelles interrogations dynamiques, en particulier celle de l’absence de vitesse, donc d’invariant énergétique (au sens de Noether). Le rôle des facteurs d’échelle entraîne que le temps et l’espace ne peuvent être découplés2. En effet, comme il est facile de le comprendre à partir des courbes de von Koch et de Peano (figure 2), pour chaque niveau d’échelle spatiale, chaque étape de construction doit correspondre à une fréquence d’horloge particulière. Or l’unité de l’objet fractal exige une mesure invariante, ici construite comme produit non linéaire entre la fréquence et l’échelle spatiale à la puissance de la

1 Voir le glossaire en fin d’article.2 Le lien entre géométrie fractale et temporalité est explicité dans l’encadré 1.

Figure 2 : Exemple de constructions de géométries fractales. d est la dimension. De gauche à droite : courbe de Koch, courbe de Peano et escalier du diable sur structure cantorienne.

jphauet
Rectangle
Page 15: Aperçu du numéro 2015-1 de la REE (mars 2015)
Page 16: Aperçu du numéro 2015-1 de la REE (mars 2015)
Page 17: Aperçu du numéro 2015-1 de la REE (mars 2015)

38 ZREE N°1/2015

2014 a été une année ma-jeure et charnière pour les smart grids en France.

Une année majeure car les premiers démonstrateurs lancés il y a quelques années, le plus souvent initiés dans le cadre des appels à manifes-tation d’intérêt de l’ADEME, ont commencé à produire des résultats. Ils ont globalement respecté les échéances de livrables, ainsi que les jalons fixés. Des premiers enseignements et éclairages pré-cieux ont été apportés sur trois plans :

-posants réseau, que de télécoms, de systèmes d’in-formation (SI) et de gestion des données ;

analyses des coûts et bénéfices liés au déploie-ment des solutions smart grids et de la répartition de la valeur créée entre les parties prenantes. Ces analyses sont complétées par l’identification d’évo-lutions nécessaires sur les plans réglementaires et régulatoires pour contribuer à faire émerger progres-sivement des modèles d’affaires bénéfiques pour la collectivité et viables pour les différents acteurs ;

-ceptabilité de possibles nouvelles règles du jeu (signaux tarifaires dynamiques, effacements…) ou la capacité à faire évoluer leurs comportements, con-courant ainsi par exemple à développer davantage la gestion active de la demande.

Une année majeure encore, car, suite à la consul-tation menée à la fin de 2013, la Commission de régulation de l’énergie (CRE) a publié à l’été 2014 ses recommandations pour faire évoluer les réseaux électriques intelligents en basse tension, traitant de nombreux sujets comme le comptage évolué, la mise à disposition de données, l’insertion des bornes de recharge des véhicules électriques, l’autoproduc-tion, les flexibilités, le raccordement des installations de production ou de consommation, ou encore le stockage d’électricité et la normalisation. Les premiers enseignements des démonstrateurs ont constitué une des bases des réponses des acteurs des smart grids

à ces « recommandations », permettant un débat riche et constructif, propice au déve- loppement industriel des ré-seaux électriques intelligents et à donner un rôle moteur à la France en la matière.

Une année majeure tou-jours, car le 7 mai la feuille de route du plan « Réseaux élec-triques intelligents » (REI) a

été présentée et validée à l’Elysée. Ce plan, piloté par Dominique Maillard, président de RTE, s’inscrit dans le projet de la Nouvelle France industrielle, structuré en 34 chantiers et lancé par le gouvernement en septem-bre 2013.

Ce plan de reconquête industrielle mobilise l’en-semble de la filière des réseaux électriques intelli-gents. Il vise à court terme à constituer « l’équipe de France des réseaux électriques intelligents » en fédérant la filière, puis à moyen terme à passer des démonstrateurs à un déploiement industriel ciblé des solutions REI, et enfin à plus long terme à préparer la compétitivité de la filière. Ainsi à l’horizon 2020 l’am-bition est de placer les industries françaises en chefs de file dans une compétition mondiale stratégique et de créer au moins 10 000 emplois globalement pour le secteur. Le plan couvre un spectre très large, de l’ac-compagnement des PME et des start-up, à la question de la normalisation, en passant par la création d’une association pour fédérer la filière française. Une des actions phares, pilotée par ERDF, a pour but d’organi- ser un déploiement à grande échelle des réseaux élec-triques intelligents en France sur une zone de taille significative combinant des territoires ruraux, urbains et industriels autour d’une métropole.

Une année majeure enfin pour les smart grids, avec le débat sur le projet de loi « Transition énergétique ». Cette loi est doublement fondamentale pour les smart grids. Non seulement elle éclaire la finalité collective des smart grids, mais elle précise également certaines conditions de leur déploiement comme dans l’article 59 qui offre la possibilité d’une organisation conjointe par les gestionnaires de réseaux et les collectivités publiques d’un déploiement expérimental sur un

LES GRANDS DOSSIERS Introduction

Démonstrateurs et expérimentations smart grids en France

Thierry Sudret ERDF

Régine Belhomme

EDF R&D

Page 18: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 39

Introduction LES GRANDS DOSSIERS

ensemble de départements de réseaux électriques intelligents ou de dispositifs de gestion optimisée de l’énergie.

A l’image de 2014, 2015 est une année tout aussi cruciale. En effet, la France est le pays hôte de la 21e

conférence climat ou COP21, qui se tiendra fin 2015 (Paris Climat 2015). En tant que pays assurant la prési-dence de la COP, elle doit assurer un rôle de facilitateur auprès de toutes les parties de la négociation, pour rapprocher les points de vue et permettre une adop-tion de l’accord à l’unanimité.

Cette conférence est déterminante car, sur la base des travaux de la COP20 à Lima, elle doit permettre de conclure un accord international sur le climat qui per-mettra de contenir le réchauffement global en deçà de 2 °C, au travers de toute une série de décisions :

-querait à tous les pays pour faire face au dérègle-ment climatique ;

modalités de financement des actions contre le changement climatique ;

infra-étatique, par les collectivités locales, les orga-nisations de la société civile et les entreprises, pour amplifier la mobilisation et s’ajouter aux contribu-tions des Etats, en matière d’adaptation aux évolu-tions climatiques, de développement des énergies renouvelables et de développement des technolo-gies nécessaires à une transition vers des économies à bas carbone.

C’est dans ce contexte que les réseaux électriques intelligents rentrent dans une nouvelle phase opéra-tionnelle, l’industrialisation, étape appelée de leurs vœux par l’ensemble des parties prenantes. S’ap-puyant sur les premiers résultats des démonstrateurs partagés et analysés, comme on l’a vu, en 2014, elle organise la transformation des prototypes en objets et solutions industriels, comme les smart postes sources HTB/HTA et postes de distribution HTA/BT, la super-vision du réseau BT, l’agence de conduite HTA de de-main ou encore la transformation du consommateur BT en « consomm’acteur BT » grâce notamment au compteur communicant. En parallèle, les travaux de recherche et d’expérimentation se poursuivront, pour obtenir les résultats attendus et continuer à dévelop-per des solutions innovantes et économiquement per-formantes.

L’action phare de cette nouvelle phase est assu-rément l’appel à candidatures et à projets, évoqué

précédemment, lancé sous l’égide des ministères en charge de l’énergie et de l’industrie et piloté par ERDF, pour le déploiement à grande échelle dans le cadre du plan Réseaux électriques intelligents. Destiné aux collectivités territoriales et établissements publics de coopération intercommunale, il permet de :

plus grande que celle des démonstrateurs, qui puisse servir de vitrine industrielle ;

-mique et sociétale, à plus grande échelle la crédi-bilité et la pertinence d’un ensemble de solutions étudiées individuellement dans les démonstrateurs ;

-lisé, notamment des gains/surcoûts engendrés.

C’est sur cette zone retenue que les gestionnaires de réseaux déploieront massivement à partir de mi-2017 les technologies et les solutions qu’ils auront retenues. Ce projet industriel illustre parfaitement l’intention de la France dans la COP21 de fédérer gestionnaires de réseaux et acteurs industriels, Etat, collectivités terri-toriales et associations pour le développement d’une économie bas carbone.

Dans ce contexte, le présent dossier vise à dresser, à travers quatre articles, un panorama des enjeux et des apports des démonstrateurs smart grids pour le sys-tème électrique français selon différentes perspectives et pour différentes parties prenantes. Il présente des premiers enseignements et éclairages qui ont été ap-portés par ces démonstrateurs sur les trois plans men-tionnés plus haut, à savoir les innovations techniques ou technologiques, les modèles économiques et régulatoires, et le comportement et l’acceptabilité des clients. Il donne également des exemples de travaux prévus pour les années à venir. Mais il n’a cependant pas la prétention de réaliser une couverture exhaustive de ces sujets très vastes.

Le premier article traite des évaluations éco-nomiques des smart grids. Il en présente les enjeux et les principales méthodes qui ont été développées à cette fin, telles que les analyses coûts-bénéfices (ACB) et les modèles économiques multi-agents. Il donne égale-ment un panorama des programmes smart grids dans le monde, ainsi que des projets démonstrateurs en France avec leurs principaux objectifs.

Après une description des enjeux des gestionnaires de systèmes électriques et de réseaux de transport européens, le deuxième article explique l’importance de l’introduction de l’intelligence à différents niveaux (physique, logiciel et marché) et mailles spatiales,

Page 19: Aperçu du numéro 2015-1 de la REE (mars 2015)

40 ZREE N°1/2015

Evaluations économiques des smart grids. Enjeux, méthodes, état d'avancement et démonstrateurs Par Andrei Nekrassov, Sophie Chartres, Florent Chiappini, Mathilde Drouineau, Nouredine Hadjsaïd, Cédric Léonard ......................................................................... p. 41Apport des démonstrateurs « smart grids » dans le transport d’électricité et les architectures de marché Par Michel Béna, Thierry Buhagiar, Christian Lemaître, Tanguy Janssen, Benjamin Guedou .......... p. 53Enjeux et apports des démonstrateurs smart grids pour le réseau de distribution. Focus sur l’intégration de la production décentralisée, Par Maria Sebastian Viana, Gilles Malarange, Nouredine Hadjsaïd, Marc Petit ................................. p. 63Enjeux et apports des démonstrateurs smart grids pour l’évolution des métiers de la fourniture et des pratiques de consommation d’énergiePar Guillaume Lehec, Rafael Jahn, Etienne Gehain .......................................................................................... p. 72

LES ARTICLES

LES GRANDS DOSSIERS Introduction

ainsi que le rôle joué par RTE, gestionnaire du réseau de transport français. Il présente ensuite les apports des démonstrateurs à travers trois exemples : « Poste intelligent » pour tester les capa- cités de systèmes de contrôle-com-mande de postes numériques dotés d’une nouvelle architecture et de nouvelles fonctionnalités, « iTesla » qui vise à développer une nouvelle génération d’outils pour l’analyse de la sécurité du réseau électrique et NEBEF qui définit un nouveau mécanisme de marché pour favoriser la gestion active de la demande.

Le troisième article aborde les enjeux et apports des démonstra-teurs smart grids pour le réseau de distribution en considérant princi-palement l’intégration de la produc-tion décentralisée qui en constitue un challenge majeur. Il commence par exposer les évolutions néces-sitées par le développement de la production décentralisée et en par-ticulier des énergies renouvelables (EnR) intermittentes. Il présente ensuite les problématiques traitées et les solutions techniques ou technologiques testées dans des démonstrateurs dont l’objectif prin-cipal est l’insertion sûre et efficace

des EnR dans les réseaux de distribution. Il termine en mentionnant les besoins en recherche et développe-ment dans ce domaine au-delà des démonstrateurs.

Le dernier article s’attache aux apports des démonstrateurs pour l’évolution des métiers de la four-niture d’électricité et des pratiques de consommation des clients. Il passe en revue les enjeux des four-nisseurs, la conception et le test de nouvelles offres aux clients, le déve- loppement de la fonction d’agré-gation de la flexibilité des clients et le besoin de solutions techniques/technologiques appropriées pour leur mise en œuvre. Les apports et les résultats des démonstrateurs sont ensuite illustrés à travers les exemples de deux projets, faisant intervenir des clients résidentiels. Cet article aborde également le re-tour d’expérience des expérimen-tateurs et l’acceptabilité des clients face aux nouvelles offres et aux technologies smart installées chez eux. Avec les smart grids, les clients deviennent « acteurs » à travers la flexibilité de leur consommation. Leur acceptabilité face aux techno- logies déployées et leur engage-ment dans les programmes mis en œuvre sont donc essentiels. Q

Thierry Sudret est le directeur du projet Smart grids à ERDF, en charge de la coordination du programme de démonstrateurs smart grids et des enseignements que l’on peut en tirer. Son expérience inclut des postes de management à ERDF, EDF et GDF Suez dans les domaines de la distribu-tion et du transport d’électricité, de la finance et de l’optimisation-trading. Il a, en parallèle, enseigné l’économie à l’ENSTA. Thierry Sudret est ingénieur en télécommunications et diplômé de l’Institut d’Etudes Politiques de Paris. Régine Belhomme est chef de projet et ingénieur senior au département EFESE (Economie, fonctionnement et études des systèmes énergétiques) à la R&D d’EDF. Après avoir travaillé à Hydro-Québec (Canada), elle a rejoint EDF en 1998 et a mené des travaux sur l’insertion de la production décen-tralisée et des énergies renouvelables dans les réseaux électriques. Depuis 2007, elle est en charge de projets sur le développement de la demande active et son intégration dans les sys-tèmes électriques et dans les marchés. Régine Belhomme est ingénieur élec-tricien (électronique) et docteur en sciences appliquées (génie électrique) de l’Université de Liège (Belgique).

Cré

dit p

hoto

: M

edia

box

ERD

F

Page 20: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z41

LES DÉMONSTRATEURS SMART GRIDS EN FRANCE DOSSIER 1

IntroductionLe concept de smart grid est un des

éléments-clés de la stratégie de moder-nisation des systèmes électriques, confrontés aujourd’hui à un défi sans précédent : intégrer une part impor-tante des moyens de production à la fois intermittents et décentralisés (voire diffus), satisfaire les nouveaux usages et besoins de la demande (véhicules électriques, techniques émergentes de chauffage et de climatisation...), tout en assurant la conformité de ses actions avec les engagements environnemen-taux et d’économie d’énergie et dans le respect des exigences de qualité, de sécurité d’approvisionnement et de maî-trise des coûts d’électricité, imposés par les pouvoirs publics.

S’agissant d’un secteur de l’écono-mie très capitalistique, avec des cycles d’investissement très longs (40 ans en moyenne pour les actifs de distribution), les enjeux économiques, techniques et

régulatoires liés à l’implémentation des smart grids sont de taille, tant pour les pouvoirs publics qui in fine décident de la politique énergétique et industrielle en Europe et dans ses Etats membres, que pour l’ensemble des acteurs du sys-tème électrique, impliqués dans la mise en place des infrastructures « smart ».

Trois enjeux majeurs se posent à cet égard :

-mique que représentent les smart grids pour les systèmes électriques et pour les économies nationales européennes ;

technique, économique et sociale de la transition vers les smart grids ;

-tuels d’évolution de la régulation énergétique pour rendre possible l’or-ganisation des agents économiques et institutionnels européens et nationaux afin de permettre un déploiement des smart grids.

Dans cette perspective, les analyses économiques et les projets de démons-tration se présentent comme deux leviers complémentaires permettant d’apporter des réponses à ces enjeux.

Le présent article fait état des réflexions menées dans le secteur énergétique sur les analyses écono-miques des smart grids, tant sur le plan global pour l’ensemble de la collecti-vité, que dans le cadre des projets de démonstration smart grids en cours. Les thèmes suivants sont notamment traités :

smart grids dans le monde ;

Analyse Coûts-Bénéfices (ACB) et modèles économiques multi-agents ;

des smart grids : aspects environnemen-taux et impacts macroéconomiques ;

-ponibles dans le monde ;

Evaluations économiques des smart grids Enjeux, méthodes, état d’avancement

et démonstrateursPar Andrei Nekrassov1, Sophie Chartres2, Florent Chiappini3, Mathilde Drouineau1, Nouredine Hadjsaïd4, Cédric Léonard5

EDF R&D1, ALOES2, ERDF3, G2ELab4, RTE5

The concept of smart grid is one of the key elements of the strategy of power systems modernization. Three major issues arise in this regard:

-tional agents to allow deployment of smart grids.

-

The main findings of the article are pointing on the need of the harmonization of methods and assumptions for

-

ABSTRACT

Page 21: Aperçu du numéro 2015-1 de la REE (mars 2015)

42 ZREE N°1/2015

LES DÉMONSTRATEURS SMART GRIDS EN FRANCEDOSSIER 1

en France : état d’avancement, enjeux et perspectives.

Panorama des principaux programmes smart grids (SG) dans le monde

Les Etats et régulateurs sont très pré-sents dans la mise en place d’initiatives nationales et des dizaines de pro-grammes ont vu le jour dans le monde

ces dernières années impliquant la mise en place d’évaluations des projets finan-cés. Au total, ces programmes repré-sentent plus de 240 milliards d’euros d’investissement sur une période s’éta-lant de 2008 à 2020. La majorité sont d’ores et déjà finis ou prendront fin en 2015/2016.

La réalisation d’une évaluation éco-nomique est dans la plupart des cas l’une des finalités de l’expérimentation.

Cette évaluation peut reposer soit sur une analyse coûts-bénéfices (ACB) du point de vue du système électrique ou de la collectivité, soit sur la recherche d’un modèle d’affaires particulier. Ces deux approches sont présentées dans la suite de l’article. Le tableau 1 présente la plupart des programmes recensés à ce jour, ainsi que la nature des évalua-tions économiques éventuellement pré-vues ou réalisées.

Tableau 1 : Programmes nationaux et régionaux de développement des smart grids (liste non exhaustive)1.

1 La disproportion du budget du programme chinois “Strong and smart grid” par rapport aux programmes des autres pays s’explique par le fait qu’outre le développement des smart grids, il inclut la mise à niveau du réseau électrique sur une grande partie du territoire chinois, le développement de pro-ductions renouvelables, le développement de réseaux ultra-haute tension et la création de centres de recherche.

jphauet
Rectangle
Page 22: Aperçu du numéro 2015-1 de la REE (mars 2015)

82 ZREE N°1/2015

La fin du vingtième siècle et le début du vingt-et-unième, avec l’extraor-dinaire développement de l’Internet, auront été carac-térisés par une croissance extraordinaire des débits offerts à tous les clients des réseaux de télécommunica-tion. Au milieu des années 90, le débit des échanges de données par le réseau téléphonique commuté était limité à quelques kbit/s. Les tentatives de nu-mérisation de l’accès téléphonique avec le RNIS (Ré-seau numérique à intégration de services) avaient bien permis de porter le débit transporté par une ligne de cuivre à deux fois 64 kbit/s, mais l’utilisation de cette technologie n’a guère dépassé le secteur des entreprises. C’est vraiment la disponibilité des techniques xDSL et leur application au grand public qui vont faire basculer les réseaux d’accès dans l’ère du haut débit, celle où le débit d’accès est au moins de 512 kbit/s et peut atteindre la dizaine de Mbit/s. La croissance des débits d’accès et la croissance per-manente des usages résultent, aujourd’hui, en une explosion du trafic de données : approximativement, le volume de données à transporter double tous les deux ans.

Cette explosion a imposé des modifications importantes dans l’infrastructure des réseaux : il a fallu les doter d’une capacité beaucoup plus grande que celle exigée par le seul service téléphonique.

La fibre optique qui avait commencé, à la fin des années 80, à être utilisée dans les cœurs de réseau et les câbles sous-marins allait jouer un rôle essentiel dans l’expansion des réseaux. La croissance des volumes de données à trans-porter a d’abord nécessité de renforcer la capacité des réseaux centraux, (cœur et sous- marin). Grâce à la capacité de transport qu’offre la fibre optique, son usage s’est étendu aux réseaux régionaux et métropolitains et à la desserte de nombre des sites où se terminent les lignes de cuivre des abonnés. Elle a aussi largement été uti-lisée pour augmenter le débit des lignes de cuivre, des lignes les plus longues en rapprochant du site client le point de terminaison de la ligne de cuivre

et en le desservant en op-tique. De même, la crois-sance des débits des accès mobiles rendue possible par les systèmes 4G a impo-sé d’augmenter le débit des systèmes de desserte des stations de base et de ren-forcer la capacité des cœurs de réseau : là encore la fibre optique y a pris sa part.

Dans la satisfaction de la demande d’accès à très haut débit, la fibre optique joue un rôle essentiel, soit en contribuant à raccourcir de manière systé-matique les lignes de cuivre pour y installer des systèmes VDSL2 (ou DOCSIS 3 pour les réseaux des câblo-opérateurs), soit en desservant directe-ment les clients par une liaison en fibre. La desserte optique de clients impose le développement de nouveaux composants d’infrastructure optique qui doivent répondre à des contraintes fortes d’usage et d’environnement.

La transition vers le très haut débit est une opé-ration de très grande ampleur notamment en raison de son coût : la mission France Très haut débit a été chargée par le gouvernement de la piloter comme le décrit son directeur dans l’encadré ci-après.

Nous consacrons ce dossier aux éléments d’in-frastructure nécessaires à la mise en place des réseaux de transmission en fibre optique et en par-ticulier au raccordement optique des clients.

Le premier article de B. Capelle et H. Touzeau décrit les moyens utilisables pour faire évoluer les réseaux d’accès vers le très haut débit et la place de la fibre dans cette évolution : quelles sont les limites de la ligne de cuivre ? Quelles sont les op-tions retenues par les différents acteurs mondiaux VDSL2 ou FTTH ? Va-t-on vers l’extinction des ré-seaux de cuivre ?

Le deuxième article de N. Brochier traite des réseaux de transmission cœur, métropolitains, et transocéaniques : la fibre optique est le support de transmission clé dans ces secteurs. Alors que les prospectivistes avaient longtemps affiché que satellites et câbles sous-marins se partageraient équitablement le marché transocéanique des télé-communications, aujourd’hui les câbles sous-marins

LES GRANDS DOSSIERS Introduction

Câbles et infrastructures optiques

Jean-Pierre Bonicel Patrice Collet

Page 23: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 83

Introduction LES GRANDS DOSSIERS

optiques, grâce à leur énorme capacité de transmis-sion ont pratiquement l’exclusivité des échanges transocéaniques et la desserte des zones isolées ou très peu denses semble être maintenant un des domaines d’usage des satellites. Dans les cœurs de réseaux terrestres, les progrès des technologies de transport optique ont permis d’atteindre des capa-cités colossales sans avoir pratiquement à renforcer les infrastructures de câbles op-tiques déployées au début des années 90 et également sans en changer la topologie : quelles perspectives nous offrent les évolutions technologiques en préparation ?

L’évolution technologique des fibres optiques et leur adapta-tion aux nouveaux besoins no-tamment ceux du raccordement de clients à très haut débit sont décrits dans l’article de L. Provost & al. Le raccordement optique de clients impose en effet de nom-breuses contraintes nouvelles : les câbles à fibres doivent être adaptés à l’environnement du génie civil de la boucle locale cuivre, ils doivent résister aux interventions nécessitées par les réaménagements de réseau, leurs capacités, en termes de nombre de fibres, doivent être

beaucoup plus importantes que celles des câbles couramment utilisées dans les réseaux de transmis-sion. L’article décrit les évolutions technologiques, et celles des processus de fabrication qui ont permis de satisfaire à ces contraintes.

Enfin, au-delà de la fibre elle-même, le réseau de distribution optique (FTTH ou FTTx) nécessite la mise en œuvre d’un nombre important de com-

posants passifs dont l’associa-tion, la qualité intrinsèque et la mise en œuvre sur le terrain peuvent conduire à des infras-tructures plus ou moins per-formantes et pérennes. C’est ce que l’article de J.-P. Bonicel et L. Gasca s’efforce de mettre en exergue. Il rappelle que si la fibre apporte des capacités de transmission sans rapport avec celles du cuivre, elle est aussi bien plus sensible que le cuivre à l’environnement mécanique et climatique. Un soin impor-tant doit donc être accordé au choix des éléments constituant l’infrastructure optique et aux conditions de son exploitation si on souhaite lui assurer la même durée de vie que celle de l’infrastructure cuivre qui la précède. Q

Du cuivre à l’optique : Une évolution irréversible vers le très haut débit Par Bruno Capelle, Hervé Touzeau ..........................................................................................................................p. 85Les réseaux optiques « longue distance » : Historique et perspectives Par Nicolas Brochier .................................................................................................................................................... p. 91La fibre optique : retour sur 50 ans de développement Où en sommes-nous aujourd’hui ? Par Lionel Provost, Pierre Sansonetti, Laurent Gasca, Alain Bertaina, Jean-Pierre Bonicel ....................................................................................................................... p. 99Des produits innovants : fibres, câbles, connectivité pour des infrastructures FTTH performantes et pérennes Par Jean-Pierre Bonicel, Laurent Gasca ............................................................................................................... p. 111

LES ARTICLES

Jean-Pierre Bonicel est diplômé en science des matériaux de l'Institut des sciences de l'ingénieur de Montpellier - Polytech (France). Il a rejoint en 1977 les Câbles de Lyon où, après avoir œuvré sur les solutions cuivre, il a participé au développement précoce de câbles de fibres optiques. Auteur de nombreux brevets, Il détient plusieurs postes de direction chez Alcatel en France et aux USA et ensuite chez Draka, en ingénierie, opérations, marketing et ventes. Il est actuellement directeur technique pour Prysmian Group Telecom Solutions, président d’Objectif fibre et président du Comité directeur Telecom du SYCABEL. Patrice Collet est ancien élève de l’École Polytechnique et ingénieur des télécommunications. Sa carrière l’a conduit de la recherche et développement au CNET qui était alors le centre de recherches de la Direction Générale des Télécommunications à la Direction Générale de France Télécom où il a eu la responsabilité de l’architecture du réseau fixe et son évolution.

Page 24: Aperçu du numéro 2015-1 de la REE (mars 2015)

84 ZREE N°1/2015

Le très haut débit en FranceAntoine Darodes

Directeur de la mission France Très Haut Débit

Des infrastructures pour répondre à la multiplication des usagesL’objectif du Plan France Très Haut Débit est clair : déployer des réseaux très haut débit sur

l’ensemble du territoire d’ici 2022. Il s’agit donc d’un chantier d’infrastructures, qui s’appuie sur l’action coordonnée des opérateurs privés, des collectivités territoriales et de l’État et qui mobilise un investissement de 20 milliards d’euros.

Le déploiement de ces infrastructures numériques vise à répondre à la hausse continue des besoins en débits, tant des citoyens que des entreprises et des services publics. Il permet ainsi de s’assurer que la performance des réseaux, fixes et mobiles, ne constitue pas un frein au dévelop-pement des usages numériques sur l’ensemble du territoire. A moyen terme, la généralisation des réseaux de fibre optique jusqu’à l’abonné (FTTH) permettra non seulement d’accompagner les usages existants, mais également de soutenir le développement de services innovants.

Former et déployer des réseaux harmonisés : deux chantiers majeursPour atteindre cet objectif, nous sommes face à deux défis. D’une part, le déploiement de

réseaux très haut débit sur l’ensemble du territoire d’ici 2022 rend nécessaire la mobilisation de toutes les solutions techniques : FTTH, montée en débit, technologies hertziennes terrestres et satellitaires. En termes de formation, cette ambition implique la mise en place de compétences multiples, d’installateurs, de chargés d’affaires, de conducteurs de travaux. Des initiatives locales, notamment des chambres de commerce et d’industrie, permettent de répondre aux besoins actuels : néanmoins, la demande de main d’œuvre qualifiée devrait s’accroître fortement avec la montée en charge des travaux en 2015, 2016 et 2017.

D’autre part, pour assurer l’efficacité de l’investissement public et la qualité de service pour les utilisateurs, il est nécessaire de garantir la pérennité des réseaux déployés. A cette fin, il est impé-ratif que leurs architectures soient adaptées aux besoins des opérateurs et respectent les règles de l’art en matière d’harmonisation technique. Pour définir ces référentiels communs, l’État a fait le choix de s’appuyer sur l’expertise des opérateurs et des industriels, structurés dans différents groupes de travail (Objectif Fibre, Interop Fibre, le CREDO) ou d’institutions, notamment la Fédé-ration des industriels des réseaux d’initiative publique (FIRIP). La définition de règles communes, nécessaires à la commercialisation des réseaux d’initiative publique, constitue également une source de revenus pour les opérateurs-aménageurs.

Pour les industriels et équipementiers, le Plan France Très Haut Débit constitue non seulement un soutien à l’activité de leur secteur, mais il représente également une opportunité pour renforcer leur expertise au niveau international. En 2014, les Gouvernements allemand et italien annon-çaient leur volonté de soutenir le déploiement de réseaux très haut débit. En janvier 2015, dans son discours sur l’état de l’Union, Barack Obama faisait du déploiement de la fibre optique dans les zones rurales une priorité de la fin de son mandat. Le temps d’avance pris par les entreprises françaises doit leur permettre de faire valoir leur expertise à l’étranger.

LES GRANDS DOSSIERS Introduction

Page 25: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z85

CÂBLES ET INFRASTRUCTURES OPTIQUES DOSSIER 2

Introduction Cet article fait le point sur l’évolution actuelle des réseaux

d’accès filaires dans un contexte de course au plus haut débit Internet. Avec des déploiements largement engagés de fibres optiques, la notion de « très haut débit » apparaît comme très relative dans la mesure où les technologies évoluent rapide-ment. Néanmoins, conformément à ce qui figure dans les textes européens, le « très haut débit » offert à l’usager est aujourd’hui défini comme « un débit supérieur à 30 Mbit/s ».

Rappelons que l’accès aux services « Internet, voix et vidéo » peut être proposé par différents types de réseaux filaires, parmi lesquels :

-1 ;

en place pour les services de télévision, dont la modernisation permet de fournir un accès à Internet, en complément de la TV,

2 » ;

-ment déployé pour l’accès à Internet et l’ensemble des ser-vices “over IP” : on déploie alors la fibre optique du central

1 ADSL: Asymetric Digital Subscriber Line. 2 DOCSIS (Data Over Cable Service Interface Specification) spécifie les

moyens d’accéder à Internet par les réseaux câblés.

que celles de la boucle locale cuivre.

Au-delà des réseaux « filaires », d’autres options sont pos-sibles et seront utilisées plus ou moins massivement, en fonction du contexte, notamment le satellite, le WiMAX ou la technologie 4G : à l’instar de plusieurs initiatives lancées en Allemagne, des expérimentations s’appuyant sur la « 4G

3 ».

Du très haut débit, pourquoi faire ?

vidéo, la télévision, l’Internet, les jeux en réseau mais aussi des applications professionnelles telles que la télémédecine,

observée aujourd’hui en termes de débit est liée pour une part à la compétition féroce qui se joue depuis des années au plan mondial entre les opérateurs de télécommunications et

-tant de faire passer de la vidéo sur les lignes téléphoniques

-teurs qui de leur côté se lançaient dans les services de télé-

3 http://www.francethd.fr/ – La mission Très Haut Débit assure notam-ment l’encadrement des déploiements, l’instruction des demandes de soutien financier, l’accompagnement technique ainsi que l’harmonisa-tion des référentiels techniques.

Du cuivre à l’optique : Une évolution irréversible vers le très haut débit

Par Bruno Capelle1, Hervé Touzeau2

Orange labs-Lannion1, Programme Fibre Orange France2

The evolution towards higher bit rates in the fixed access network was mainly based on the advanced DSL techno-logies evolution and on the existing copper local loop infrastructure. As a matter of fact, due to the market demand

for higher bit rates, as “up to 1 Gbit/s” commercial announcements, introduction of optical fiber cables is required. FTTH (Fiber To The Home) with optical fiber “up to the customer premises” is seen as the target option: optical cables probably will replace copper cables in the future.

ABSTRACT

Page 26: Aperçu du numéro 2015-1 de la REE (mars 2015)

86 ZREE N°1/2015

CÂBLES ET INFRASTRUCTURES OPTIQUESDOSSIER 2

été adoptée massivement durant ces 15 dernières années, repose sur le fait qu’elle réutilise le réseau cuivre existant4 et donc qu’elle limite considérablement les investissements des opérateurs de télécommunications voulant offrir un service de données à haut débit.

-rateurs se sont progressivement moder-nisés, pour atteindre notamment le palier de 30 Mbit/s évoqué plus haut, la course au débit a repris de façon effré-née… et n’a pas depuis vraiment cessé ; elle a abouti aujourd’hui à des offres de connectivité sur la boucle locale dépas-sant au final très largement les besoins réels en débit du client résidentiel (des débits jusqu’à 1 Gbit/s sont parfois

Les limites du cuivre

-sieurs années un comité d’experts indé-pendants, chargé d’étudier les conditions

la boucle locale de cuivre. Ce comité rassemble l’ensemble des opérateurs et les principaux équipementiers, ainsi que des représentants des collectivités

-lissant et coûteux à entretenir, continue à fonctionner avec une excellente qua-lité, et ceci même s’il ne transporte fina-lement plus majoritairement les signaux analogiques de la voix comme par le passé5

4 Paire de cuivre installée entre le central téléphonique et le domicile du client, réseau historiquement conçu et installé pour un ser-vice de téléphonie analogique avec transport du son dans la bande de fréquence 300-3 400 kHz, avec une distance moyenne en Europe de 2 km entre le central téléphonique et le logement du client..

5 Pour les États-Unis, le nombre d’accès fixes à la téléphonie commutée est ainsi passé de 192,5 millions en 2000 à 85,3 millions à fin 2013, soit un recul de plus de 50 % en treize ans.

-portent aujourd’hui un service de Voix

-niques de voix sur IP. Paradoxalement, l’infrastructure de cuivre est donc utili-sée majoritairement pour une techno-logie autre que celle pour laquelle elle avait été conçue.

estimait même, il y a quelques semaines, que « le cuivre serait encore là dans 100

6 depuis le central téléphonique est, selon l’ARCEP, de l’ordre de cinq millions. Par ail-leurs, l’expérimentation récente d’Alcatel-

sur une ligne cuivre pour une distance de 30 mètres a frappé les esprits.

6 Very high speed Digital Subscriber Line 2: Technologie DSL qui permet d’atteindre des débits de l’ordre de 100 Mbit/s sur des lignes de quelques centaines de mètres.

-

encore, selon certains, de très beaux jours devant lui. Qu’en est-il exactement ?

Les limites de la boucle locale cuivre

boucle locale il y a plusieurs dizaines d’années, présente essentiellement deux limitations techniques lorsqu’on veut y

limitées principalement par l’affaiblisse-

locale d’une part, et par l’impact des dif-férents couplages électromagnétiques observés sur le support de transmission qu’est la paire téléphonique, d’autre part.

ayant été conçus à l’origine pour trans-mettre les services de voix téléphonique

une forte dégradation des performances du support de transmission dès qu’on monte en fréquences car l’affaiblisse-

7 Source www.arcep.fr (à fin 2014).

Figure 1 : Répartition des lignes portant un service téléphonique - Source ARCEP.

Figure 2 : Couplages télédiaphoniques entre paires d’un même câble (sens descendant).

jphauet
Rectangle
Page 27: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 127

GROS PLAN SUR ...

Le piégeage et la récolte de l’énergieL’energy harvesting

Horloge entièrement autonome de Jaeger-LeCoultre - Source : Wikipedia.

Energy harvesting is an emerging technology that strives to reduce battery dependency through improved ener-gy conversion from previously untapped sources and improved storage of converted energy. Wireless sensor

networks consist of numerous small devices all interacting to observe an environment and assemble useful data about that environment. Often we expect to employ them in situations where little to no human interaction with the physical network will be possible. Some tiny devices will be placed in location, be it in an office building, the ocean floor, or even within a living organism, to monitor variables. Depending on the situations in which these sensors are placed, supplying energy may be an incredibly difficult task.Energy harvesting encompasses a lot of potentially inexpensive and highly effective solutions to such problems, enabling the tiny machines involved in sensor networks to collect energy from renewable sources in the environment. Due to the great scientific and economic potential for energy harvesting solutions, many government agencies and private companies are devo-ting time and funding to a variety of projects. The major advancements in this field are being explored by both governmental organizations and businesses with commercial interests. France should pay more attention to energy harvesting which is an enabling technology for the development of the Internet of things.

ABSTRACT

Page 28: Aperçu du numéro 2015-1 de la REE (mars 2015)

128 ZREE N°1/2015

GROS PLAN SUR

Introduction

L e piégeage et la récolte d’énergie (en anglais “ener-gy scavenging” et “energy harvesting”) désignent l’en-

semble des techniques qui peuvent être utilisées pour extraire de l’envi-ronnement immédiat l’énergie qui est nécessaire à la satisfaction de certains besoins et qui, à défaut, se-rait perdue. Les inconditionnels de la langue française utilisent l’expression « récolte d’énergie » pour désigner ce concept de récupération mais l’expression “energy harves-ting” est très largement utilisée dans les milieux scientifiques et industriels. C’est donc elle que nous utiliserons dans la suite de cet article.

L’energy harvesting a commencé il y a bien longtemps avec les moulins à vent ou à eau. Aujourd’hui, les panneaux solaires photovoltaïques et les éoliennes et plus généralement toutes les formes d’énergie décentralisées et renouvelables peuvent être considérées comme de l’energy harvesting. Cependant l’energy harvesting ne s’adresse généralement pas au domaine du mégawatt mais à celui du milliwatt, bien que certaines des techniques utilisées soient susceptibles d’extrapolation. Le point de départ de l’energy harvesting réside dans le dévelop-pement des réseaux de capteurs, dans le monde industriel no-tamment, qui font de plus en plus appel à des technologies de radiocommunication. Il est évident que l’intérêt du recours aux technologies sans fil pour communiquer avec les capteurs se trouve considérablement amoindri si les capteurs nécessitent pour leur alimentation électrique un raccordement filaire à un réseau. Le recours à des piles ou à des batteries n’apparaît que comme un pis-aller : leur durée de vie est limitée car même en ayant recours aux protocoles les plus économes en énergie, elles souffrent de défaillances et leur remplacement peut être problématique lorsque les capteurs se situent dans des zones dangereuses ou difficiles d’accès.

Le développement de ces réseaux de capteurs sans fil bénéficie des technologies nouvelles de réseaux locaux de radiocommunication qui reposent sur des architectures mail-lées qui permettent d’assurer le routage des messages de nœud en nœud avec un maximum de garantie de disponi-bilité. Ces technologies de routage s’apparentent à celles de l’Internet et d’ailleurs un standard de l’IETF, le 6LowPAN, défi-nit la façon dont ces réseaux locaux peuvent se raccorder à l’Internet IPv6. L’energy harvesting apparaît donc comme l’une des technologies habilitantes de l’Internet industriel des objets (IIoT). La problématique des étiquettes radiofré-

quences (RFID) passives (au sens de « dépourvues de batteries ») est similaire à celle des réseaux de cap-teurs et l’on sait l’importance que les RFID jouent à présent dans les domaines de la productique, de la transitique, de la logistique, etc.

Si cet article se focalise surtout sur les réseaux capteurs, l’enjeu de l’energy harvesting en dehors du monde industriel est immense : il intéresse le domaine du “home automation” (avec par exemple des

films photovoltaïques insérés dans les matériaux de construc-tion), celui de la santé (avec par exemple des micromoteurs actionnés par l’acidité gastrique), celui du grand public avec les e-textiles, les e-chaussures, les commandes à distance... L’energy harvesting apparaît de plus en plus comme une composante-clé du développement des technologies de la communication et de l’information.

Depuis plusieurs décennies, les ingénieurs ont donc re-cherché les moyens de capter et de stocker de l’énergie à partir de l’énergie environnante et les moyens d’y parvenir sont étonnants. Un grand nombre de méthodes extrême-ment différentes a été développé et toutes les pages de cette revue ne suffiraient pas à décrire l’ensemble des techniques développées ou en cours de développement. Nous nous intéresserons aux plus importantes d’entre elles qui utilisent chacune un phénomène physique particulier : valorisation des vibrations, effet thermoélectrique, effet piézoélectrique, utilisation des radiations électromagnétiques ambiantes, dans le spectre visible ou hertzien.

Le besoin à traiter et les difficultés rencontrées

Nous nous positionnons dans cette section dans le cadre d’un réseau de capteurs sans fil. On sait que les capteurs sans fil permettent d’assurer un suivi beaucoup plus étroit des procédés et que leur coût d’installation est souvent sen-siblement inférieur à celui des capteurs filaires (dans certains environnements, l’économie d’investissement peut atteindre 80 %). Les avantages en termes d’extensibilité, de visibilité sur le procédé et de maintenance à distance sont reconnus. Les protocoles de réseaux maillés du type ISA 100.11a (IEC 62734) ou WirelessHart (IEC 62591) permettent d’atteindre des niveaux de disponibilité élevés et une dynamique proche des 100 ms.

Cependant la question de l’alimentation électrique de ces capteurs, à la fois pour la partie capteur proprement dite

André Deschamps Ingénieur

de recherche hors classe honoraire à l’Observatoire

de Paris

Jean-Pierre Hauet Président ISA-France

Page 29: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 129

Le piégeage et la récolte de l’énergie

et pour la partie radio, est souvent bloquante. Les batteries n’apportent pas une solution satisfaisante car, sur la base d’un besoin de quelques mW, leur durée de vie est souvent dans la pratique inférieure à quelques mois, compte tenu de l’intermittence du fonctionnement, de l’autodécharge, des variations de température, etc.

Le recours aux dispositifs d’energy harvesting devient alors séduisant. Mais une telle idée n’a d’intérêt pratique que si l’on parvient à rassembler l’énergie nécessaire de façon fiable et moyennant une installation aussi miniaturisée que possible, c’est-à-dire sans recourir à des dispositifs de taille prohibitive. Ceci impose de traiter le problème au niveau sys-tème et, avant même de décider de la façon dont le besoin sera satisfait, de réduire ce dernier au strict minimum.

L’approche système

Les fonctionnalités qui doivent être supportées par les équi-pements doivent être strictement analysées. Dans un réseau maillé du type ISA-10.11a, le routage des trames doit être assu-ré. Mais tous les équipements n’ont pas besoin d’être dotés de la fonction de routeur qui implique qu’ils soient actifs 100 % du temps. On réservera donc le routage aux équipements qui peuvent être raccordés aisément au réseau (figure 1). Quant

aux capteurs proprement dits, il est inutile de les maintenir en éveil en permanence. Selon les exigences du procédé, il sera nécessaire de recueillir leurs données selon une périodicité très variable, allant typiquement de quelques dizaines de secondes à plusieurs heures. Pendant les périodes où l’on n’attend rien de leur part, les capteurs peuvent être mis en stand-by et ne seront réveillés que lorsqu’ils sont censés transmettre une information. Les protocoles récents, du type ZigBee et ISA-100.11a ont été conçus pour manager au plus serré le réseau et, typiquement, fonctionner avec un taux de somnolence des capteurs de 97 %.

Cependant, cette gestion ménagère du parc de capteurs n’est pas suffisante. L’efficacité des protocoles de commu-nication est un facteur essentiel. Beaucoup des protocoles usuels n’ont pas été conçus avec le souci d’économiser les ressources en énergie : préambules et postambules trop longs, protocoles inutilement rapides, répétitions sans objet, etc. C’est pour remédier à cette situation qu’a vu le jour le protocole ZigBee, normalisé IEEE 802.15.4 pour ses couches basses en 2004, opérant dans les bandes libres des 2,4 GHz et 860 MHz en Europe. Le standard 802.15.4 a été intégré dans des versions plus évoluées de réseaux maillés : ISA-100.11a et WirelessHart. En 2007, a été élaboré par l’Internet Engineering Task Force (IETF) (RFC 4919 et

Figure 1 : Architecture-type d’un réseau ISA-100.11a - Source : ISA.

Page 30: Aperçu du numéro 2015-1 de la REE (mars 2015)

130 ZREE N°1/2015

GROS PLAN SUR

RFC 4944) le standard 6LowPAN (pour IPv6 LoW Power wireless Area Networks) qui définit, au-dessus de l’IEEE 802.15.4, les mécanismes d’encapsulation et de compres-sion d’entêtes permettant aux paquets IPv6 d’être envoyés ou reçus via le protocole de communication IEEE 802.15.4. A partir de l’année 2009, 6LoWPAN a commencé à être utilisé sur d’autres supports (par exemple les courants porteurs en ligne, RFID, Bluetooth et ISA-100). Il est donc destiné à être au cœur de l’Internet des objets et ouvre la voie à la banali-sation des technologies d’energy harvesting.

Il existe cependant d’autres protocoles plus rudimen-taires mais encore plus économes en énergie. Ainsi, le protocole EnOcean, issu d’un spin-off de Siemens, nor-malisé en 2012 ISO/IEC 14543-3-10, propose une solu-tion à ultra-basse consommation d’énergie. Ce protocole est rudimentaire, il est fondé sur des messages très courts (0,6 ms), des liaisons point à point (sans maillage) et une portée limitée (typiquement 30 m). Il permet, pour des ap-plications non critiques, d’être compatible avec des disposi-tifs d’energy harvesting, dans le domaine de la domotique tout particulièrement.

En France, la société ARVENI propose le protocole SARAH (“Smart Radio protocol by Harvesters for building automa-tion”), en français : protocole radio intelligent alimenté par microgénérateur pour la gestion technique du bâtiment.

En 2012, le consortium ZigBee a publié une nouvelle spécification, dénommée Green Power, visant également à permettre le développement d’équipements principalement dédiés à la domotique et utilisant des dispositifs d’energy harvesting. Le consortium a publié des ordres de grandeur (tableau 1), sachant qu’il n’existe aujourd’hui aucune mé-thode normalisée pour caractériser les performances des systèmes à ultra-basse énergie.

Le coût énergétique d’une transaction se trouve ainsi ra-mené aux environs de 100 à 500 µJ. Typiquement, un équi-pement d’extrémité va consommer en stand-by aux environs de 10 à 20 nA, en mode réception 5 à 6 mA et en mode émission 10 à 15 mA sous 1,5 à 2 V.

Bien évidemment les performances des systèmes à ultra-basse consommation ne peuvent équivaloir à celles des sys-tèmes plus évolués, “There no such thing as a free lunch in radiocommunications”, et par conséquent il est nécessaire

avant de penser à l’energy harvesting de faire une analyse système approfondie afin de bien identifier les performances qui sont requises. La fréquence de sollicitation du disposi-tif peut être un paramètre fondamental. En effet, pendant que le dispositif est au repos, le dispositif d’energy harvesting pourra, s’il n’est pas impulsionnel, capter de l’énergie et la stocker dans un micro-condensateur ou une micro-batterie avant de la relâcher lors de la session d’activité qui suivra.

Les difficultés

Cette analyse système supposée faite, la principale diffi-culté à surmonter est celle de la miniaturisation de systèmes dans le respect des performances à atteindre. Des progrès considérables ont été réalisés au niveau des dispositifs de captage et de stockage mais aussi au niveau de l’électronique qui est de moins en moins gourmande en énergie, avec des perspectives de progrès qui restent considérables au cours des prochaines années. La recherche dans ce domaine est souvent associée aux nanosciences. Les principaux points durs sont bien entendu les très petits dispositifs qui sont encore incapables de récolter une énergie suffisante pour être efficacement utilisée. Le stockage d’une énergie inter-mittente devient également un problème dès lors que la puissance requise devient importante.

Le tableau 2 donne, en ordre de grandeur, les perfor-mances que l’on peut espérer atteindre de la part des princi-pales sources d’énergie mobilisables ainsi que les difficultés y afférentes.

D’autres facteurs sont également à prendre en considé-ration : la durée de vie des équipements, leur disponibi-lité, leur résistance face à un environnement qui peut être hostile (hautes températures, perturbations électromagné-tiques).

Enfin il faut bien évidemment se poser la question de savoir quelle énergie ambiante peut être la plus facilement sollicitée. La présence d’équipements à température plus élevée que l’environnement (chaudières, tuyaux) conduira à s’intéresser aux systèmes thermoélectriques. La présence d’équipements en mouvements : moteurs, broyeurs… amè-nera à s’intéresser aux capteurs de vibration. L’utilisation spo-radique des dispositifs par action mécanique : contacts de fin de course, interrupteurs à commande manuelle, incitera

Type d’équipement Hypothèses d’utilisation Energie consommée sur 1 h

Lampe de 30 W Continue 108 000 J

Wi-Fi dans un PC Continue -200 mA – 3 V 2 160 J

Télécommande ZigBee R4CE Usage standard 0,020 J

Green Power ZigBee On/off 10 fois par jour 0,0002 J

Tableau 1 : Consommations types de quelques équipements - Source : ZigBee consortium.

Page 31: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 131

Le piégeage et la récolte de l’énergie

à se tourner vers les systèmes inductifs de transformation de l’énergie mécanique. Une utilisation régulière tout au long de la journée pourra s’accommoder d’un système de captage du rayonnement électromagnétique ambiant. Les idées ne manquent pas et les formes d’énergie mobilisables sont plus nombreuses qu’on ne l’imagine. Cependant, il sera généralement nécessaire, sauf à recourir à des moyens de stockage, de s’assurer de leur disponibilité 24h/24h. Un sys-tème d’energy harvesting photovoltaïque sera ainsi plus aisé à mettre en œuvre s’il peut s’accommoder de la lumière arti-ficielle, si celle-ci est permanente.

Nous allons à présent passer en revue quelques-unes des technologies mobilisables, rappelant que l’on ne sau-rait être exhaustif et que l’inventivité des développeurs, aux Etats-Unis principalement mais aussi dans d’autres pays très orientés vers les high-techs, semble aujourd’hui sans limite…

Aperçu sur quelques techniques d’energy harvesting et sur leurs perspectivesRécupération de l’énergie lumineuse

Le rayonnement solaire représente l’énergie disponible la plus évidente et c’est logiquement dans ce domaine que se développe une recherche active. Le rendement des cellules classiques ne permet pas vraiment la miniaturisation mais des développements récents ont permis la production de capteurs à haute sensibilité utilisables particulièrement en faible lumière. On peut citer le PicoRadio Project, développé à Berkeley pour développer un transmetteur entièrement

autonome, ainsi qu’un dispositif développé par la NASA qui fait tenir le collecteur et le stockage de l’énergie sur moins de deux mm d’épaisseur.

L’énergie photovoltaïque est certainement la plus déve-loppée et la plus utilisée pour une large échelle de puissance. Une nouvelle génération de capteurs à large spectre des-tinés aux faibles puissances est capable d’utiliser l’énergie lumineuse aussi bien en extérieur qu’en intérieur. Une large échelle de tension est possible car ces générateurs peuvent être connectés aussi bien en série qu’en parallèle.

Si la récupération de l’énergie par l’effet photovoltaïque est une technique maintenant assez ancienne, son utilisa-tion à partir des faibles éclairages ou des lumières artificielles est récente. Une technologie de “Dye Sentized Solar Cell” a été mise au point. Ces cellules absorbent la lumière un peu comme le fait la chlorophylle dans les végétaux. Les électrons libérés par les photons s’échappent dans une couche d’oxyde de titane (TiO 2) à travers un électrolyte dont la couleur peut être ajustée à une bande bien précise. Le rendement s’en trouve ainsi amélioré. Sous un éclairage de 200 lux, ce type de cellule produit jusqu’à 15 µW/cm2.

Transducteurs piézoélectriques

L'effet piézo-électrique produit de faibles tensions lorsque des cristaux sont mécaniquement déformés. Cette méthode permet de récolter les vibrations de machines industrielles aussi bien que l'énergie de course dans des chaussures ou la simple énergie dépensée lorsque l'on appuie sur une touche. La pression peut provenir de différentes sources assez

Source Difficulté Tension attendue Puissance envisagée

Lumière Petites surfaces Variabilité de l’éclairage Continu, de 0,5 V à 5 V De 10 µW à 15 mW

Limité à 500 µW en intérieur

Vibration Etendue et variabilité du spectre Alternatif, quelques dizaines de V De 1 µW à quelques mW

Thermique Faibles gradients thermiques Efficacité du couplage thermique

Continu, quelques dizaines de mV à 10 V

De 0,5 mW à 10 mW pour un gradient thermique de 20 °C

RadiofréquenceInduction Dépendance au couplage Alternatif, de 0,5 à 5 V Large gamme de puissance dépendante

du couplage et du lieu

Tableau 2 : Limites de sources d’énergie usuellement utilisées en energy harvesting - Source : PMSA Forum.

Figure 2 : Générateurs piézoélectriques développés par la société Microgen – A gauche : schéma de principe – A droite : conditionnement dans un boîtier de type pile 9 V - Source : Microgen.

Page 32: Aperçu du numéro 2015-1 de la REE (mars 2015)

132 ZREE N°1/2015

GROS PLAN SUR

diverses comme le mouvement humain, les séismes, le bruit acoustique ou les vibrations des machines tournantes.

Les dispositifs micro-électromécaniques développés par la société Microgen (USA) captent l'énergie de vibration ambiante par l'intermédiaire d'un petit balancier entrant en résonance et délivrant une puissance électrique par effet piézo-électrique (figure 2). Les dispositifs doivent être adaptés à la fréquence des vibrations ambiantes (de 100 à 600 Hz) et les vibrations ambiantes doivent se situer dans la fourchette 0,1 à 3,0 g. Les puissances de sortie varient de 50 à 900 µW selon les fréquences d’excitation.

En France, la société ARVENI a développé une gamme de systèmes de micro-récupération d'énergie mécanique récupérant par effet piézo-électrique l'énergie dissipée par pression sur un contacteur (interrupteurs électriques, télé-commandes, boutons de sonnette). Un récupérateur de vibration, similaire dans son principe à ceux de Microgen, est annoncé (figure 3).

Il faut rappeler que les solutions piézo-électriques peuvent être très largement miniaturisées (figure 4). Elles sont d’ail-leurs utilisées depuis longtemps pour des systèmes portables

comme des montres bracelets. Par contre les puissances récu-pérées sont souvent insuffisantes pour répondre aux besoins des systèmes.

Récupération par effet thermoélectrique

Les technologies thermoélectriques utilisent l'effet Seebeck, c'est-à-dire la possibilité de générer de l'électricité à partir d'un gradient de température. Cet effet est l'inverse de l'effet Peltier qui permet de déplacer par un courant élec-trique des calories à des fins de réfrigération. Ces deux effets utilisent la notion de couple thermoélectrique composé de deux branches dans lesquelles circulent, sous l’action du gra-dient thermique, des porteurs de charge (électrons et trous) qui se déplacent entre la source froide et la source chaude.

Les matériaux idéaux pour produire un tel effet, tel que le tellurure de bismuth ou le tellurure de plomb, doivent

Figure 4 : Dispositif piézoélectrique développé en 2011 à l’université du Michigan. La partie active du récupérateur occupe un volume

de 27 mm3 ; la puissance obtenue est de 200 µW sous 1,85 V, avec 1,5 g d’amplitude de vibrations à 155 Hz.

Source : Université du Michigan.

Figure 3 : Télécommande à effet piézoélectrique développée par Arveni. Source : Arveni.

Figure 5 : Module solide-air Evergen de la société II-VI Marlow, adapté à des différentiels de température allant de 5,5 à 60 °C – Puissance : 0,3 mW pour 6t = 10 °C - Source : Marlow.

Figure 6 : Module solide-air Micropelt et insertion dans un dispositif de surveillance d’un jeu de barres – Puissance : environ 2 mW

pour 6t = 50 °C (1,5 V) - Source : Micropelt.

Page 33: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 133

Le piégeage et la récolte de l’énergie

avoir une forte conduction électrique et une faible conduc-tion thermique. Les modules thermoélectriques sont typi-quement constitués d'une jonction semi-conductrice P-N prise entre deux plaques de céramique métallisées. Ces jonctions peuvent être connectées électriquement en sé-rie et thermiquement en parallèle pour produire une plus grande puissance. Le rendement moyen est de 100 à 200 µV/K et par jonction.

L'effet thermoélectrique est un effet faible mais on rencontre de nombreuses circonstances où un différen-tiel de température peut être utilisé. Le recours aux sys-tèmes thermoélectriques sera évidemment d'autant plus approprié que ce différentiel sera important. Ce sera no-tamment le cas lorsqu'il est possible de venir plaquer un transducteur le long d'une paroi chaude. Les figures 5 et 6 montrent des modules proposés par deux sociétés spé-cialisées dans le domaine : II-VI Marlow (USA) et Micropelt (Allemagne).

Distinct de l'effet thermoélectrique, l'effet pyroélectrique peut également être utilisé. Cet effet convertit les variations de température en courant électrique par variation de polari-sation électrique. Il exige des variations temporelles de tem-pérature et il est pénalisé par de faibles énergies produites. Il est basé sur le cycle d'Olsen (ou d’Ericsson) qui consiste à charger une capacité froide par un faible champ électrique et à le décharger en la réchauffant sous un champ électrique supérieur. L'avantage de l'effet pyroélectrique par rapport à l'effet thermoélectrique est de pouvoir être utilisé à très haute température (> 1 200 °C) .

Les systèmes à induction magnétiqueOn sait que certaines montres bracelets reçoivent leur

énergie par le mouvement du bras. Dans le dispositif cou-rant, un balancier entraîne le remontage du ressort principal à partir d’un mouvement mécanique. L’industriel « Seiko » a ainsi créé un système utilisant le déplacement d’un aimant activé par le mouvement du bras et placé dans un générateur électromagnétique. L’électricité recueillie alimente un mou-vement à quartz traditionnel.

L’induction magnétique peut également être utilisée pour tirer parti des vibrations ambiantes L’idée est née en 2007 à l’université de Southampton et a ensuite été développée par la société Perpetuum (Grande-Bretagne). Dans ce système, un aimant permanent oscille verticalement à l’intérieur d’un enroulement (figure 7) générant un courant qui est fonction de l’amplitude des vibrations. Un tel récupérateur peut pro-duire 3 mW à partir de vibrations de 40 à 50 mg. La fré-quence de résonance du récupérateur doit être adaptée aux fréquences de vibration dominantes dans le milieu ambiant.

Récupération de l'énergie du champ électromagnétique ambiant

De nombreux dispositifs électriques émettent des ondes électromagnétiques par un effet d'antenne et l'on parle sou-vent de « brouillard électromagnétique » pour désigner la superposition d’émissions à des longueurs d’onde diverses qui nous environne.

Dans le domaine hertzien, ces émissions se font à dessein, afin d’être récupérées par des récepteurs auxquels il est ainsi

Figure 7 : Système de récupération d’énergie de vibration par effet inductif – A gauche : Schéma de principe (Source : Perpetuum). A droite : Alimentation d’un capteur par un dispositif Perpetuum - Source : ISA-France.

Page 34: Aperçu du numéro 2015-1 de la REE (mars 2015)

134 ZREE N°1/2015

GROS PLAN SUR

possible de transmettre de l’information. Le développement des étiquettes radiofréquences (RFID) et de smart cards a étendu au transfert d’énergie le champ d’application des ondes hertziennes. Dans les systèmes RFID à étiquettes passives, les étiquettes ne disposent d’aucune autre source d’énergie que celle qu’elles reçoivent de la part du lecteur alors que les éti-quettes actives sont dotées d’une batterie dont la durée de vie est typiquement de cinq ans. Le couplage entre le lecteur et l’étiquette peut se faire dans le champ proche (on parle alors de couplage magnétique) ou en champ lointain (on parle alors de couplage radiatif)1. Dans les “smart cards”, que l’on utilise quotidiennement pour voyager dans les transports publics ou pour rentrer chez soi, le composant reçoit également l’énergie de fonctionnement dès qu’on l’approche du lecteur et se sert de cette énergie pour alimenter une puce électronique qui envoie un code d’identification.

On peut rattacher à ce type d’interaction la “WiTricity”, ou électricité sans fil, technique initialement développée au MIT par extension de la bobine de Tesla, qui consiste à transférer de l’énergie vers un dispositif tel qu’une lampe, un smart phone, un équipement mobile de manutention (ou de machinerie ou un équipement difficilement accessible) par couplage électromagnétique entre deux bobines entrant en résonance dans le champ proche (figure 8).

Ces techniques ne relèvent pas de l’energy harvesting au sens où nous l’avons définie puisque l’émission d’énergie par voie d’ondes électromagnétiques est provoquée pour alimen-ter de façon spécifique un récepteur donné. Mais il existe des

1 Le lecteur pourra se reporter à l’article publié dans la REE 2006-10 : « L’identification par radiofréquence (RFID) Techniques et perspec-tives » - Jean-Pierre Hauet.

configurations techniquement similaires où le récepteur profite d’une émission que ne lui est pas a priori destinée.

L’une de ces technologies est la « rectenna » (rectifying antenna), ou antenne redresseuse, qui désigne une classe spéciale d’antennes capables, grâce à des diodes haute fré-quence de convertir de l’énergie radiofréquence en courant continu. Ces antennes permettent de récolter l’énergie du champ électromagnétique radio ambiant et la technologie est similaire à celle des étiquettes radiofréquences passives. Beaucoup d’habitants des régions situées à proximité d’un puissant émetteur radio ont fait l’expérience d’allumer une lampe avec une simple boucle d’induction. Mais l’incon-vénient majeur réside dans la nécessité de disposer d’un champ électromagnétique suffisamment puissant. Cepen-dant il a été démontré que des dispositifs analogues, mais à plus faible échelle, utilisant les micro-technologies, pour-raient convertir la lumière en électricité avec un rendement supérieur aux cellules solaires à semi-conducteurs.

Une autre approche est suivie par l’université de Washington qui a développé le concept de “back scattering antenna” dans lequel un système, de la taille d’une carte de crédit, pilote l’im-pédance d’une antenne réceptrice de façon à renvoyer le si-gnal dans l’environnement de façon contrôlable (figure 9). Il a été démontré qu’il était possible de construire des réseaux de capteurs s’alimentant à partir des ondes TV ou Wi-Fi captées à partir du milieu ambiant. A ce stade, une telle possibilité a été démontrée à faible débit (1 kbit/s) et à faible distance (76 cm) mais les résultats sont considérés comme prometteurs.

Dans une technologie assez différente, on trouve des capteurs autonomes utilisant le champ électromagnétique des lignes de transport d’électricité. Un tel capteur est direc-tement clipsé autour du conducteur dont il utilise l’énergie rayonnée et dont il mesure le fonctionnement. Il n’est pas besoin d’isolation puisque le dispositif ne touche qu’un seul

Figure 9 : Back scattering antennae développées par l’université de Washington - Source : Université de Washington.

Figure 8 : Principe de l’électricité sans fil - Source : WiTricity.

Page 35: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 135

Le piégeage et la récolte de l’énergie

conducteur. Ce système est utilisé pour mesurer et trans-mettre la température ambiante et celle du conducteur, les mouvements du vent ou les variations de la tension du câble. La figure 10 montre des capteurs installés sur une ligne tri-phasée moyenne tension, ils sont reliés par radio avec le concentrateur situé à côté du transformateur de distribution basse tension situé sur le poteau.

Autres approches

Il existe bien d’autres solutions qui peuvent être envi-sagées pour atteindre l’autonomie énergétique dans diffé-rents segments applicatifs. On peut par exemple tirer parti de la chaleur du corps et Fujitsu a imaginé un système qui produit de l'électricité à la fois à partir de l'énergie solaire et de l'énergie thermique. Des prototypes de capteurs adaptés au corps humain ont été ainsi présentés en 2010 (figure 11).

Une utilisation d'énergie naturelle peut également mettre à profit les chaussures de marche pour autant qu'elles soient

dotées d'un système récupérant l'énergie humaine. Des pro-jets ont été développés par le MIT et par le Space and Naval Warfare Systems Center Pacific de San Diego. La puissance récupérée sert à l’alimentation des équipements électro-niques du fantassin. Dans l’état actuel, la complète autono-mie ne peut pas être atteinte, car le stockage de l’énergie est lié au temps de marche de l’utilisateur et l’électronique du fantassin a pris de grosses proportions.

Dans l’approche “smart roads”, l’énergie de la marche ou produite par le passage des véhicules est récupérée par des films insérés dans les enrobements de routes et incluant des capteurs piézoélectriques. L'énergie ainsi produite et utilisée pour la signalisation ou la régulation du flux des véhicules. L'avantage est que leur fonctionnement n'est pas perturbé par une panne d'électricité.

On mentionnera enfin le concept de tuiles de récupé-ration utilisées au cours du marathon de Paris. Ces tuiles, fabriquées par Schneider Energy, ont récupéré l'énergie des 40 000 coureurs passant sur les dalles pour alimenter la si-gnalisation électrique et les écrans de signalisation. Durant la course, environ 7 kW/h ont été produits (figure 12).

Mais il faudrait aussi parler des possibilités d'utiliser l'élec-tricité statique, les courants fluviaux ou marins, l'énergie de gravitation, la chimie sanguine, le métabolisme des arbres, les méta-matériaux, la pression atmosphérique…

ConclusionsL’énergie est partout présente dans le monde qui nous

entoure. Il ne faut donc pas s’étonner qu’un nombre d’idées sans limite voie le jour pour permettre à toute sorte de dis-positifs d’acquérir leur autonomie énergétique. Le dévelop-pement de l’energy harvesting est sans conteste l’un des corollaires majeurs du développement de l’Internet des ob-jets et du monde communicant.

Figure 12 : L'arrivée du Marathon de Paris le 15 avril 2013. Les coureurs passent sur des tuiles de récupération de l'énergie d'impact de la foulée.

Source : Pavegem System.

Figure 10 : Capteurs autonomes installés sur une ligne moyenne tension - Source Wikipédia.

Figure 11 : Prototype hybride, fabriqué sur substrat flexible et tirant parti à la fois du gradient thermique et de l’énergie lumineuse.

Source : Fujitsu (2010).

Page 36: Aperçu du numéro 2015-1 de la REE (mars 2015)

136 ZREE N°1/2015

GROS PLAN SUR

On estime à 700 millions d’USD environ le marché de l’energy harvesting en 2011 selon une répartition indiquée dans la figure 13. On y remarquera que la principale utilisation est l’électronique grand public, suivie par le militaire et le spatial. De nombreuses sociétés ont in-vesti dans ce créneau et les technologies qui sont développées touchent tous les domaines du grand public aux industries, de l’automobile aux rovers martiens. On anticipe un chiffre d’affaires de 4 milliards USD en 2021. Mais pour mesurer l’enjeu de ces techniques, il faut prendre aussi en considération l’impact qu’elles peuvent

avoir sur la modernisation de l’appareil industriel dans le cadre du mouvement Industrie 4.0.

La France est trop peu présente dans cet élan. L’usine communicante n’est pas seulement un défi logiciel. L’alimen-tation en énergie reste un fondamental. Les progrès continuels faits en matière d’efficacité énergétique et la préfé-rence donnée aux technologies vertes devraient conduire notre pays à porter plus d’attention à l’energy harvesting qui est à la fois une technologie habili-tante et une source possible de création d’emplois. Q

Figure 13 : Répartition du marché de l’energy harvesting en 2011. Chiffres en millions d’USD. Total : 663 Mio USD - Source : IDTechEx.

André Deschamps est ingénieur de recherche hors classe honoraire à l’Observatoire de Paris. Il est président de la commission « Radioastronomie » de l’URSI-France. Il a travaillé sur des grandes missions scientifiques spatiales (ROSETTA, Herschel, etc.) pour lesquelles il a reçu un award de la NASA et un autre de l’ESA. Il a été représentant de la radioastrono-mie française auprès de l’ANFR (Agence nationale des fréquences) et de l’ITU (International Telecommunication Union, Genève).Jean-Pierre Hauet est membre émérite de la SEE et rédacteur en chef de la REE. Il est Président de l’ISA-France. Ingénieur au Corps des mines, il a dirigé les Laboratoires de Marcoussis du groupe Alcatel-Alsthom et a été Chief Technology Officer du Groupe ALSTOM. Il est l’auteur du livre « Comprendre l’énergie – Pour une transition énergétique responsable » paru aux éditions L’Harmattan en avril 2014.

Page 37: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 137

Directeur GénéralDirection Générale de l’ÉnergieCommission européenne

ENTRETIEN AVEC DOMINIQUE RISTORI

REE : Le Conseil européen a approu-vé les 23 et 24 octobre derniers un paquet-énergie climat pour 2030. Pouvez-vous nous en rappeler les grandes lignes et nous dire où sont les inflexions par rapport au paquet précédent ?Dominique Ristori : Dans le domaine de l’énergie, l’encadrement politique et réglementaire est très important car il permet d’assurer la prédictibilité et la sta-bilité que demandent tous les opérateurs mais aussi les consommateurs. Il était donc essentiel de conclure ce Conseil eu-ropéen d’octobre par un succès, d’autant plus que nous devons préparer dans de bonnes conditions le rendez-vous de la conférence de Paris sur le climat, en dé-cembre prochain. Il était donc primordial de ne laisser aucune incertitude sur les objectifs européens en matière d’éner-gie et de climat. Ceci a été rendu pos-sible grâce à l’accord trouvé le 24 octobre auquel ont adhéré tous les chefs d’État et de gouvernement.Le Conseil s’est ainsi entendu sur :

des émissions de CO2 de 40 % d’ici 2030 par rapport aux niveaux de 1990, avec en appui une réforme du sys-

qui sera doté d’un instrument visant à stabiliser le marché, conformément à la proposition de la Commission, et qui devrait permettre de retrouver un niveau de prix du CO2 permettant à

la politique de décarbonisation ;

concerne la part des énergies renou-velables dans la consommation éner-

contraignant au niveau européen. Il sera réalisé grâce aux contributions des

États membres, guidés par la néces-sité d’atteindre collectivement l’objectif

nécessaire à leur niveau. Il fallait dans ce domaine tirer les leçons du passé et

l’objectif européen. A travers des plans nationaux, les États membres se sont engagés à réaliser des efforts impor-tants et je suis convaincu que nous irons au-delà de l’objectif européen de

un objectif ambitieux de 32 % pour 2030 et vous verrez que l’objectif que

dépassé ;

--

rizon 2030 par rapport aux scénarios de consommation future d’énergie, sur la base des critères actuels. Cet objectif ne sera pas traduit en objectifs contrai-gnants sur le plan national. Chaque État

nationaux plus élevés. L’objectif pourra être reconsidéré d’ici 2020 dans l’op-tique d’un objectif de 30 % pour 2030.

REE : Le recours tantôt à la notion d’énergie primaire, tantôt à celle d’énergie finale crée des ambiguïtés sur la façon de réaliser cet objectif. Ne faudrait-il pas clarifier cette question ? Le véhicule électrique, par exemple,

ne peut pas émerger si on le compta-bilise en énergie primaire.D. R. : La consommation d’énergie pri-maire correspond à la consommation énergétique intérieure brute tandis que

somme des consommations d’énergie de l’industrie, des transports, du sec-teur résidentiel, du secteur tertiaire et de l’agriculture.

A terme, nous ferons tout pour aller

le plus pertinent pour apprécier l’effort

REE : Dans quels secteurs pensez-vous que l’effort d’efficacité énergé-tique doive s’exercer en priorité ?D. R. : prioritaires :

-tromobilité ;

grand effort de normalisation et d’infor-mation a d’ores et déjà été accompli au niveau européen pour rendre nos produits (moteurs, électroménager, au-

sensibiliser les utilisateurs par un éti-quetage approprié.

Je voudrais souligner à quel point --

mique et donc à l’emploi. La plupart des emplois que nous pouvons ainsi créer ne sont pas délocalisables et concourent au

Les objectifs pour 2030 : 40 % de réduction

des émissions de CO2, 27 % au moins d’énergies

renouvelables et 27 % au moins d’augmentation

de l’efficacité énergétique

L’Europe et l’Énergie

trois cibles prioritaires

de la politique d’efficacité énergétique

Page 38: Aperçu du numéro 2015-1 de la REE (mars 2015)

138 ZREE N°1/2015

rétablissement de la balance commer-

-sements stratégiques de 315 Milliards d’euros annoncé en novembre dernier et communément appelé Plan Juncker,

-loppement des énergies renouvelables parmi ses grandes priorités.

Il nous faut resserrer les liens entre les investisseurs et les promoteurs de pro-jets. Des liquidités existent mais les liai-sons entre les banques et les opérateurs économiques doivent être facilitées.

REE : Peut-on commencer à parler d’Union de l’énergie ?D. R. : -gie est une priorité majeure pour le man-dat de la nouvelle Commission. Elle a été très fortement mise en avant dans les orientations politiques du président Juncker de juillet 2014 : « Nous devons mettre en commun nos ressources, combiner nos infrastructures et parler d'une seule voix lors des négociations avec des pays tiers ».

Concrètement, cela veut dire plus de sécurité, plus de de compétitivité et plus de durabilité, ces trois objectifs étant étroitement liés.

REE : Parlons sécurité et notamment sécurité des approvisionnements gaziers qui constituent une préoccu-pation majeure. D. R. : Il y a plusieurs aspects à consi-dérer. La sécurité va de pair avec la solidarité, ce qui implique, pour le gaz,

et de mise en valeur de nos ressources indigènes y compris les ressources non conventionnelles. Le sujet n’est pas facile à traiter compte tenu des posi-tions prises dans certains pays mais nous considérons qu’il faut élaborer une cartographie des gisements existants.

C’est seulement sur la base de cet in-ventaire que nous pourrons discuter de façon concrète des enjeux de maîtrise environnementale et de viabilité éco-

-péen sur l'extraction des hydrocarbures non conventionnels a été mis en place

règles techniques à respecter dans les travaux d’exploration ou d’exploitation, nous avons publié en janvier 2014 une recommandation1. D’ici quelque temps nous verrons s’il y a lieu d’aller plus loin. D’une façon générale, la Commission

-

ressources potentielles d’hydrocarbures non conventionnels.

-blème actuel est celui de la trop forte dépendance vis-à-vis de la Russie. A

-terminant dans la mise au point d’un ac-cord qui permet d’assurer pour cet hiver

1 NDLR : Recommandation de la Commission du 22 janvier 2014 relative aux principes minimaux applicables à l’exploration et à la production d’hydrocarbures (tels que le gaz

grands volumes.

Cependant, à moyen et plus long terme, il nous faut accroître la robustesse de

des routes d’approvisionnement. Le pro-

des approvisionnements. La Commission souhaite aujourd’hui promouvoir un nou-

-veau hub gazier méditerranéen dans le

voire de l’Iran. Imaginez que nous puis-sions parvenir à un accord avec l’Iran à l’issue des négociations en cours, les implications en termes gaziers seraient majeures. Il faut s’y préparer et dans le montage de ces projets, l’Europe joue

avec les pays fournisseurs ainsi qu'avec les pays de transit, en facilitant les dis-

techniques et économiques acceptables par l’ensemble des parties prenantes.

REE : Venons-en à votre deuxième axe, celui de la compétitivité et donc du renforcement du marché intérieur de l’énergie.D. R. : La mise en place d’un marché intérieur de l’énergie pleinement opéra-tionnel et connecté est une priorité très forte. Ceci suppose un effort de coordi-nation accrue entre les régulateurs et les gestionnaires de réseau pour accélérer le développement de nouvelles intercon-nexions électriques. L’objectif d’intercon-nexion minimale de 10 %, au plus tard en 2020, pour tous les États membres

d’octobre 2014, mais c’est l’objectif de 15 % qui est à présent visé pour 2030. Il faudra pour cela renforcer les intercon-nexions aux réseaux européens pour les pays n’ayant pas encore atteint un niveau minimum d’intégration dans le marché intérieur de l’énergie, à savoir l’Espagne, le Portugal et les États baltes. Les zones périphériques et/ou moins bien connec-tées du marché unique, telles que Malte,

Il faut dresser une cartographie de nos ressources en gaz

non conventionnels

Développer un corridor Sud d’approvisionnement en gaz :

l’Iran pourrait un jour y participer

L’union européenne de l’énergie est en marche

jphauet
Rectangle
Page 39: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 141

ENSEIGNEMENT & RECHERCHE

REE : Après Serge Haroche en 2013, les prix Nobel de physique et de chimie 2014 viennent de consacrer des progrès specta-culaires relevant également de l’optique ; comment définiriez-vous le champ actuel de l’optique qui semble de plus en plus large ? Le terme de « photonique » n’est-il pas plus approprié ?André Ducasse : Comme en témoignent les derniers prix Nobel, l’optique est, de mon point de vue, la technologie qui déterminera le développement de la plupart des grandes innovations sociétales du 21e siècle. Après le Nobel de Serge Haroche qui montre comment l’optique permet de pénétrer dans la complexité du monde quan-tique dans lequel nous baignons, le prix 2014 concernant les LED, indique qu’elle fait aussi évoluer notre vie de tous les jours. Elle sera associée, bien sûr, dans de multiples innovations, à d’autres techno-logies complémentaires, l’informatique/numérique, l’électronique, les nanotechnologies, la micromécanique, en particulier. Mais les performances d’un grand nombre de systèmes sont déjà et seront de plus en plus liées à celles de leur cœur optique.

Cette prééminence dans l’innovation s’explique par la nature et l’évolution historique même de l’optique. Celle-ci, dans son accep-tion générale, est la science de la lumière, composée de photons, comme l’électronique est la science liée à l’électron. Aussi devrait-on parler de « photonique » plutôt que d’optique lorsque l’on s’intéresse aux caractéristiques générales de la lumière, c’est-à-dire, sa généra-tion, sa propagation, son interaction avec différents milieux. Mais, contrairement à l’électronique ou l’informatique, l’optique est une science vieille de plusieurs siècles, révolutionnée depuis les années 1960 seulement, et ne s’étant imposée dans le domaine industriel que depuis 1990, environ. Il est difficile d’imposer dans le grand public un nouveau vocabulaire, même si les spécialistes adoptent généralement le terme de photonique.

Lasers et fibres optiques ont marqué la fin du 20e siècle

Les caractéristiques du photon sont à l’origine des propriétés exceptionnelles de la photonique et de la multiplicité d’applications dans lesquelles elle joue un rôle essentiel. Le photon, de masse nulle contrairement à l’électron, a une grande facilité à former des armées cohérentes de particules identiques, les faisceaux lasers, ainsi qu’à se propager à l’air libre ou à être guidée dans des condi-tions optimales dans des fibres optiques. Ce sont ces deux inven-tions, lasers et fibres optiques, dans le milieu du 20e siècle, qui ont ouvert des ruptures technologiques et permis l’énorme développe-ment de leurs applications industrielles à la fin de ce siècle

Les ondes lasers ont d’extraordinaires possibilités de concentra-tion, dans des volumes extrêmement petits, dans des impulsions ultra-courtes et/ou ultra-intenses, dans des angles solides très faibles,

et de très grandes facilités de transmission. Ces propriétés expliquent que la photonique envahisse maintenant tous les grands secteurs de l’économie mondiale, les énergies durables, les transports (par-ticulièrement l’aéronautique et l’espace), la santé (particulièrement les différentes formes d’imagerie), la transmission et le stockage de l’information, l’usine du futur… Elles permettent souvent d’apporter des amorces de solutions à de grands problèmes sociétaux.

L’année mondiale de la lumière en 2015, qui est particuliè-rement célébrée en France, est l’occasion de mettre en exergue cette remarquable diffusion. Des évènements sont organisés dans toutes les régions, coordonnés par un comité national regroupant l’ensemble des grands chercheurs et industriels nationaux, sous le patronage de nos prix Nobel du domaine. Le lancement de ces manifestations a fait l’objet d’une remarquable cérémonie dans le grand amphi de la Sorbonne à Paris, le 8 janvier 2015.

REE : Les pôles de compétitivité sont également des pôles d’ex-cellence : quels sont ceux où l’optique joue un rôle essentiel ? A. D. : Dans le domaine de la photonique, la France occupe une position de choix au niveau international. Elle dispose sûrement de la meilleure recherche européenne, avec déjà trois prix Nobel dans le domaine (Kastler, Cohen-Tannoudji, Haroche) et d’autres possibles encore (l’importance des travaux initiaux d’A. Aspect sur l’informa-tion quantique et de ses recherches en cours sur les lasers à atomes, est reconnue par un nombre remarquable de très grands prix inter-nationaux dont il est le lauréat). Elle s’appuie également sur plusieurs très grands laboratoires, reconnus à l’échelle mondiale. Malheureu-sement, son tissu industriel, même s’il se développe actuellement, ne se place pas au même niveau. L’industrie allemande, en parti-culier, a pris une avance incontestable pour le développement des applications industrielles dans plusieurs domaines.

L’optique en France, un secteur dynamiqueEntretien avec André Ducasse

Vice-président, Pôle de compétitivité ALPhA-Route des Lasers

Figure 1 : Une découpe laser.

Page 40: Aperçu du numéro 2015-1 de la REE (mars 2015)

142 ZREE N°1/2015

ENSEIGNEMENT & RECHERCHE

Malgré ce handicap, trois pôles de compétitivité sont dévolus es-sentiellement à la photonique et considérés par le ministère de l’In-dustrie comme des pôles photoniques : Optitec dans la région PACA, Elopsys en Limousin et la Route des lasers® en Aquitaine que j’ai eu le privilège de contribuer à créer, en 2005, autour du laser MégaJoule (LMJ). Il faut noter que plusieurs autres pôles régionaux se sont bien développés, bien que n’ayant pas le label pôle de compétitivité : tout d’abord Opticsvalley en Île-de-France, qui dispose du plus grand poten-tiel national d’entreprises et de laboratoires et que j’ai aussi contribué à créer lorsque j’étais directeur de l’Institut d’optique à Orsay-Palaiseau en 2000, le pôle optique Rhône-Alpes, qui vient de fusionner avec le pôle de compétitivité Minalogic, et Photonics-Bretagne.

La photonique est l’une des technologies-clés du 21e siècle

Tous ces pôles, associés à un syndicat professionnel, l’Associa-tion française d’optique photonique (AFOP), à une société savante, la Société française d’optique, et à un club, le Club des lasers et procé-dés, se sont regroupés dans un Comité national optique photonique (CNOP) dès 2001. Depuis la reconnaissance de la photonique au niveau européen en 2006, puis au niveau national en 2011, comme l’une des six technologies-clés du 21e siècle, le CNOP a orchestré une forte dynamique de l’ensemble de la communauté. Il bénéficie du soutien du ministère de l’Industrie, dans le cadre d’un programme des investissements d’avenir, le Défi photonique et a coordonné une enquête nationale du domaine, commandée par ce même ministère.

Cependant, cette technologie, diffusante sur de multiples sec-teurs, n’est pas rattachée à un unique marché et pâtit de ne pas disposer de grands pôles de compétivité de dimension mondiale, comme c’est le cas pour la micro-nano technologie ou l’aéronautique, par exemple. Aussi, la Route des lasers®, associée à Opticsvalley, a-t-elle pour ambition de constituer un tel pôle, avec le soutien de ses partenaires du CNOP, en s’appuyant sur le très fort potentiel des grandes sources lasers, en Aquitaine et Île-de-France, et sur la très forte dynamique industrielle récente. La Route des lasers a créé au cours de ces dix dernières années 25 start-ups, 30 antennes d’entre-prises, 1 500 emplois directs et hautement qualifiés en photonique, sur le territoire de l’Aquitaine. Et, cette dynamique est en cours d’accélération, en particulier, grâce à un partenariat avec le pôle de compétitivité mondial Aerospace Valley, démarré l’été dernier.

REE : Depuis quelques années, la grande école d’optique, que vous avez d’ailleurs dirigée, a beaucoup évolué : elle a changé de nom, migré sur le plateau de Saclay et rénové son enseigne-ment et essaimé en province. Pouvez-vous faire le point sur cette évolution ?A. D. : Je suis très fier de l’évolution du très ancien Institut d’optique, créé en 1921, maintenant appelé Institut d’Optique Graduate School (IOGS). J’ai pu apporter ma contribution à cette évolution, il y a une dizaine d’années, en tant que directeur général de l’Institut et direc-teur de la grande école (que l’on appelle encore souvent familiè-rement SupOptique), de 1999 à 2003. J’ai obtenu en particulier, à cette époque, le financement de la construction de nouveaux locaux,

dans le cadre d’un plan Etat-Région, et j’ai lancé cette construction sur les terrains de l’Ecole Polytechnique du Plateau de Saclay, avec l’aide de celui qui allait me succéder en 2003, Arnold Migus. Celui-ci, appelé au poste de directeur général du CNRS en 2006, a été remplacé par Jean-Louis Martin, actuel directeur général de l’IOGS, qui a achevé la construction du très beau bâtiment, en obtenant un complément de financement.

L’IOGS est désormais implanté sur trois sites (Palaiseau, Saint-Etienne et Bordeaux-Talence)

L’IOGS est maintenant installé sur deux sites, complémentaires de celui de Palaiseau : en Rhône-Alpes, à Saint-Etienne, où j’avais été amené à créer une antenne en 2001, dévolue à la vision industrielle et à l’éclairage ; en Aquitaine, à Talence, où J.-L. Martin a décidé de créer une antenne sur photonique et numérique, ainsi que sur photonique et biologie. Cette antenne Aquitaine s’est installée dans un nouveau bâtiment, construit par le Conseil régional d’Aquitaine, l’Institut d’op-tique d’Aquitaine (IOA), de 15 000 m2 (46 M EUR), véritable « vaisseau amiral » de la filière photonique aquitaine, inauguré en octobre 2013.

Pour cette antenne, l’IOGS a créé en 2012, avec l’Université de Bordeaux, un nouveau laboratoire de recherche, associé au CNRS, de très haut niveau, le Laboratoire de physique numérique et nanos-ciences (LP2N) et a prévu qu’une cinquantaine d’élèves de SupOp-tique viennent à terme faire leurs deux dernières années à Bordeaux. En fait, sur des promotions d’élèves de SupOptique de 160 élèves, tous effectuent leur première année à Palaiseau. 90 restent à Palai-seau, 20 vont à Saint-Etienne, 50 à Bordeaux, à terme, en 2e et 3e années. Les élèves en Aquitaine sont installés dans l’IOA , en même temps qu’une structure de transfert de technologie de 50 ingénieurs et techniciens en pleine croissance, ALPhANOV, qu’un nombre impor-tant de start-ups juste créées, ainsi qu’une structure de formation continue, PYLA et le siège du pôle de compétitivité ALPhA-Route des lasers. L’IOGS est ainsi amené à coordonner une remarquable dyna-mique d’innovation dans ce bâtiment, entre formations d’ingénieurs recherche, transfert de technologie, création d’entreprises.

La formation initiale des ingénieurs SupOpticiens, centrée, avant les années 2000, sur les composants optiques, l’optique physique et quantique, s’est beaucoup diversifiée à Palaiseau et grâce aux deux antennes. Elle s’est orientée vers les systèmes impliquant l’optique, ce qui a imposé un nouvel enseignement des technologies complé-mentaires, micromécanique, électronique, informatique, biotechno-logies, en insistant tout particulièrement sur les aspects numériques des disciplines. Le management industriel et surtout la création d’en-treprises ont fait l’objet d’une attention particulière.

Une formation innovation entrepreneurs (FIE) a été créée depuis plusieurs années, répartie sur les trois sites, pour environ 20 % des promotions. Les élèves en FIE ont du temps libéré, dès leurs deux dernières années, pour un projet de création d’entre-prises ou de produits innovants, suivis par des coaches industriels et/ou académiques. A leur sortie, ils sont en mesure de lancer leur programme d’innovation. Cette FIE donne déjà de remarquables résultats, avec plusieurs créations d’entreprises, de nombreux suc-cès sur des concours nationaux ou internationaux d’innovation.

jphauet
Rectangle
Page 41: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 149

D eux auteurs prestigieux inspirent cette chronique : Newton et Huygens ; excusez du peu ! Mais 2015 a été déclarée Année de la lumière et il

faut féliciter les éditions Dunod d’avoir marqué cette décision onusienne par une politique édito-riale ambitieuse et réédité deux ouvrages essen- tiels de l’histoire de l’optique ; ils datent tous deux de ce 17° siècle qui marqua l’émergence de cette partie essentielle de la physique, juste après celle de la mécanique, stimulée au tournant des an-nées 1600 par l’œuvre de Galilée et que Newton amplifia et unifia.

Pour compléter l’évocation des grands ou- vrages fondateurs de l’optique, il conviendrait d’ajouter la Dioptrique de Descartes (1596-1650), publiée en 1637 à Leyde et qui constitue avec les Météores et la Géométrie, un des compléments au Discours de la méthode, aisément disponible de ce fait (Le Traité de la lumière, écrit en 1634, juste un an après la seconde condamnation de Galilée, fut prudemment gardé par Descartes et ne paraîtra qu’après sa mort, en 1677).

Pour bien marquer les repères chronologiques, précisons que Newton (1642-1727) naît l’année même où Galilée meurt, à 78 ans. Newton est donc plus jeune que Huygens (1629-1695), mais ils baignent l’un et l’autre dans la même ambiance scientifique et culturelle et ils se sont même rencon-trés à l’occasion des pérégrinations européennes de Huygens, qui passa d’ailleurs de nombreuses années à Paris ; il y élabora une part essentielle de son œu-vre et y fréquenta en particulier Pascal et Roberval. Rappelons, en ce qui concerne l’optique, quelques données essentielles de l’époque : les progrès instru-mentaux dus à Galilée, les observations de Kepler puis la première mesure de la vitesse de la lumière à Paris en 1676 par Römer (1644-1710) ; la loi fon-damentale de la réfraction est désormais établie et connue, après Snell et Descartes, et l’on sait que l’arc en ciel trouve son origine dans les gouttelettes de pluie ; on utilise le prisme avec habileté mais le spath d’Islande demeure mystérieux avec sa dou-ble réfraction ; la diffraction de son côté commence de poser des questions redoutables d’interprétation et de compréhension.

Newton et Huygens furent tous deux de grands expérimentateurs et leurs ouvrages respectifs en portent la marque évidente, avec un souci péda-gogique constant et des schémas précis. Les tex-tes originaux ont été scrupuleusement respectés, même si l’éditeur a adopté les règles de la typo-

graphie et de l’orthographe contemporaines. Cela simplifie certes la lecture, mais celle-ci demande encore de sérieux efforts tant le formalisme et la mathématisation des phénomènes a évolué depuis trois siècles. Chaque ouvrage est précédé d’une indispensable et talentueuse présenta-tion de Michel Blay, historien et philosophe des sciences, qui préside le comité d’histoire du CNRS. Ses notes variées et souvent érudites aident gran-dement le lecteur.

La traduction de l’Optique de Newton, due à Jean-Paul Marat, date de 1787 avec une dédi-cace de l'éditeur au plus grand des Rois, qui est un modèle de flagornerie : on ne savait guère qu’avant sa carrière révolutionnaire, brutalement interrompue, il avait été un amateur éclairé de l’optique newtonienne. Newton aura donc eu, au siècle des Lumières, de prestigieux traduc-teurs : les Principia, réédités en 2011 aux édi-tions Dunod, avaient bénéficié d’une préface de Voltaire, avec une traduction de la Marquise du Châtelet.

Comme le montre bien Michel Blay, le modèle corpusculaire est sous-jacent à l’ensemble de l’ex-posé newtonien. Tout ce qui touche à la couleur, et qui constitue une grande part de l’ouvrage, est

clairement expliqué et justifié par des expériences finement décrites : on retrouve dans la première partie de l’Optique tout ce qui touche à la décom-position de la lumière blanche ; c’est dans cette par-tie que sont notamment décrites de multiples ex-périences faites avec les prismes et qu'est théorisée l’origine des couleurs de l’arc en ciel. Newton procède en explicitant des problèmes, en formulant des propositions et en démontrant des théorèmes. Dans une seconde partie, on découvre en parti- culier les phénomènes d’interférence en lumière blanche, entre un plan et un dioptre sphérique, connus depuis comme les anneaux de Newton, ou encore les phénomènes colorés qui accompagnent les inflexions des rayons de lumière, c’est-à-dire la diffraction, au voisinage des ombres géométriques ou après le passage par de petits orifices.

Huygens, dont l’ouvrage a été directement écrit en français, interprète les phénomènes lumineux par analogie avec ceux dus aux sons : il se place dans le cadre d’une conception ondulatoire ; il est même émouvant de voir dans ses schémas les ondelettes qu’on associe désormais au principe d’Huygens-Fresnel et dont la vertu explicative est d’une grande richesse. Et comment ne pas admirer sa façon de finir cette théorie de la réfraction en démontrant une proposition remarquable : comme le pensait Fermat, et non pas Descartes qui croyait à une propagation instantanée, la lumière em-ploie le moindre temps possible… d’où se déduit la proportion constante des sinus. On touche ici, comme chez Newton, de la notion d’indice… Le Traité de la lumière consacre une partie impor-tante à l’étrange réfraction du Cristal d’Islande, mais évoque fort peu les phénomènes liés à la couleur. Signalons que l’ouvrage de Huygens com-porte aussi un Discours de la cause de la pesan-teur, où sont critiquées certaines affirmations de Descartes et expliquées les variations de la pe-santeur autour de la terre. C’est historiquement là que se trouvent formulées pour la première fois les propriétés du mouvement circulaire uniforme, avec une force centrifuge proportionnelle au carré de la vitesse et à l’inverse du rayon.

La nature, corpusculaire ou ondulatoire, de la lumière et celle de l’éther continueront pendant des siècles à susciter passions et controverses, mais dès le 17e siècle on tenait, avec Newton et Huygens, les chefs de file des deux écoles : il faudra attendre le siècle passé pour faire la synthèse des deux concep-tions et comprendre ce qu’est un photon… Q

B. Ay.

CHRONIQUE

Lumières sur l’optique…

Isaac Newton Optique

384 p. - 16 F

Christiaan Huygens Traité de la lumière

208 p. - 15 FLes deux ouvrages ont été publiés

par les éditions Dunod en janvier 2015 Ils comportent l’un et l’autre une présentation

de Michel Blay

Page 42: Aperçu du numéro 2015-1 de la REE (mars 2015)

152 ZREE N°1/2015

LIBRES PROPOS

Jean-Pierre Bessis Professeur de philosophie à l’Ecole polytechnique

D ans le monde extrême-oriental, la pensée stratégique renvoie souvent à un ouvrage considéré comme référent et fondateur : l’Art de la guerre de Sun Tzu. Ecrit il y a plus

de deux mille ans, il reste l’égal de grands traités occi-dentaux comme, par exemple, celui de Clausewitz. L’Asie contemporaine, soucieuse de modernité, accorde bien sûr une place importante à la pensée stratégique occi-dentale mais ne délaisse pas, pour autant, ses classiques.

Ces dernières décennies, l’engouement du grand public français pour les « concepts stratégiques » extrême-orientaux a dépassé le stade de la simple curiosité et l’œuvre de Sun Tzu sert aujourd’hui de « réservoir de citations » aux exergues des exposés académiques et professionnels de tous domaines… Il faut dire que le formidable essor industriel du Japon des années 80 a amené l’Occident à dépasser ses vieux stéréotypes sur les pays extrême-orientaux et à s’interroger sur les spécificités du succès japonais, suc-cès qui a su allier qualité et innovation. Très vite, les Occidentaux se sont rendus compte qu’au Japon, l’orga-nisation des processus et la stratégie d’action avaient emprunté des voies originales, améliorant les méthodes de gouvernance et de management, les relations entre patrons et salariés et, les stratégies de pénétration des marchés concurrentiels (notamment à l’export)… Si les industriels occidentaux s’en sont tenus à la récupéra-tion des « bonnes idées » et à leur extrapolation en tant que de besoin, de nombreux penseurs, philosophes et consultants en stratégie ont invoqué une matrice de pensée stratégique extrême-orientale.

Soyons clairs : tout ne se ramène pas à la pensée stratégique des siècles anciens, ni même aux spécifici-tés de la sphère culturelle chinoise1, qui a largement ins-piré le Japon à l’époque classique2 ; de très nombreuses

1 La Chine n’est pas le seul pays asiatique à avoir eu, à date ancienne, des idées innovantes dans le domaine stratégique. L’Inde est aussi connue pour son Artashastra, traité stratégique remarquable qui date de plus de deux mille ans.

2 Plusieurs champs culturels japonais (arts, philosophie, techniques)

idées japonaises sont totalement nouvelles. Mais l’habi-tude a été prise en Occident de faire un parallèle entre notre pensée stratégique et celle de Sun Tzu, et de décli-ner cette comparaison dans des domaines d’affronte-ment non militaire, comme la guerre économique ou le monde des affaires.

1 – Précis, bien équilibré et cohérent, « l’Art de la guerre » de Sun Tzu constitue un excellent compendium de l’art militaire de l’époque. Il fournit un cadre stratégique, complet et normatif à ceux qui en ont besoin, d’où son intérêt. Mais que peut apporter à l’Occident moderne un traité aussi ancien ? S’il détenait de remarquables mé-thodes de raisonnements tactiques, pourquoi n’a-t-il pas été utilisé plus tôt ? Pourquoi ne revisite-t-on pas nos échecs militaires passés et ceux du XXe siècle à l’aune de ce petit ouvrage ?

Il convient en fait de ne pas trop s’attarder sur les pages de l’ouvrage qui traitent exclu-sivement de questions opération-nelles. Le chapitre 9, intitulé « La stratégie offensive », nous fournit les critères techniques de choix du terrain où livrer bataille (montagne, vallée, marécage, plaine). Qu’il vaille mieux engager le combat quand on

tient les hauteurs et qu’une armée en train de traverser une rivière soit vulnérable, cela reste du bon sens et tout chef militaire d’aujourd’hui et d’hier le sait et l’a même forcément expérimenté en exercices. Qu’il faille se méfier d’un adversaire présentant une position anormalement vulnérable (risque de piège), ou qu’il soit utile d’identifier les manœuvres dilatoires de l’ennemi, voilà encore des recommandations sensées, mais qui n’ont rien d’original.

L’intérêt du travail de Sun Tzu se situe, pour nous, ail-leurs… pas dans son contenu technique mais plutôt dans son type d’approche globalisante. A trop chercher une méthode concrète et opératoire, on peut parfois oublier l’essentiel : pourquoi fait-on la guerre ?…

Dans le chapitre 3, intitulé « Marches » (ch. 3), Sun Tzu invite à vaincre sans coup férir, à éviter la longue succession des batailles, le siège prolongé des places fortes et à s’emparer des armées de l’adversaire sans les détruire. Quelle magie permettrait de réaliser systé-matiquement de telles prouesses ? On pense bien sûr à

ont de lointaines origines chinoises.

La pensée stratégique de la Chine classique :

Un enseignement pour l’Occident ?

Page 43: Aperçu du numéro 2015-1 de la REE (mars 2015)

REE N°1/2015 Z 153

LIBRES PROPOS

ce que promettent certains arts martiaux (judo, aïkido) : faire chuter l’adversaire en un éclair sans le frapper. Mais Sun Tzu ne fournit pas de recette tactique et reste au niveau stratégique. Son objectif est de rappeler au chef militaire d’envisager systématiquement l’option d’une guerre rapide et d’essayer même d’y fonder sa stratégie. Si cela ne s’avère pas possible, il vaut peut-être mieux différer l’affrontement !

Sun Tzu suggère donc de garder la possibilité de ne pas livrer bataille et de rentrer tranquillement chez soi ! En d’autres termes, la balance du choix se fait entre une guerre d’acquisition sans conflit et une guerre de des-truction meurtrière. Or, la première de ces deux alterna-tives nous ramène directement au niveau premier de la décision, celui du leader politique…

Ce même chapitre 3 insiste sur la nécessité d'aider l'action militaire, en recourant aux moyens diploma-tiques, politiques et économiques, et donc d’articuler intimement la chose militaire et le cadre politique qui l’a suscitée. Mais, pour autant, elle ne doit pas s’y résor-ber. Car, selon Sun Tzu, les trois péchés du gouverne-ment sont : ordonner l’attaque ou la retraite, gérer les affaires militaires et prendre la place du général, soit, en somme, se substituer au commandement militaire.

Ce qui précède est très important et se retrouve en maints endroits du texte de Sun Tzu : « La victoire ne peut être envisagée que si l’accord entre l’échelon poli-tique et l’échelon militaire est parfait », tant sur le plan de l’action et de la décision, que sur la raison du conflit.

2 – La longue histoire militaire de l’Occident, lourde de conflits et guerres, a obligé, nos stratèges à théoriser et actualiser leurs méthodes de combat. Le monde des armes et de la technologie, les hommes et leur motiva-tion ainsi que les terrains d’affrontement ont suffisam-ment évolué pour que les ouvrages de stratégie du passé soient devenus, en partie, obsolètes.

Mais un semi-vide persiste dans la pensée occi-dentale : nous avons tendance à minorer l'importance de l’unité du politique et du militaire, vue sur un plan conceptuel. De fait, soit l’un a la primauté sur l’autre, soit l’un délègue à l’autre comme s’il « sous-traitait à un spécialiste » à partir de spécifications a priori…

L’exhortation de Sun Tzu à conquérir sans combattre n’est pas une coquetterie intellectuelle destinée à dé-montrer qu’avec du génie on opère plus rapidement, sans même subir les affres du combat guerrier. Elle cherche

avant tout à apprécier ce que sera la situation postérieu-rement au conflit. Que ferons-nous des populations ? Qu’aura coûté cette guerre et pourrait-on le cas échéant la renouveler ? Que nécessiteront la reconstruction des territoires ravagés et la reconstitution des populations décimées ? Finalement la guerre était-elle justifiée ?

Il ne s’agit pas ici de morale mais de réalisme à moyen-terme…

3 – En Occident, le commandement militaire n’est pas censé devoir réfléchir aux questions qui dépassent son mandat. Celles-ci relèvent du politique !

Et le politique n’ayant pas compétence à effectuer les choix militaires, il a tendance à décider d’un objec-tif a priori dont il confiera aux militaires la déclinaison opératoire.

Bien sûr, il est possible de dialoguer… Ce dialogue, que l’on qualifie de « politico-militaire », a fait déjà l'objet de nombreuses études et fait couler beaucoup d’encre.Il est vu depuis longtemps comme l’interface entre deux environnements différents et non comme une « unité structurelle ».

Clausewitz, qui a servi de modèle stratégique à l’Occident du XXe siècle, prônait les grands affronte-ments destructeurs… mais pour quels objectifs poli-tiques ? Une conquête... pourquoi faire ? Les exemples de guerres gagnées mais qui n’auront finalement servi à rien sont nombreux. Des questions doivent être po-sées :

de sa durée, ni disposer préalablement des moyens d'y mettre un terme ?3

-tiques de négocier la paix (même une mauvaise paix) ?

ou recueillir son adhésion à la poursuite du conflit ?-

taine, si celle-ci ne rerésente plus aucun enjeu ? Parfois, le choix d’engagement des hostilités peut

être porté par un dialogue politico-militaire réussi. Mais les évolutions inattendues du conflit peuvent désolidari-ser cette union, remettre en cause les premiers objectifs et en dessiner d’autres…4 – Il y une certaine analogie entre l’affrontement guer-rier des Etats et la lutte acharnée que se livrent les

3 Le problème irakien en est un exemple…

jphauet
Rectangle
Page 44: Aperçu du numéro 2015-1 de la REE (mars 2015)

160 ZREE N°1/2015

Impression : Jouve - 53100 Mayenne Dépôt légal : mars 2015

Edition/Administration : SEE - 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 5690 3709 - Fax : 01 5690 3719 Site Web : www.see.asso.fr

Directeur de la publication : François Gerin

Comité de rédaction : Bernard Ayrault, Alain Brenac, Patrice Collet, André Deschamps, Jean-Pierre Hauet, Jacques Horvilleur, Marc Leconte

Rédaction : Catherine Vannier - Tél. 01 5690 3704

Promotion : Mellyha Bahous - Tél. 01 5690 3711

Régie publicitaire : FFE - Tél. 01 5336 3787

Abonnements : Tél. : 01 5690 3704 - www.see.asso.fr/ree Prix de l’abonnement 2015 : France & UE : 140 F - Etranger (hors UE) : 150 F Tarif spécial adhérent SEE : France & UE : 60 F - Etranger : 70 F Vente au numéro 2014 : France & UE : 32 F - Etranger : 34 F

Conception & réalisation graphique JC. Malaterre - Tél. : 01 7946 1470

Impression : Jouve - 53100 Mayenne. Siège social : 11 Bd de Sébastopol - 75027 Paris cedex 1 Tél. : 01 4476 5440

CPPAP : 1015 G 82069

Copyright : Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des présentes pages publiées faite sans l’autori-sation de l’éditeur, est illicite et constitue une contrefaçon. Toutefois les copies peuvent être utilisées après autorisation obtenue auprès du CFC - 20 rue des Grands Augustins, 75006 Paris (Tél. : 01 4404 4770) auquel la SEE a donné mandat pour la représenter auprès des utilisateurs (loi du 11 mars 1957, art. 40 & 41 et Code Pénal art. 425)

La revue REE est lue par plus de 10 000 ingénieurs et cadres de l’industrie, dirigeants d’entreprises, directeurs des ressources humaines, formateurs… profitez de ce lectorat ciblé et de qualité pour publier vos annonces (em-plois, stages, manifestations…)

Répertoire des annonceurs Abonnement REE 2015 ...................................................................... C2 REE Archives .................................................................................... p. 3 ETTC'2015 ......................................................................................... p. 5 Abonnement 3EI .............................................................................. p. 6 dSPACE ........................................................................................... p. 22 RTE ............................................................................................ p. 36-37 Jicable 2015 .................................................................................... p. 62 DRAKA COMTEQ, PRYSMIAN GROUP ........................................ p. 81 Monographies ....................................................................... p. 126-159 GENERAL CABLE .................................................................. p. 150-151 MICROWAVE 2015 ............................................................................. C3 OMICRON ........................................................................................... C4

Prochains Grands Dossiers Dossier 1 : L’hydrogène Dossier 2 : La médecine assistée par les TIC

Prochain « Libres Propos » Pour un développement numérique durable, par Nicolas Curien

Une publication de la

Entre science et vie sociétale,les éléments du futur

6 CLUBS TECHNIQUES Q Automatique, Informatique et Systèmes Q Ingénierie des Systèmes d’Information et de Communication Q Électronique Q Radar, Sonar et Systèmes Radioélectriques Q Électrotechnique Q Systèmes électriques

12 GROUPES RÉGIONAUX

Conférences nationales et internationales Journées d’études thématiques Conférences-Débat Congrès internationaux, en partenariat ou non, avec d’autres sociétés scientifiques

La SEE contribue à l’organisation KLJVUMtYLUJLZZJPLU[PÄX\LZLU-YHUJL LUZ»HWW\`HU[Z\YZLZ*S\IZ[LJOUPX\LZ et ses Groupes régionaux

Grades Senior et Émerite SEE Prix : Brillouin-Glavieux, Général Ferrié, André Blanc-Lapierre... Médailles : Ampère, Blondel...

La SEE récompense les contributeurs éminents au progrès des sciences et technologies dans ses domaines

Revue de l’Électricité et de l’Électronique (REE) Revue 3EI Monographies Publications électroniques : SEE Actualités

La SEE favorise le partage du savoir, et contribue aux débats sur des problèmes de société en éditant des revues ZJPLU[PÄX\LZL[V\]YHNLZ[OtTH[PX\LZ

La SEE fédère un vaste réseau d’experts universitaires et industriels en faveur des H]HUJtLZZJPLU[PÄX\LZL[[LJOUVSVNPX\LZ

La SEE, société savante française fondée en 1883, forte de 3 000 membres, couvre les secteurs de l’Électricité, de l’Électronique et des Technologies de l’Information et de la Communication. Elle a pour vocation

de favoriser et de promouvoir le progrès dans les do-maines : Énergie, Télécom, Signal, Composants, Auto-matique, Informatique.

SOCIÉTÉ DE L’ÉLECTRICITÉ, DE L’ÉLECTRONIQUE ET DES TECHNOLOGIES DE L’INFORMATION ET DE LA COMMUNICATION

17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 56 90 37 09/11 - Fax : 01 56 90 37 19

www.see.asso.fr

jphauet
Rectangle
jphauet
Texte tapé à la machine
Vous voulez... Vous abonner à la REE ? Acheter un numéro ? Cliquer ICI Ou bien téléphoner au 01 56 90 37 04