aperçu du numéro 2013-5 de la ree (décembre 2013)

28
Numéro 2013 EDITORIAL De l’utilité du savoir Jean-Pierre Hauet ENTRETIEN AVEC Gilles Bellec Ingénieur général des mines Référent énergie au Conseil général de l’économie www.see.asso.fr 5 ISSN 1265-6534 DOSSIERS Le nucléaire dans le monde : entre renaissance et déclin Par Alain Vallée L'ARTICLE INVITÉ

Upload: jean-pierre-hauet

Post on 14-Mar-2016

217 views

Category:

Documents


3 download

DESCRIPTION

Cet aperçu permet de découvrir le sommaire et les principaux articles du numéro REE 2013-5 publié en décembre 2013 - Pour s'abonner, merci de vous rendre à la dernière page.

TRANSCRIPT

ÉNERGIE TELECOMMUNICATIONS SIGNAL COMPOSANTS AUTOMATIQUE INFORMATIQUE

Num

éro

2

013 EDITORIAL

De l’utilité du savoir Jean-Pierre Hauet

ENTRETIEN AVEC Gilles Bellec

Ingénieur général des mines Référent énergie

au Conseil général de l’économie

www.see.asso.fr

5

ISSN

126

5-65

34

DOSSIERS

Le nucléaire dans le monde : entre renaissance et déclin Par Alain Vallée

L'ARTICLE INVITÉ

jphauet
Zone de texte
Cette aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro 2013-4 de la revue, publié en octobre 2013. Pour acheter le numéro ou s'abonner, se rendre à la dernière page.

REE N°5/2013 Z 1

L a publication des résultats de l’enquête PISA 2012 de l’OCDE sur les systèmes éducatifs dans le monde a suscité dans notre pays une véritable onde de choc. La France perd

cinq places en compétences mathématiques, alors que l’Allemagne en gagne 10, et se retrouve à la 23e place du classement des pays de l’OCDE, avec en plus des inégali-tés internes fortement croissantes. Comment comprendre que nous réalisions un score aussi médiocre, dans une étude réputée fiable, spécifiquement axée sur l’évaluation des compétences, alors que notre système éducatif s’est précisément tourné depuis plusieurs décennies davan-tage sur l’acquisition des compétences que sur celle des connaissances ?Comment comprendre que les pays d’Asie dont le sys-tème éducatif reste très largement fondé sur la nécessité d’apprendre occupent les sept premières positions ?PISA, ce sont les élèves de 15 ans… Mais si ses conclusions étaient également valables pour les étudiants et pour les diplômés ? Et si à force de contester l’utilité d’apprendre, à force de questionner de façon incessante la légitimité de ceux qui ont fait l’effort de comprendre, nous parvenions à une civilisation où les jeunes et bientôt leurs ainés sauront peut-être encore manipuler leurs smart phones et leurs jeux vidéo mais n’auront plus la moindre idée sur la façon dont ils fonctionnement et dont ils ont été fabriqués ?On veut bien admettre que la compétence, c’est-à-dire l’aptitude à agir, à réaliser, à exercer… soit le but à atteindre. Mais la compétence ne naît pas sans travail et sans efforts, elle regroupe un ensemble de ressources : les connaissances, l’expérience, le comportement… en bref, le savoir, le savoir-faire et le savoir-être. Le savoir est à la base du progrès technique. C’est sur lui que se sont tou-jours développées les grandes innovations technologiques

porteuses de progrès social et humain. Les vertus de lea-der sont essentielles mais tout le monde ne peut pas être chef et n’en a pas les qualités. La connaissance technique est un prérequis indispensable au redéploiement productif que chacun appelle de ses vœux. Mais le savoir ne s’improvise pas. On entend trop souvent dire : il n’y a plus besoin d’apprendre, il suffit d’aller sur Google. Mais il y a eu de tout temps des encyclopédies et qui étaient plus fiables que l’Internet à défaut d’être aussi riches. Une recherche est d’autant plus efficace qu’elle est faite par quelqu’un qui est à même de l’organiser, d’en comprendre et d‘en critiquer les résultats. La culture scien-tifique et technique est une affaire de stratification et se construit de façon rationnelle et progressive.La REE apporte une pierre à cet édifice. Son ambition est de faire partager par ses lecteurs un certain savoir, issu pour une large part de sa maison-mère, la SEE, dont elle constitue la publication principale. On hésite aujourd’hui à qualifier la SEE de société « savante » car la formulation semble vieillie. Pourtant c’est bien de cela qu’il s’agit : une société qui détient un savoir et dont les experts font pro-gresser, par leurs travaux et leur réflexion, la connaissance dans leur domaine d’activité. La REE accueille aujourd’hui des contributions d’auteurs qui vont bien au-delà de son cercle originel. La REE est dans son domaine l’une des dernières grandes publications majoritairement de langue française et beaucoup d’éminents spécialistes sont heu-reux et fiers d’y contribuer. Nous espérons que nos lec-teurs y trouvent un facteur d’enrichissement professionnel ou personnel. Nous les remercions de leur fidélité et leur adressons nos meilleurs vœux pour l’année 2014.

Jean-Pierre Hauet Président du Comité éditorial

De l’utilité du savoir

EDITORIAL JEAN-PIERRE HAUET

2 Z�REE N°5/2013

sommaireNuméro 5 2013

1 EDITORIAL De l’utilité du savoir Par Jean-Pierre Hauet

2 SOMMAIRE

5 FLASH INFOS Les nombres premiers en première ligne 9 Important progrès en algorithmique quantique 11 Des skyrmions prometteurs 13 Quelques données récentes sur le climat 16 Des piles à combustibles à oxydes solides fonctionnant à 450°C

18 A RETENIR Congrès et manifestations

20 VIENT DE PARAÎTRE La REE vous recommande

23 ARTICLE INVITÉ Le nucléaire dans le monde : entre renaissance et déclin Par Alain Vallée

33 LES GRANDS DOSSSIERS Le nucléaire de 4e génération Introduction : Pourquoi s’orienter vers des réacteurs

à neutrons rapides de 4e génération ? Par Christophe Béhar38 Cahier des charges pour les réacteurs nucléaires du futur Par François Gauché46 Astrid, démonstrateur technologique du nucléaire de 4e génération Par François Gauché54 Le cycle du combustible futur Par Bernard Bouillis

60 L’Ultra Large Bande impulsionnelle Introduction : L’Ultra Large Bande impulsionnelle.

Dix années de progrès Par Xavier Begaud

p. 33

p. 60

p. 1

p. 23 p. 117 p. 132

Credits photos couverture : CEA, © Anton Balazh - Fotolia.com

REE N°5/2013 Z 3

62 La technologie UWB radio impulsionnelle : un état des lieux des solutions en matière de localisation haute précision et de transfert de données à courte portée

Par Benoît Denis, François Dehmas, Michael Pelissier, Laurent Ouvry

76 L’Ultra Wide Band et les réseaux corporels (BAN) Par Jean Schwoerer, Ali Alex Chami, Serge Bories,

Raffaele d’Errico 84 Le canal de propagation Ultra Large Bande. Sondage,

caractérisation et modélisation Par Pascal Pagani, Patrice Pajusco91 Antennes ULB pour les réseaux corporels sans fil

et les applications RFID Par Christophe Roblin102 Perspectives d’utilisation de l’ULB en exploitation ferroviaire Par Marc Heddebaut, Fouzia Boukour, Bouna Fall,

Atika Rivenq

110 RETOUR SUR ... Yves Rocard ou le dernier des Mohicans Par André Deschamps

117 ENTRETIEN AVEC... Gilles Bellec Ingénieur général des mines Référent Énergie au Conseil Général de l’Économie

123 ENSEIGNEMENT & RECHERCHE L’enseignement supérieur transformé à son tour

par le numérique Par Nicolas Sennequier

128 Echos de l’enseignement supérieur Par Bernard Ayrault

131 CHRONIQUE L’infini continue de nous fasciner ! Par Bernard Ayrault

132 LIBRES PROPOS Énergie, sous-sol et maîtrise des risques Par Philippe Vesseron

135 SEE EN DIRECT La vie de l'association

EMBEDDED REAL TIME SOFTWARE AND SYSTEMS

Q InformationQ ProgramQ Registration

Toulouse (France)5-7 February 2014

www.erts2014.org/

REE N°5/2013 Z 5

FLASHINFOS

Les nombres premiers en première ligne

Depuis des siècles, le mystère des nombres premiers fascine. De grands noms des mathématiques ont fait faire des progrès considérables à leur compréhension : Euclide, Eratosthène, Euler, Gauss, Riemann, Legendre, Tchébychev, Hadamard, La Vallée Poussin, Hilbert… sans oublier les mathématiciens contemporains : André Weil, Hughes Montgomery, Jean-Pierre Serre, Alain Connes, Grigori Perelman et bien d’autres.

Les nombres premiers restent au centre de grands dé-fis et en particulier des trois conjectures qui constituaient le 8e problème de Hilbert :

Aucune de ces trois conjectures n’est formellement démontrée aujourd’hui. Toutefois, Il y a de bonnes rai-sons de s’y intéresser à nouveau et en particulier à celle de Riemann qui fait partie des sept défis du Millénaire lancés en 2000 par le Clay Mathematical Institute et dont

1.On notera tout d’abord que des progrès importants ont

La conjecture de Goldbach (1742), selon laquelle « Tout nombre entier pair supérieur à 3 peut s’écrire comme la somme de deux nombres premiers », semble avoir été démontrée en mai 2013 dans sa version faible « Tout nombre impair supérieur ou égal à 9 est somme de trois nombres premiers impairs » par le mathéma-ticien péruvien Harald Helfgott, chargé de recherches à l’Ecole normale supérieure de Paris. La démonstration est en cours de validation.

laquelle il existerait une infinité de nombres premiers p et p’ tels que p’ = p + 2, n’est toujours pas démontrée mais le mathématicien chinois Yitang Zhang a démontré une version faible de cette conjecture en établissant en

premiers qui diffèrent l’un de l’autre de 70 000 000 au plus.

Evidemment, on voudrait que ces 70 000 000 soient

« bouge » autour des nombres premiers et que l’on n’est

1 La conjecture de Poincaré a été résolue en 2003.

pas à l’abri de découvertes plus importantes. On pense donc à nouveau à la fameuse conjecture de Riemann.

Pures spéculations intellectuelles, dira-t-on. Pas vrai-ment, car la conjecture de Riemann débouche sur des

dans d’autres domaines que les mathématiques, la cryp-tographie et la physique quantique notamment. De quoi s’agit-il ?

La conjecture de RiemannLa conjecture de Riemann (1859) a trait à la fonc-

d’Euler :

(1)

Il n’est pas possible de calculer directement la fonction c�(s) pour toutes les valeurs de s. En particulier, on sait que la série est divergente si l’on prend s égal à 1 sur

-tion. Mais il est possible de contourner cette singularité en remplaçant la formulation analytique de la fonction (1)

prolonge-ment analytique.

Riemann a montré que l’équation fonctionnelle constituant le prolongement analytique de c�(s) pouvait s’écrire :

(2)

formule dans laquelle la fonction K d’Euler prolonge la fonction factorielle ! à l’ensemble des nombres com-

zéros de la fonction c�(s).L’équation fonctionnelle (2) est invariante par rapport

à la transformation s A�(��<�s). La fonction c�(s) présente

donc une symétrie par rapport à la droite . Il est

facile de démontrer que la fonction ne peut pas s’annuler -

cherche des zéros de c�(s) (figure 1).

6 Z�REE N°5/2013

FLASHINFOS

dans le membre de gauche de

l’équation (2) devient infini alors que le membre de droite reste borné. Il faut donc que pour ces points la fonction c� (s)

soit nulle : c’est qu’on appelle les zéros

triviaux de c�(s).zéros non triviaux qui, pour les rai-

dans la bande [0,1]. La conjecture de Riemann consiste à affirmer que tous ces zéros sont situés sur la médiane

. On a de fait calculé un nombre considérable de

zéros le long de cette droite : des centaines de milliards, en commençant par 14.1347…, 21.0220…, 25.0108… etc. Mais on n’a jamais pu trouver de zéros en dehors de

la droite sans jamais parvenir cependant à prouver -

tion de ces zéros sur la fameuse droite a quelque chose e zéro n’est distant de

son suivant que b������������� rappelle étrangement le phénomène des nombres pre-

Fonction de Riemann et nombres premiersDepuis fort longtemps, on sait que la fonction de Rie-

pont entre l’analyse et l’arithmétique, c’est-à-dire entre le continu et le discret. Grâce au théorème fondamental de l’arithmétique2, on peut démontrer assez facilement l’identité d’Euler permettant de transformer la somme de Riemann en un produit infini étendu aux seuls nombres premiers (3) :

2 Tout entier strictement positif peut être écrit comme un produit de nombres premiers d’une unique façon, à l’ordre près des facteurs. Par conséquent, toute fraction peut s’écrire dans laquelle

p et q sont premiers.

Figure 1 : Les zones clés de la recherche des zéros de la fonction Zêta.

Figure 2 : Georg Friedrich Bernhard Riemann (1826 - 1866).

REE N°5/2013 Z 7

FLASHINFOS

(3)

où les nombres p sont premiers.On comprend que la fonction d’Euler et celle de Rie-

mann aient été perçues comme des moyens de pénétrer le mystère des nombres premiers et en particulier celui de leur répartition.

Cette répartition est usuellement caractérisée par la fonction /� -

donné. Depuis toujours, on sait que les nombres premiers se raréfient au

En 1808, Legendre avait proposé la relation :

(4)

-mation, qui devait se révéler plus précise :

(5)

Ces formules (4) et (5) ne seront démontrées que beaucoup plus tard et pratiquement simultanément, par Jacques Hadamard et Charles de la Vallée Poussin

c�(s) ne possédait

Riemann avait l’idée que la répartition des zéros

nombres premiers. Il cherchait donc à réduire l’écart sub-sistant entre la fonction /�

Riemann est alors parvenu à un résultat remarquable.

Ce résultat consiste en la démonstration d’une for-mule explicite

dérivée de

la fonction /�-

fonction c�le calcul puisqu’elle suppose une sommation sur un en-semble qu’on ne connaît pas de façon précise. Mais elle

des nombres premiers.

Partant de là, il a été démontré plus tard (Von Kock - 1901) que l’écart entre /�par un multiple constant, aussi petit que l’on veut, de

quand et que cette estimation était la meilleure possible.

Mais… tous ces résultats demeurent subordonnés à la validation de la conjecture de Riemann ! Cette valida-tion viendrait conforter bon nombre d’hypothèses faites jusqu’à présent et permettrait de relancer les investigations sur les nombres premiers dans de nouvelles directions.

Quel intérêt pour les technologies qui nous intéressent ?

La confirmation de l’hypothèse de Riemann ouvrira de

La cryptographieOn connaît l’importance des nombres premiers dans les

méthodes de chiffrement modernes, en particulier dans l’algorithme de chiffrement à clés asymétriques dénommé

-riser en nombres premiers de très grands nombres.

Il n’y a pas de raisons de supposer, comme cela a été fait dans certaines publications, que la démonstra-tion de l’hypothèse de Riemann puisse du jour au len-demain rendre facile cette factorisation et donc caducs bon nombre de systèmes de protection. Aujourd’hui, l’algorithme RSA serait davantage menacé par la mise au point d’ordinateurs quantiques disposant d’une quantité

Tableau 1 : Comparaison entre la fonction /(x) et le logarithme intégral. Dans cette table, le logarithme intégral est toujours

supérieur à /(x) mais on sait qu’il n’en va pas ainsi pour des valeurs de x extrêmement élevées. Source : Gilles Lachaud.

¾

¾

jphauet
Rectangle

23 Z�REE N°5/2013

D epuis quelques années déjà, dans les mé-dias, on entend sur l’énergie nucléaire un double discours : certains parlent de son déclin alors que d’autres continuent à parler

de sa renaissance. Rien d’étonnant, car cette source d’éner-gie, particulièrement controversée, provoque des prises de position extrêmes et, bien sûr, les opinions sur son avenir reflètent cette dichotomie.

L’évolution de la production d’électricité nucléaire

En 10 ans, la part du nucléaire dans la production mondiale d’électricité n’a cessé de baisser (figure 1) et cet effet s’est en-core accéléré en 2012 et en 2013 avec, à la suite de l’accident de Fukushima, l’arrêt définitif de huit réacteurs en Allemagne et l’arrêt provisoire (?) de la plupart des réacteurs japonais. Avant 2012, alors que la production électrique mondiale crois-sait de 2,5 % par an, la production nucléaire stagnait autour de 2 600 TWh, les mises en service de nouvelles installations compensant juste l’arrêt des centrales arrivant en fin de vie, et sa contribution se trouvait réduite de manière sensible sa contribution de 17 % à 12 %.

Depuis la fin des années 1990 pourtant, devant la mon-tée rapide des prix des matières premières énergétiques et les inquiétudes liées au réchauffement climatique, l’industrie nucléaire s’était organisée et avait investi pour préparer une « renaissance » du marché de construction de réacteurs après

une longue période où elle n’avait connu, au niveau mondial, qu’un nombre très réduit de commandes. Après l’amorce d’un redémarrage, l’accident de Fukushima et les difficultés dans la réalisation des réacteurs de nouvelle génération ont fait baisser l’enthousiasme et les perspectives grandioses de com-mandes, annoncées il y a quelques années, ont été revues significativement à la baisse ; cependant, les analyses prospec-tives récentes montrent toujours un développement important du nucléaire dans les prochaines décennies. Dans son dernier rapport, l’Agence Internationale pour l’Energie prévoit à l’hori-zon 2035 une croissance du nucléaire proportionnelle à la croissance de la consommation électrique (IEA-World Energy Outlook 2013).

L’accord récent entre le gouvernement anglais et EDF défi-nissant les conditions économiques d’exploitation de deux réacteurs qui seraient construits sur le site d’Hinkley Point a donc été perçu comme une confirmation de cette tendance et a été reçu, en France, comme un signal encourageant après la longue série de difficultés commerciales et tech-niques qui ont frappé l’industrie nucléaire nationale.

Pour illustrer l’évolution du marché, la figure 2 représente le nombre de réacteurs électrogènes civils mis en chantier dans le monde, chaque année, depuis la première réalisation historique, à Obninsk, en Union Soviétique, en 1954.

On peut constater qu’effectivement, la fin de la dernière décennie a vu une reprise sensible de la construction de réacteurs, après une vingtaine d’années d’étiage entre 1985

Le nucléaire dans le monde : entre renaissance et déclin

L'ARTICLE INVITÉ ALAIN VALLÉE Partenaire-expert, NucAdvisor Professeur affilié, Supélec

Figure 1 : Evolution de la production électrique mondiale et de la part du nucléaire. Source : Agence Internationale de l’Energie.

24 Z�REE N°5/2013

L'ARTICLE INVITÉ

et 2005 ; cependant, cette embellie a été arrêtée par l’acci-dent de Fukushima qui a gelé, dans de nombreux pays, les engagements pendant une année ou deux, le temps de ré-analyser la sûreté des installations prévues et de l’amélio-rer, si nécessaire. Comme on le verra un peu plus loin, nous arrivons à la fin de cette période de réflexion et ces derniers mois le rythme de commande s’accélère de nouveau.

Ce graphique met aussi en évidence un effet qui va à l’en-contre d’une idée reçue sur l’arrêt du développement rapide de l’énergie nucléaire dans les années 1970. On donne en général comme origine du reflux du nucléaire l’accident de Three Miles Island (TMI), qui, en Pennsylvanie, en 1979, a conduit à la fusion de cœur d’un réacteur à eau pressurisée.

En réalité, on voit que la décrue avait commencé, notam-ment aux Etats-Unis, en 1975, et cela pour deux raisons essentielles :

de l’électricité produite), liée à un alourdissement important des contraintes administratives et des durées de construction ;

-ment thermodynamique, réduction des pollutions) et à gaz (rendement thermodynamique).

Les accidents de TMI et de Tchernobyl n’ont donc fait qu’accélérer la décroissance d’une énergie qui n’était, au niveau mondial, plus compétitive. Le retour du nucléaire, qui s’était manifesté ces dernières années et qui se manifeste de nouveau ces derniers mois, présente plusieurs origines. Bien sûr, la compétitivité reste un facteur central dans la reprise des commandes, comme on verra plus loin, mais n’est pas le facteur unique.

Le déplacement des marchés

Avant d’entrer dans cette analyse, regardons les régions du monde où l’énergie nucléaire présente le plus de dyna-misme. La figure 3 synthétise l’évolution du centre de gravité du nucléaire mondial.

Cette figure présente année par année l’évolution et la répartition des réacteurs en construction dans le monde. Sont donc inclus dans ce graphique tous les réacteurs dont la construction, arrêtée sur une longue période, a été reprise ces dernières années : Argentine, Brésil, Etats-Unis, Slovaquie, Taiwan…

Alors que, lors du grand développement des années 70, la majorité des réalisations avait eu lieu en Amérique du Nord,

Figure 2 : Début de construction des réacteurs électronucléaires réalisés ou en réalisation dans le monde. Source : IAEA - PRIS.

Figure 3 : Puissance (MWe) des réacteurs en construction dans les différentes régions du monde. Source : Agence Internationale pour l’Energie Atomique (IAEA).

jphauet
Rectangle

REE N°5/2013 Z 33

LES GRANDS DOSSIERSIntroduction

Besoin vital et facteur de croissance, la maî-trise de l’approvisionnement d’un pays en éner-gie est un enjeu majeur du monde de demain. L’industrie nucléaire dispose à cet égard de sé-rieux atouts tout en étant confrontée à la maîtrise technico-économique de problématiques de sûreté, de durabilité des ressources et de gestion responsable des déchets qui imposent de pour-suivre sur la voie de l’innovation technologique.

Certains chiffres parlent d’eux-mêmes : en 2030, la consommation énergétique mondiale devrait augmenter de 50 % par rapport à celle de 2005, sous l’effet conjugué de l’augmentation de la population – nous passerons de 7 milliards aujourd’hui à 9 à 10 milliards en 2050 – et de la croissance des pays émergents (figure 1). Les pays hors Organisation de coopération et de développe-ment économiques (OCDE) devraient représenter plus de 80 % de cette hausse.

En regard de cette demande, l’Europe doit faire face à un certain nombre de contraintes, parmi lesquelles la lutte contre le réchauffement climatique, la raréfaction des res-sources énergétiques, la sûreté d’approvisionnement, la

maîtrise des coûts de l’énergie et la préserva-tion de sa balance commerciale. Là encore les chiffres parlent d’eux-mêmes : parmi les diffé-rentes sources d’émission de CO2, la produc-tion électrique domine largement avec 27 % de la production anthropique totale, loin devant l’industrie, les transports routiers ou encore les secteurs résidentiels et tertiaires (figure 2). Autre exemple, la dépendance énergétique de l’Eu-rope ne cesse d’augmenter ; en 2035 le taux de dépendance à l’importation devrait atteindre les

80 %. Dans ce contexte, il apparaît de plus en plus indispen-sable de disposer de sources d’énergie à la fois compétitives et à bas carbone, permettant de garantir indépendance éner-gétique et sécurité d’approvisionnement.

Face à ces enjeux, l’énergie nucléaire a un rôle incontour-nable à jouer, en synergie avec les énergies renouvelables, puisqu’elles constituent les seuls modes de production d’électricité non émetteurs de gaz à effet de serre (figure 3). Leurs natures sont fondamentalement différentes, les amenant à intervenir en complémentarité : grandes unités fonctionnant en base pour la production d’énergie nucléaire ;

Pourquoi s’orienter vers des réacteurs à neutrons rapides de 4e génération ?

Figure 1 : Prévisions des Nations Unies pour la population mondiale. Source : DPNU (2006).

Energy management — a vital need and a factor of economic growth — is a major challenge for the world of tomorrow. The nuclear industry has significant advantages in this regard, but it must face the safety, resource sustainability and waste mana-gement issues which must be addressed through continuous technological innovation. The CEA is responsible in France for conducting research on innovative “4th generation” nuclear systems representing a major technological breakthrough compa-red with the previous generations of reactors. The research effort focuses on two fast reactor systems: gas-cooled fast reactors, as a long term option, and sodium-cooled fast reactors, with the Astrid integrated technology demonstrator project for which the CEA is the owner. This choice is motivated by the many advantages of these technologies. Especially fast reactors make excellent use of uranium resources, are capable of multiple recycling of plutonium and contribute to the management and reduction of long-life radioactive waste volumes.

ABSTRACT

Christophe Béhar Directeur

de l’énergie nucléaire au CEA

© La

uren

ce G

odar

t - C

EA

34 Z�REE N°5/2013

LES GRANDS DOSSIERS Introduction

petites unités décentralisées et intermittentes pour les éner-gies renouvelables. Si leur synergie est un atout considérable pour rendre vertueux les mix énergétiques futurs, l’innovation est une nécessité pour conserver cet atout sur le long terme.

En étant capable de produire de l’électricité en masse, sans générer de gaz à effet de serre, le nucléaire dispose d’atouts qui lui permettent de s’imposer comme l’une des solutions prometteuses pour l’avenir, au sein d’un mix énergétique décarboné. Mais cette industrie est aussi confrontée à des enjeux en termes de compétitivité, de disponibilité, de sûreté, de lutte contre la prolifération, de raréfaction de la ressource et de gestion des déchets. Autant d’enjeux qui imposent de poursuivre sur la voie de l’innovation technologique qui a tou-jours été un moteur du développement de cette industrie. Aujourd’hui, cette innovation passe par le développement de systèmes nucléaires du futur, dits de 4e génération.

La Direction de l’énergie nucléaire du Commissariat à l’énergie atomique et aux énergies alternatives (CEA) est char-gée de mener pour la France les recherches sur des systèmes nucléaires innovants, dits de 4e génération, à neutrons rapides,

en rupture technologique forte par rapport aux précédentes générations de réacteurs du même type. Le CEA concentre ses recherches sur deux filières de réacteurs, toutes deux dites à neutrons rapides : une filière refroidie au gaz, qui apparaît comme une option à long terme dont la faisabilité n’est pas encore démontrée, et une filière refroidie au sodium, avec le projet de démonstrateur technologique Astrid (Advanced Sodium Technological Reactor for Industrial Demonstration), dont le CEA est maître d’ouvrage, pour les études.

Le concept de réacteur à neutrons rapides (RNR) refroidi au gaz (RNR-G)Il représente une option à long terme, car les verrous tech-nologiques à lever, en termes de matériaux, de combustible réfractaire ou de sûreté, sont importants. Son développe-ment s’appuie sur un projet de réacteur expérimental de petite taille, appelé Allegro, dont la conception est portée par un consortium européen constitué de quatre instituts (VUJE Slovaquie, UJV République tchèque, MTA-EK Hon-grie, NCBJ Pologne) hébergeant chacun une composante de la recherche et développement (R&D) et pour lequel le

Figure 2 : Examen des sources d’émission de CO2 anthropiques locales. Source : GIEC 2007.

Figure 3 : Emissions de gaz à effet de serre de certaines filières énergétiques. Source : Perspectives de l’énergie nucléaire 2008, AEN.

jphauet
Rectangle

REE N°5/2013 Z 35

LES GRANDS DOSSIERSIntroduction

CEA intervient en soutien. Le premier prototype non élec-trogène dans un premier temps sera nécessairement de très faible puissance et ne saurait fonctionner avant 2030.Le concept de RNR refroidi au sodium (RNR-Na)Il s’agit de la filière de référence pour les réacteurs à neutrons rapides de 4e génération, avec une dimension internationale potentielle et une maturité qui peuvent permettre un déploiement, en France dès l’horizon 2040, et plus tôt dans d’autres pays, si cela est nécessaire. En France, les études sont pilotées par le CEA, autour du pro-jet de démonstrateur technologique Astrid, actuellement en phase d’avant-projet sommaire. Tout en bénéficiant de l’expérience des RNR ayant déjà fonctionné dans le monde (près de 400 années x réacteur dont 100 en opé-rations industrielles), il se différenciera fortement des RNR des générations précédentes.

Les systèmes nucléaires à neutrons rapides présentent trois intérêts majeurs :

-nium produit par le parc actuel des réac-teurs à eau légère (REL) ;

-nium (dans les systèmes actuels, seul l’isotope minoritaire uranium 235 (235U) est utilisé), y compris l’uranium appauvri et celui de retraitement issu du combus-tible usé sorti des centrales actuelles. Avec l’uranium appauvri alors présent sur le territoire français et le plutonium issu du combustible usé des centrales ac-tuelles, on pourrait fonctionner pendant plusieurs milliers d’années en se passant totalement d’uranium naturel ; la possibilité de transmuter certains acti-nides mineurs, qui sont les principaux contributeurs de l’émission de chaleur des colis vitrifiés et de la radiotoxicité résiduelle à long terme des déchets ultimes. Il est ainsi possible d’envisa-

ger une réduction d’un facteur 10 de l’emprise de la zone de stockage des déchets de haute activité à vie longue (HA -VL), et, au-delà de quelques siècles, une diminution jusqu’à un facteur 100 de l’inventaire de radiotoxicité conte-nue dans ces déchets : ainsi, en moins de 500 ans, il re-trouve un niveau équivalent à celui de tout l’uranium extrait pour fabriquer les combustibles actuels.

En étant capable de produire de l’électricité en masse, sans générer de gaz à effet de serre, le nucléaire dispose d’atouts qui lui permettent de s’imposer comme l’une des solutions prometteuses pour l’avenir, au sein d’un mix éner-gétique décarboné. Mais cette industrie est aussi confrontée à des enjeux en termes de compétitivité, de disponibilité, de sûreté, de lutte contre la prolifération, de raréfaction de la ressource et de gestion des déchets. Autant d’enjeux qui nécessitent de poursuivre sur la voie de l’innovation techno-logique, pour développer des systèmes nucléaires du futur, dits de 4e génération.

Le présent dossier, établi par le CEA, fait le point sur ces systèmes nucléaires, tant d’un point de vue « réacteur » que d’un point de vue « cycle du combustible associé ». Il se structure en trois articles :

François Gauché, présente l’ensemble des attendus des systèmes nucléaires de 4e génération, notamment en termes de performances et de sûreté, tout en soulignant les en-jeux spécifiques aux systèmes à neutrons rapides.

François Gauché, fait le point sur le démonstrateur technologique de 4e génération à neutrons rapides, Astrid, actuellement en phase d’étude et dont le CEA est maître d’ouvrage.

Bernard Boullis, traite du cycle des matières du futur : ses enjeux et ses implications en termes de recherche et développement. Q

Christophe Béhar est ingénieur, diplômé de l’Ecole centrale de Paris. Il entre au CEA à Saclay en 1984 pour travailler sur la séparation isotopique de l’uranium. Il devient chef du Département des techno-logies de l’enrichissement en 1997. En 2000, il est nommé directeur des matières, de la surveillance et de l’environnement au sein de la Direction des applications mili-taires (DAM) du CEA. En 2004, il devient Directeur du Centre CEA/DAM-Île de France, établissement chargé de la conception des charges nucléaires françaises, de la lutte contre la prolifération et le terrorisme nucléaire et de l’alerte aux autorités en cas de catastrophe naturelle. Depuis avril 2009, Chris-tophe Béhar est Directeur de l’éner-gie nucléaire au CEA.

Cahier des charges pour les réacteurs nucléaires du futurPar François Gauché .................................................................................................................................................................... p. 38

Astrid, démonstrateur technologique du nucléaire de 4e génération Par François Gauché .................................................................................................................................................................... p. 46

Le cycle du combustible futurPar Bernard Boullis ..................................................................................................................................................................... p. 54

LES ARTICLES

REE N°5/2013 Z 37

LES GRANDS DOSSIERSIntroduction

sance atomique mise au service de l’énergie civile. Durant cette période, la France, qui ne disposait pas des technologies d’enrichissement de l’uranium, a développé une filière technologique utilisant l’uranium naturel graphite gaz (UNGG) comme combustible.

Les réacteurs nucléaires de 2e génération sont entrés en service à partir des années soixante-dix. Ils correspon-daient à la nécessité d’une meilleure compétitivité de l’énergie nucléaire et d’une amélioration de l’indépendance éner-gétique, dans un contexte de fortes tensions sur le cours des énergies fossiles (choc pétrolier). La majorité des réacteurs actuellement en exploitation dans le monde sont des réacteurs de 2e génération. En France, il s’agit principalement de la filière à eau sous pression, une technologie américaine adaptée par EDF et AREVA. Des prototypes de RNR ont également été construits en France sur cette période. Ils répondaient aux mêmes objectifs, mais le ralentissement du développement du nucléaire dans les années quatre-vingt, ajouté à la découverte de nouveaux gisements d’uranium, les ont rendus moins prioritaires.

La 3e génération de réacteurs nucléaires, qui s’apprête aujourd’hui à prendre progressivement le relais, met l’accent sur les impératifs liés à la sûreté et à la sécurité (résistance renforcée aux agressions externes comme la chute d’avion, absence de rejets précoces ou importants en cas de fusion du cœur). Ces réacteurs tirent les enseignements du retour d’expérience de l’exploitation des réacteurs de 2e génération, des accidents de Three Mile Island et de Tchernobyl ainsi que des attentats du 11 septembre 2001. Trois réacteurs répondent à ces critères : l’EPRTM français (European Pressu-rized Reactor), l’AP1000 américano-japonais (Advanced Pressurized de 1 000 MWe) et l’AES 2006, dernier modèle de 1 200 MWe du VVER russe (Voda Voda Energo Reactor).

La 4e génération correspond aux réacteurs, actuellement en conception, qui pourraient voir un déploiement indus-triel à l’horizon 2040-2050. Ils sont en rupture technologique avec ce qui a été réalisé jusqu’à présent. Les recherches sur ces systèmes du futur sont menées dans le cadre du GIF, qui a établi les quatre critères auxquels ils devront répondre : la durabilité, la sûreté, la compétitivité économique et la résistance à la prolifération nucléaire. En 2006, le CEA a été mandaté par l’Etat pour étudier la conception d’un réacteur de 4e génération à neutrons rapides.

Générations et filières technologiquesLa notion de « génération » est distincte de celle des « filières technologiques », une génération pouvant inclure

différentes technologies de réacteurs. Les différences entre les générations correspondent à des critères d’exigences spécifiques à chaque période. Les filières correspondent à des choix d’options technologiques. Parmi elles, trois carac-téristiques majeures permettent de classer les réacteurs en différentes filières : la nature de la matière fissile utilisée comme combustible nucléaire ; le fluide caloporteur, qui permet de récupérer la chaleur produite au niveau du cœur et de l’acheminer ; le modérateur, qui détermine l’énergie moyenne des neutrons dans le cœur du réacteur.

Il faut aussi noter qu’il est fort probable que les réacteurs de 3e et 4e générations cohabitent durablement dans la seconde moitié du 21e siècle.

Figure 2 : Le calendrier des générations nucléaires.

38 Z�REE N°5/2013

LE NUCLÉAIRE DE 4E GÉNÉRATION

François Gauché Chef de programme « réacteurs de 4e génération » à la Direction de l’énergie nucléaire du CEA

IntroductionLa conception, la construction, l’exploitation et le

démantèlement d’un réacteur nucléaire doivent ré-pondre à de très nombreux critères. Le présent article ne saurait remplacer un cahier des charges détaillé. Au moment où l’on s’intéresse aux réacteurs du fu-tur, dits de 4e génération, et en particulier aux RNR, l’objectif est :

contraintes à prendre en compte, qui distinguent du réacteur « papier » le réacteur réel qui produira un jour de l’électricité, et qui pour la majorité consti-tuent des défis scientifiques et technologiques qui ne se voient pas forcément au premier coup d’œil ;

de RNR de nouvelle génération, les nouvelles contraintes qui découlent de l’expérience passée et de l’accroissement des exigences, de sûreté en particulier, qui pèsent sur la conception de tout nou-veau réacteur nucléaire.

Le présent article s’alimente notamment du cahier des charges pour les futurs RNR-Na, réalisé par EDF et transmis au CEA dans le cadre du projet de démons-

trateur technologique Astrid1, auquel un autre article de ce dossier est consacré.

Les attendus des RNR du futur peuvent être clas-sés en termes de génération, de performances et de sûreté, exigences auxquelles il faut ajouter quelques contraintes supplémentaires spécifiques aux RNR.

Attendus des systèmes de 4e générationComme indiqué dans l’introduction de Christophe

Béhar, le cadre international de la coopération en matière de systèmes nucléaires de 4e génération est le GIF (encadré 1), dont l’objectif est la conduite des travaux de R&D nécessaires à la mise au point de systèmes nucléaires (réacteurs et cycle du combus-tible) répondant aux critères de durabilité de l’éner-gie nucléaire : poursuite des progrès en compétitivité et en sûreté atteints sur les réacteurs à eau de 3e génération, économie des ressources, minimisation de la production des déchets radioactifs, plus grande résistance à la prolifération nucléaire et application de l’énergie nucléaire à d’autres voies que la production d’électricité.

C’est en regard de ces critères que le GIF a sélec-tionné six concepts paraissant les plus prometteurs et a défini un plan de R&D visant à apporter les innova-tions nécessaires pour le déploiement industriel des systèmes basés sur ces concepts.

1 Advanced Sodium Technological Reactor for Industrial Demon-stration.

Cahier des charges pour les réacteurs nucléaires du futur

The design, the construction, the operation and the decommissioning of a nuclear reactor need to cope with a large number of different requirements. Although not a detailed specification, the present article aims at showing that, when we speak about future Generation IV reactors, numerous constraints are to be taken into account and make the difference between a “paper” reactor and the real reactor that will produce electricity one day. Most of them constitute scientific and technical challenges that are not always visible at first sight. As far as fast neutron reactors are concerned, the feedback of experience and the increase of safety requirements lead to new constraints to be taken into consideration, as there is a direct relationship between the level of safety that can be achieved and the technical maturity.

ABSTRACT

REE N°5/2013 Z 39

Cahier des charges pour les réacteurs nucléaires du futur

Le GIFLe GIF est une association intergouvernementale lancée en 2000 à l’initiative du DOE (Department of Energy) des

Etats-Unis. Il regroupe à ce jour treize1 membres engagés par la signature d’une charte en juillet 2001 dans laquelle ils reconnaissent l’importance du développement de systèmes futurs pour la production d’énergie nucléaire, ainsi que la nécessité de préserver au mieux l’environnement et de se prémunir contre les risques de prolifération.

Un accord-cadre intergouvernemental consolidant ces engagements a été signé à partir de février 2005 par dix membres, dont la France. L’Argentine et le Brésil ont souhaité différer leur signature et demeurent provisoirement dans un statut de membre non actif. Le Royaume-Uni n’a pas ratifié l’accord-cadre signé en 2005, préférant limiter à ce stade sa contribution au programme européen. Cet accord fixe le cadre des accords juridiques plus détaillés permettant une coopération équitable entre partenaires. Chaque membre du GIF est représenté par un ou plusieurs agents de mise en application des objectifs de l’accord-cadre.

Le GIF a sélectionné six concepts paraissant les plus prometteurs et a défini un plan de R&D visant à apporter les inno-vations nécessaires pour le déploiement industriel, à partir de 2030, des systèmes basés sur ces concepts. Le plan de développement de ces six systèmes comprend trois phases : faisabilité, performances et démonstrations. L’accord-cadre et les accords détaillés qui en découlent ne couvrent que les deux premières phases. La réalisation de démonstrations, pilotes ou prototypes nécessitent des accords différents. Les concepts sélectionnés par le GIF sont les suivants :

Il faut noter que la maturité technologique des concepts retenus par le GIF est très variable.

1 Afrique du Sud, Argentine, Brésil, Canada, Chine, Etats-Unis, Euratom, France, Japon, République de Corée du Sud, Royaume-Uni, Russie, Suisse.

Figure 1(b)Figure 1(a) Figure 1(c)

Figure 1(e)Figure 1(d) Figure 1(f)

Figure 1 : Schémas de principe de fonctionnement – (a) RNR-Na ; (b) RNR-G ; (c) RSF ; (d) RNR-Pb ; (e) RESC ; (f) RTHT ©GIF.

jphauet
Rectangle

60 Z�REE N°5/2013

LES GRANDS DOSSIERS Introduction

L’Ultra Large Bande (ULB ou UWB pour Ultra Wide Band) a connu un fort engouement dès la parution en Février 2002 aux États-Unis d’Amé-rique d’une décision de la Commission Fédérale des Communications (FCC) autorisant l’émis-sion en dessous d’un certain seuil, de signaux dans une bande de fréquences allant de 3,1 à 10,6 GHz. Cette technique de transmission radio consiste à utiliser des signaux dont le spectre s’étale sur une large bande de fréquences, ty-piquement de l’ordre de 500 MHz à plusieurs GHz. Elle fut autrefois utilisée pour des appli-cations radars et militaires, puis transposée il y a quelques années aux applications de télécommunications, suscitant ainsi un intérêt grandissant au sein de la communauté scien-tifique et industrielle. Cette disponibilité spectrale permet d’envisager notamment des communications à haut débit et conduit aussi à une résolution spatiale fine nécessaire pour accroître la précision des systèmes de localisation. Cepen-dant, les restrictions des organismes de réglementation sur le niveau de puissance d’émission ont très rapidement scindé l’ULB en deux approches distinctes supportées par deux groupes d’industriels différents. La première est fon-dée sur l’émission d’impulsions de très courte durée ; c’est l’approche mono-bande ou radio impulsionnelle (Impulse Radio-UWB). La deuxième approche est quant à elle basée sur l’utilisation simultanée de plusieurs porteuses ; Il s’agit de la technique multi-bandes, où la bande de fréquences est subdivisée en plusieurs sous-bandes. La modulation utilisée dans chaque sous-bande est l’OFDM (Orthogonal Frequency Division Multiplexing). De nombreux débats ont été menés notamment dans les organismes de stan-dardisation et le premier article du dossier (La technologie UWB radio impulsionnelle : un état des lieux des solutions en matière de localisation haute précision et de transfert de données à courte portée) reviendra sur cette première décennie agitée. Dans cet article, vous découvrirez aussi que les premières applications envisagées à l’aube de l’ULB sont très rares à avoir vu le jour. Aujourd’hui grâce à l’ensemble des travaux menés sur ce domaine et notamment en France, ce sont de nouvelles applications qui arrivent sur le marché en technologie intégrée et exploitent toute la richesse des signaux ULB.

Parmi les applications récentes de l’ULB toutes ne seront pas présentées dans ce dossier et nous ne parlerons pas des travaux sur les radars de vision à travers les murs, de radar ULB,… Le contenu du dossier est en grande partie centré sur les applications qui exploitent conjointement les informations de position et l’échange de don-nées de tout type. Ce premier article présentera aussi les principales réalisations disponibles sur le marché et les avancées récentes du domaine.

Contrairement à l’approche multi-bandes qui s’adossait à des techniques éprouvées et dispo-

nibles sur étagères, l’architecture de système de télécom-munication en mode impulsionnel a suscité de nombreux développements et a nécessité, notamment, la mise en place de nouvelles définitions. L’antenne, interface entre le canal de propagation et l’architecture des émetteurs/récep-teurs a dû s’enrichir de caractéristiques de rayonnement temporelles pour optimiser la transmission et la réception de signaux impulsionnels. Les deux contributions suivantes seront ainsi focalisées sur les antennes (Antennes ULB pour les réseaux corporels sans fil et les applications RFID) puis sur le canal (Le canal de propagation Ultra Large Bande). De nouvelles techniques de modélisation des antennes ULB faisant par exemple appel à l’approche statistique seront ain-si présentées pour deux champs d’applications récents : les réseaux corporels sans fil (BAN, Body Area Network) et les applications RFID (Radio Frequency Identification). Les spéci-ficités du canal de propagation ULB seront ensuite analysées pour mettre en lumière toute la richesse de l’environnement lorsqu’il est mesuré et modélisé dans le domaine spatial, spectral et temporel.

Pour compléter le panorama dressé dans le premier ar-ticle, deux contributions viendront illustrer les nouvelles ap-plications adressées par l’ULB. Les réseaux corporels sans fil seront présentés dans un article détaillant les derniers résul-tats obtenus dans le cadre d’un projet de l’Agence Nationale de la Recherche (ANR) intitulé RUBY (L’Ultra Wide Band et les réseaux corporels (BAN)). Puis, pour conclure et affir-mer que cette technologie est une solution pertinente dans des environnements contraints, le dernier article proposera quelques applications de l’ULB en transport ferroviaire (Pers-pectives d’utilisation de l’ULB en exploitation ferroviaire).

L’Ultra Large Bande impulsionnelleDix années de progrès

Xavier Begaud Professeur à Telecom ParisTech

REE N°5/2013 Z 61

LES GRANDS DOSSIERSIntroduction

En dix ans, les ambitions initiales de l’ULB ont été complè-tement revues et réorientées vers des marchés spécifiques où la richesse temporelle et spectrale des signaux est pleine-ment exploitée. Même si les marchés de masse initialement visés n’ont pas vu le jour, l’ULB a trouvé une multitude de nouvelles applications dont nous avons donné quelques exemples dans ce dossier.

Très récemment (15-18 septembre 2013), lors de la conférence interna-tionale IEEE sur l’Ultra Large Bande à Sidney, le professeur Ryuji Kohno de l’Université Nationale de Yokohama au

Japon a proposé le concept de l’ULB des objets (UWB of things) clin d’œil à l’internet des objets (Internet of things). Après avoir développé les systèmes de communications autour de la per-

sonne (body centric communications) pour lesquels la liaison n’est pas toujours fiable, l’avenir de l’ULB est peut-être dans les communications entre objets ou capteurs (Machine Centric Communi-cations) où la fiabilité des liaisons ULB peut être judicieusement exploitée dans les dispositifs médicaux, la gestion de l’énergie, le contrôle du bon fonctionne-ment d’un véhicule etc…, ce que l’auteur appelle l’ULB des Objets. Q

Xavier Begaud est docteur de l’Université de Rennes 1 et actuellement professeur et res-ponsable du groupe de recherche RadioFré-quences et Microonde (RFM) du département Communications et Électronique de Télécom ParisTech, Ses activités de recherche sont réalisées au Laboratoire de Traitement et Communication de l'Information, LTCI, UMR 5141, unité conjointe Télécom-ParisTech-CNRS, dans le domaine du rayonnement électroma-gnétique (antennes et réseaux large bande bipolarisation et 3D) et de la conception de métamatériaux pour des applications radar, de communication mobiles, de caractérisation de canal et de compatibilité électromagnétique.Il est l’auteur de plus de 160 articles de revue, brevets, chapitres de livres et conférences. Il est membre du comité d’édition de la revue Advanced Electromagnetics, a organisé deux conférences internationales et édité un livre.

La technologie UWB radio impulsionnelle : un état des lieux des solutions en matière de localisation haute précision et de transfert de données à courte portéePar Benoît Denis, François Dehmas, Michael Pelissier, Laurent Ouvry .................................................................... p. 62

L’Ultra Wide Band et les réseaux corporels (BAN)Par Jean Schwoerer, Ali Alex Chami, Serge Bories, Raffaele D’Errico ...................................................................... p. 76

Le canal de propagation Ultra Large Bande Sondage, caractérisation et modélisationPar Pascal Pagani, Patrice Pajusco .......................................................................................................................................... p. 84

Antennes ULB pour les réseaux corporels sans fil et les applications RFIDPar Christophe Roblin ................................................................................................................................................................... p. 91

Perspectives d’utilisation de l’ULB en exploitation ferroviairePar Marc Heddebaut, Fouzia Boukour, Bouna Fall, Atika Rivenq .............................................................................. p. 102

LES ARTICLES

jphauet
Rectangle

62 Z�REE N°5/2013

L’ULTRA LARGE BANDE IMPULSIONNELLE

Benoît Denis, François Dehmas, Michael Pelissier, Laurent Ouvry CEA-Leti Minatec

IntroductionDans une perspective d’optimisation énergétique

ou de perfectionnement ergonomique, la gestion locale de l’information ainsi que les applications nomades centrées sur l’utilisateur sont aujourd’hui deux tendances de fond de la nouvelle ère numé-rique. L’évolution récente des systèmes RFID et des mémoires tend, par exemple, à favoriser la distribu-tion spatiale des contenus et le stockage local des données, interrogeables « à la demande » dans leur voisinage physique immédiat (sans recours à des ressources distantes centralisées, plus énergivores). L’émergence de technologies propres à l’Internet des Objets (IoT : Internet of Things) ou aux villes intelli-

gentes, est dopée par une demande croissante en matière d’intégration, d’autonomie et de mobilité : nombre d’applications topo-dépendantes ou géo- référencées commencent ainsi à voir le jour.

Émerge également le besoin de fonctions conjointes de « géolocalisation » et de communica-tion au sein d’environnements jusque-là dépourvus de couverture satellitaire. En exploitant de simples liens de transmission radio, on cherche à positionner des biens ou des individus avec des niveaux de préci-sion sans précédent, c’est-à-dire de l’ordre du mètre, voire en-deçà. La radiolocalisation autorise des ser-vices commerciaux « contextualisés », ou bien encore de nouvelles applications comme la navigation per-sonnelle augmentée, la logistique « intelligente », le secours à la personne, ou l’analyse quantifiée de la pratique sportive.

Au-delà de la simple contingence sémantique entre ces deux types de localisation (c‘est-à-dire,

La technologie UWB radio impulsionnelle : un état des lieux des solutions en matière de localisation haute précision et de transfert de données à courte portée

In this article, we intend to draw the appraisal of a 10 year-long evolution of the Impulse Radio - Ultra Wideband (IR-UWB) technology. Starting with a brief historical review of US and European regulation recommendations (in terms of emission masks and activity) and related IEEE standard specifications (e.g. 802.15.4a and 802.15.4f), we recall the main principles and challenges associated with this technology (e.g. in terms of signal transmission and shaping, possible architectural choices for the receiver, or supported radiolocation functionalities). On this occasion, state-of-the-art contributions, as well as commercially available products, are also summarized, while pointing out the taxonomy currently admitted for IR-UWB systems and applica-tions. Then we describe more specific proposals, addressing accurate peer-to-peer ranging over low data rate links on the one hand or short-range high data rate transfer on the other hand. The first development, which relies on a double I/Q projection principle, claims low power consumption within a few tens of mW, fine sensibility and scalable data rates up to 50 Mbps at several hundreds of meters, and precise time of arrival time (TOA) estimation capabilities, despite a moderate sampling speed on the receiver’s side (i.e. 50 MHz). The second development concerns an original super-regenerative IR-UWB architecture, coupled with a side UHF/HF narrow-band link (used for both power and synchronization remote harvesting, feeding the IR-UWB part), enabling data rates up to 112 Mbps for advanced RFID applications. One third option, viewed as a compromise between the two latter solutions, is also put forward for the localization of semi-passive backscattering RFID tags in indus-trial environments. Finally, we disclose a few research perspectives, regarding IR-UWB radio design (e.g. migration towards 6-8.5 GHz frequency bands vs. CMOS technologies, phase noise and noise factor minimization in I/Q receivers, sensibility optimization and improved robustness against interferers in non-coherent receivers, waveform control and energy efficiency at transmitters, digital baseband agility…), as well as localization algorithms suited into the IR-UWB context (e.g. multipath-aided positioning, non-visibility compensation, hybrid data fusion with inertial systems or multiple radio standards, mobile-to-mobile cooperation…).

ABSTRACT

REE N°5/2013 Z 63

La technologie UWB radio impulsionnelle : un état des lieux des solutions en matière de localisation haute précision et de transfert de données à courte portée

« rendre local » et « positionner »), d’aucuns s’attendent à une révolution profonde des usages, du même ordre que celles ayant accompagné, en leur temps, l’apparition du GPS en matière de trafic automobile et l’arrivée du GSM dans le domaine des communications mobiles.

Malgré la concurrence féroce d’autres approches techno-logiques (par exemple les QR codes1 et le cloud, comme alternative au transfert de données à courte portée) et mal-gré la montée en force de solutions matures déjà largement diffusées (par exemple, les systèmes Wi-Fi de localisation indoor offrant une précision de quelques mètres), la radio impulsionnelle IR-UWB (Impulse Radio - Ultra Wideband), en relevant une majorité des défis techniques proposés dans ces nouveaux contextes applicatifs, semble aujourd’hui en mesure de trouver sa place au terme d’un processus de ma-turation de près d’une dizaine d’années.

Ainsi, après des débuts euphoriques, où l’UWB – au sens large – semblait représenter une panacée notamment en raison de son efficacité spectrale théorique, l’épreuve du ter-rain de l’implémentation et les contraintes normatives ont conduit, ces dernières années, à un compromis raisonnable entre débit et portée. On aboutit ainsi à une segmentation relativement naturelle et stable de l’offre IR-UWB avec :

courte portée ;

longue portée, adaptées aux fonctions de radiolocalisation. On se propose, dans ce qui suit, de dresser un bilan de

dix années d’évolutions dans le domaine de l’IR-UWB, en trai-tant des grands principes, des réalisations disponibles sur le marché, des techniques plus avancées et des perspectives offertes par la recherche.

La technologie radio impulsionnellePrincipes de base et propriétés

La technologie IR-UWB repose sur l’émission dans le do-maine temporel de trains d’impulsions de très courte durée, de l’ordre de quelques nanosecondes – voire en-deçà –, qui occupent une large bande fréquentielle, c’est-à-dire supé-rieure ou égale à 500 MHz. Une telle approche présente des qualités intrinsèques indéniables. On peut citer, au premier chef, de bonnes propriétés de résolution temporelle, direc-tement héritées du domaine radar dont elle est issue, qui lui confèrent une certaine robustesse dans les environnements denses en multi-trajets (bâtiments résidentiels, tertiaires ou industriels, etc.). La bonne résolution temporelle permet aussi

1 Le code QR (Quick Response) est un type de code-barres en deux dimensions constitué de modules noirs disposés dans un carré à fond blanc.

une mesure précise du temps d’arrivée ToA (Time of Arrival) et/ou, par extension, du temps de vol ToF (Time of Flight) des signaux transmis, en particulier à des fins de radiolocalisation. Les faibles niveaux de puissance moyenne rayonnée, alliés à la souplesse des rapports cycliques à l’émission, permettent de réduire de manière drastique la consommation électrique, en la ramenant par exemple à quelques dizaines de mW tout en limitant les interférences générées vis-à-vis des autres ser-vices radio. En comparaison de technologies plus classiques, ces deux derniers points font de l’IR-UWB une solution tou-jours aussi attrayante dans une perspective d’intégration poussée et de pénétration de grands marchés de masse. Mais le chemin ne fut pas pavé de roses pour autant.

Règlementation

L’introduction de la technologie UWB dans le monde des communications sans fil date des travaux menés au début des années 2000 par la FCC2 américaine, visant à réglemen-ter l’accès intentionnel au spectre dans la bande 3,1 GHz à 10,6 GHz pour des usages secondaires. Ces efforts ont débouché sur une première recommandation qui posait les bases essentielles de la réglementation de l’UWB : la largeur de bande du signal doit être supérieure à 500 MHz ou à 20 % de la fréquence centrale et la densité spectrale de puissance ne doit pas excéder -41,3 dBm/MHz. Cette der-nière valeur est en relation directe avec les niveaux tolérés pour les émissions non intentionnelles des appareils élec-triques, ce qui fonde l’esprit de cette réglementation. Ainsi, en exploitant 500 MHz ou 7,5 GHz de bande, des systèmes UWB peuvent en théorie émettre respectivement au plus -14,3 dBm ou -2,5 dBm3 de puissance moyenne. Cette limi-tation restreint de facto leur utilisation à des portées courtes (quelques mètres) ou modérées (quelques dizaines ou cen-taines de mètres), selon le débit visé. La transposition de cette réglementation de la FCC aux autres régions du monde a pris plusieurs années et s’est accompagnée de restrictions significatives.

En Europe plus particulièrement, les travaux de la CEPT4 et les premières décisions de l’ECC5 (ECC/DEC/(06)04 et ECC/DEC/(06)12, [1]) ont séparé la bande dite « basse » comprise entre 3,4 et 4,8 GHz et la bande dite « haute » com-prise entre 6,0 et 8,5 GHz, alors que la FCC avait considéré la bande 3,1 GHz à 10,6 GHz d’un seul tenant (figure 1).

2 Federal Communications Commission : Commission fédérale des com-munications chargée aux États-Unis de la règlementation du domaine des communications.

3 -14.3 = -41.3 + 10*log 500 ; -2.5 = -41.3 + 10*log 2500.4 Conférence Européenne des Postes et Télécommunications.5 Electronic Communications Committee : Comité des Communications

Électroniques de la CEPT.

jphauet
Rectangle

110 Z�REE N°4/2013

!!!!!!!!!!! RETOUR SUR !!!!!!!!!!!!!! RETOUR SUR

André Deschamps Observatoire de Paris

Yves Rocard est celui qui a relancé la physique française après la seconde guerre mondiale, mais il a été bien plus. Il a su étendre sa compétence à un grand nombre de domaines différents de la physique, même ceux dont il n'était pas un spécialiste reconnu. En s'appuyant sur sa position de directeur du labora-toire de physique de l’Ecole normale supérieure, il a lancé de nouveaux champs de recherche et a créé de nombreuses équipes qui ont su se développer indé-pendamment de lui. Son sens applicatif immédiat fit de lui un physicien à part pour son époque.

Une jeunesse déjà atypiqueNé en 1903, il fut atteint d'une légère surdité dès

son plus jeune âge. Cette particularité, rare à ce jeune âge, en fit un quasi-autodidacte, qui tenait sa connais-sance principalement de la lecture.

D'un autre côté il se retrouva orphelin de père en 1918. Son père, pilote de chasse fut abattu peu de temps avant la fin des hostilités. On se souviendra que le terme de chasse aérienne vient du fait que ces premiers combattants aériens se tiraient dessus à coup de fusil de chasse...

A 17 ans, alors qu'il n'avait pas encore le baccalau-réat, il achète la « théorie statistique en thermodyna-mique » de Lorentz, où il trouve une explication du bleu du ciel.

Tout ceci ne l'empêcha pas d'être reçu à la fois à Polytechnique et à l'Ecole normale supérieure en 1922 ; il détermina toute sa carrière en choisissant la rue d'Ulm.

En 1924, il a 21 ans et publie son premier article pour son DES « Sur la théorie de la diffusion de la lumière dans les fluides ». Ce n'est que plus tard qu’il reprit ses expériences en préparant une thèse de mathématiques qu'il a soutenue en 1927 sur « l'hy-drodynamique et la théorie cinétique des gaz », puis une thèse de physique qu'il a défendue en 1928 sur la « diffusion de la lumière dans les fluides ». Dans ses calculs, Yves Rocard modifia une célèbre formule d'Einstein datant de 1905 sur la diffusion de la lu-

mière et déduite de la non moins célèbre formule de Lorenz-Lorentz. Ce travail devait permettre le calcul de la valeur du nombre d’Avogadro avec une préci-sion inégalée avant l'apparition du calcul électronique. Jean Perrin devait par la suite développer ce calcul pour appuyer une de ses nombreuses hypothèses dans son ouvrage sur ce qui était alors « l'hypothèse atomique ».

Yves Rocard fit une théorie non quantique de la diffusion, montrant que celle-ci devait se faire avec un changement de fréquence. Lors de son DES, en 1924, il avait remarqué que le spectre lumineux n'était plus exactement le même avant et après diffusion, mais cette observation avait été mise de côté par ses professeurs comme étant erronée. Faute de moyens suffisants, il fut empêché de mettre en œuvre un sys-tème de mesure permettant de démontrer ce phéno-mène. Cette mise en évidence fut faite en 1928 par le physicien indien Chandrashekhara Venkata Râman, qui reçut le prix Nobel en 1930 pour l'effet qui porte son nom. Yves Rocard fut touché par cet événement, il est assez probable que son attitude vers la mise en œuvre de moyens techniques adaptés fut influencée par cette affaire.

Un peu de mécanique pratique…A la même époque un de ses camarades,

Maurice Julien, qui travaillait chez Citroën, lui deman-da de faire une étude sur les vibrations des véhicules. Bien que préparateur, mais grand travailleur, Yves Rocard se lança dans les études de mécanique des vibrations, on sait aujourd'hui qu'il en devint le plus grand spécialiste ; ses ouvrages dans le domaine font toujours référence.

La problématique de l'époque portait sur l'amélio-ration du confort des véhicules à traction avant dont Citroën était le précurseur.

Par ses calculs, Yves Rocard démontra que si un véhicule franchit un obstacle étroit, plus il va vite, et moins le conducteur doit sentir l'obstacle. Cette af-firmation est pour le moins surprenante, et dépend certainement du réglage de suspension et de son fac-teur d'amortissement. Par contre, ses calculs étaient effectués pour une « Deux Chevaux » (la fameuse 2 CV Citroën), dont le faible amortissement est resté

Yves Rocard ou le dernier des Mohicans

REE N°4/2013 Z 111

Yves Rocard ou le dernier des Mohicans

légendaire. Néanmoins, l'expérience fut tentée jusqu'à 60 km/h, avec succès. Yves Rocard avait eu raison contre les idées reçues à l'époque. La direction technique de Citroën fit cependant arrêter ces essais, eu égard à l'état des butées. Bien plus tard, lorsque Yves Rocard était au Sa-hara, il demanda à son chauffeur de retenter l'expérience sur un oléoduc, mais, celui-ci était trop haut, et le vé-hicule resta suspendu en équilibre. On imagine très bien la surprise des dépanneurs...

A la même époque, il découvrit un nouveau type d'instabilité des systèmes couplés : lorsque deux systèmes oscillants sont couplés, les fréquences propres de chacun des oscillateurs changent en s'éloignant l'une de l'autre. Par contre, s'il y a un apport d'énergie extérieure et dans certaines condi-tions, les fréquences propres des deux systèmes peuvent se rapprocher, devenir égales, et le système devient instable. Il mit ce principe en application en refaisant les calculs concer-nant les ailes de certains chasseurs français dont la vitesse de piqué était limitée sous peine d'arrachement.

Une illustration connue de ce principe fut la destruction du pont de Tacoma aux Etats-Unis sous un vent très faible. Alors que les calculs avaient été faits pour de fortes tem-pêtes. Une vidéo de ce phénomène peut être visualisée en entrant « tacoma » sous n'importe quel moteur de recherche.

Bien plus tard, ce même principe fut utilisé pour démon-trer la stabilité du pont de Tancarville.

Et un peu d’électronique appliquéeEn 1928, Yves Rocard abandonna un hypothétique poste

de maître de conférences pour entrer à la Radiotechnique. Nous voilà loin de la mécanique...

La lampe de base de l'époque était la triode à chauffage direct, c’est-à-dire par un courant alternatif dont les effets produisaient des signaux parasites. Yves Rocard apporta le chauffage indirect : le filament chauffe une anode isolée électriquement, supprimant ainsi ces perturbations. Il inventa aussi la penthode : deux grilles supplémentaires. Un brevet fut pris mais la construction de cette lampe fut abandon-née. Peu de temps après, les Américains la redécouvrent, la fabriquent et la commercialisent.

En 1938, il quitte l’industrie pour occuper un poste de maître de conférences à Clermont-Ferrand, puis en 1939, de

maître de conférences à Paris. C’est pendant cette période (en 1940), qu'il mit au point une voiture élec-trique, la « Simca 5 ». Encore un tra-vail de précurseur.

Les années de guerreC'est donc à Paris qu'il réside lors

de l'occupation. Sa position univer-sitaire lui permet d'avoir un laisser passer pour la zone libre. En 1940, il retrouve Jean Cavaillés, un camarade qui monte un réseau de résistance. Mais la transmission de messages vers Londres pose quelques pro-blèmes. Yves Rocard utilisera son laisser passer pour prendre contact avec un réseau lyonnais et trans-mettre les messages par ce canal.

Les Allemands possédaient des installations en Norman-die permettant de guider les bombardiers vers l’Angleterre. Le dispositif était composé d'une locomotive tournant sur un rail circulaire en tractant les émetteurs et les antennes. La facilité de déplacement d’Yves Rocard fit qu'il fut envoyé sur place pour observer et interpréter ce dispositif, ce qui lui sauva la vie. C'est en effet pendant ce déplacement que Cavaillés fut arrêté et fusillé. Par la simple observation, Yves Rocard déduit la fréquence des signaux et le type de modu-lation, dans son rapport, il proposa une méthode de brouil-lage. Le réseau auquel appartenait Cavaillés étant découvert, Yves Rocard partit vers Londres en septembre 1943. Il tra-vailla avec le Dr Jones, responsable de la recherche scien-tifique britannique, puis intégra le BCRA, qui devait devenir la DGSE.

En 1944, il fut envoyé en Algérie pour tenter d'établir une liaison radio entre la Corse, qui venait d'être libérée et la Pro-vence. Bien que n'étant pas militaire, il fut assimilé au grade de capitaine et nommé ingénieur principal et responsable du service d'études et de recherches des constructions navales de la Marine nationale. Il put mener un certain nombre d'ac-tions, dont des parades contre les bombes planantes et les torpilles acoustiques. On se souvient qu'à cette époque, aus-si bien les Allemands que les Alliés menaient des recherches sur ce qu'ils appelaient la « bombe parfaite », c’est-à-dire la bombe téléguidée, l'ancêtre de nos missiles à courte portée.

Pendant ces années de guerre, et particulièrement à Londres, Yves Rocard rédigea un petit fascicule, dont le titre était « coordination », et dans lequel il faisait le démonstration scientifique de l'inutilité de celle-ci, entendez « l’état major ».

Figure 1 : Yves Rocard en uniforme d’officier de la Marine nationale.

jphauet
Rectangle

REE N°5/2013 Z 117

Ingénieur général des minesRéférent énergie au Conseil général de l’économie

ENTRETIEN AVEC GILLES BELLEC

REE : L’établissement et le dévelop-pement du marché intérieur euro-péen dans le secteur de l’énergie constituent l’un des objectifs assi-gnés à l’Union européenne. Peut-on en faire le bilan ?G. B : Le traité de Rome avait exclu l’électricité du marché intérieur euro-péen. L’extension du marché intérieur au secteur électrique a été prise en 1992 au traité de Maastricht, en même temps que la création de l’euro. Elle repose sur un postulat : la concurrence vaut mieux que les monopoles verticaux traditionnels, d’autant plus qu’ils sont à l’étroit dans leurs frontières nationales. Mais la mise en place de la concurrence nécessite une organisation de marché qui a aussi un coût. Celui-ci est-il infé-rieur aux surcoûts générés par les mono-poles, dont le comportement n’est ja-mais idéal ? Dans la pratique, la réponse dépend des situations.

L’électricité est de toute façon un sec-teur où l’intervention publique joue un rôle central.

En France, on avait l’Etat et les com-munes. On a ajouté l’Europe. Aux USA, ce sont les Etats de l’Union qui comptent. Washington joue un rôle de coordination pour les échanges entre Etats, sans plus. Le projet européen est beaucoup plus ambitieux car il vise aussi le secteur de la distribution de l’électricité et va jusqu’au consommateur domestique.

Depuis 20 ans, en Europe, on essaye d’instaurer un système inspiré par les Anglais. C’est lent car les systèmes sont divers et bien ancrés dans l’histoire de chaque Etat membre. On ne peut pas encore dresser un bilan de cette décision politique. En fait, on ne pourra jamais savoir si c’était une bonne décision. Car entre temps, au milieu du gué, l’orienta-tion politique a changé. L’environnement

a écrasé toute autre politique. Ce sont les Allemands qui ont commencé unila-téralement cette évolution il y a une di-zaine d’années, avec leur première sortie du nucléaire et une politique volontariste en faveur des énergies éoliennes puis photovoltaïques. Plus tard les quotas de carbone ont été décidés au niveau euro-péen et, en 2009, l’objectif d’utiliser au moins 20 % d’énergies renouvelables en 2020.

Le développement des énergies re-nouvelables intermittentes a été massif. Son ampleur est unique au monde. L’Eu-rope réalise, à elle seule, 70 % des inves-tissements mondiaux du secteur, alors qu’elle ne pèse que 20 % du PIB mon-dial. L’Allemagne fait la course en tête avec entre 100 et 200 Md F déjà investis.

Traditionnellement, la politique éner-gétique comporte trois objectifs : sécu-rité d’approvisionnement, compétitivité économique et environnement. Mais la convergence entre ces trois objectifs a ses limites. La priorité donnée à l’envi-ronnement a fait exploser cette conver-gence superficielle.

Et cette politique de l’environnement fonctionne mal. Par exemple, on a mis en place un marché du carbone pour protéger le climat. Mais, avec un prix de 5 F par tonne de CO2, ce marché ne joue pas son rôle d’incitation à la réduction des émissions. Résultat : les Allemands, champions des dépenses pour l’envi-ronnement, utilisent aujourd’hui plus de charbon et moins de gaz qu’auparavant, ce qui est contraire au but poursuivi.

REE : Peut-on dire au moins que la sécurité du système électrique reste assurée ?G. B : Le système est beaucoup plus complexe qu’avant car on a multiplié le nombre d’acteurs avec une coordination très faible entre eux et on a connecté en plus des milliers de sources de produc-tion aléatoires. Mais les opérateurs réus-sissent à le faire fonctionner. Il n’y a pas eu à ce jour de black out et la pénurie n’est pas à craindre pour l’instant. Mais on s’inquiète. Un exemple : RTE nous rassure chaque année sur le passage de l’hiver. Il y a peu, ce genre de question ne se posait plus.

C’est plutôt le coût du changement qui est inquiétant.

La compétitivité du système se dé-grade fortement. Cela arrive au mauvais moment car la compétition internationale est plus dure. Aux USA, c’est l’inverse : le gaz de schiste permet une baisse du prix de l’électricité et de la pollution de l’air. En Europe, le consommateur domes-tique va voir sa facture augmenter de 25 %. C’est déjà le cas en Allemagne. On ne peut pas incriminer un change-ment de conditions extérieures, comme un choc pétrolier par exemple. Car la hausse est la conséquence directe des décisions politiques prises en Europe.

REE : La Commission est-elle prête à tirer les leçons de ce demi-échec ?G. B : La Commission européenne com-mence à admettre ce bilan mitigé et en-visage des changements. En Allemagne, la réorientation de la politique électrique est un sujet clé pour la coalition. Dans ce pays, une certaine fatigue du consom-mateur s’exprime face à la hausse des prix. Par rapport à la France, les tarifs d’électricité y sont deux fois plus élevés pour les particuliers mais ne le sont pas

L'électricité en réseau dépend toujours

de la régulation publique. Entre prix bas, environnement

et sécurité, il faut choisir

Tensions dans l'Europe des renouvelables

118 Z�REE N°5/2013

plus pour les entreprises. En Allemagne, le coût des politiques non compétitives est payé par les citoyens/consomma-teurs et les exportateurs en sont dispen-sés. Une telle répartition de l'effort n'est pas ancrée dans la culture économique et politique française.

Une période de changement est donc devant nous en Europe. Le partage des rôles entre l’Europe et les Etats membres n’est pas stabilisé non plus. Faut-il alors aller vers plus ou moins d’Europe ?

On ne reviendra pas sur ce qui a été réussi : l’optimisation à court terme du fonctionnement des centrales de pro-duction au niveau européen, grâce au développement des interconnections et à la création du prix spot électrique sur le marché de gros. Des progrès sont encore à prévoir mais cela fonctionne.

Mais actuellement pour le long ter-me, ce sont les Etats et eux seuls qui définissent le cadre réglementaire des investissements. Une renationalisation subreptice du secteur électrique a eu lieu. Au nom du traité de Lisbonne, chaque Etat choisit son mix électrique sans se soucier de ses voisins : nucléaire, éner-gies nouvelles, etc. Les décisions prises séparément par les Etats membres au nom de l’environnement ont détruit l’espace où la concurrence aurait pu s’exercer. Aujourd’hui la totalité des inves-tissements se réalise hors concurrence alors que l’Europe avait imaginé l’inverse : la centrale de Bretagne, largement sub-ventionnée en apporte une illustration.

On pourrait imaginer de se contenter du statu quo actuel dans lequel le court terme relève de l’Europe et où le long terme relève de chaque Etat, mais ce n’est sans doute pas possible. Le secteur électrique doit rentrer dans la vision glo-bale et politique que l’on a pour l’Europe.

La régulation électrique est de toute façon très complexe, c’est une sorte de mikado réglementaire européen et national. Le plus probable, c’est une évo-lution par touches successives, parfois dans un sens puis dans un autre. Dans le système électrique, tout se tient et il

est difficile de savoir où on en sera dans quelques années.

REE : Le grand public n’y comprend plus grand-chose dans ce jeu de rôle dont il est spectateur. Va-t-il sortir indemne ?G. B : C’est vrai, un acteur a été occulté dans tous les pays : c’est le consomma-teur. On l’a couvert de dettes et transfor-mé en contribuable sans lui demander son avis. Par le jeu des tarifs de rachat pour l’éolien et le photovoltaïque, plus de 250 Md F de dettes cachées dans le système ont été contractées et cela augmente tous les jours. Le consom-mateur va être condamné à rembourser ces dettes sur sa facture d’électricité par des mécanismes dont il ignore jusqu’à l’existence comme la CSPE. Le consom-mateur, qui n’a pas encore réalisé ce qui l’attend, finira par se lasser et demander des comptes On lui parle de hausse de 5 % mais c’est une hausse de 25 % qui va finir par arriver. Et en Allemagne, c’est pire.

Cette hausse des coûts et donc des tarifs s’explique par la précipitation mise à changer de système, et surtout les coûts très élevés des énergies renou-velables. Les consommateurs ne sont pas associés à cette évolution. Ils la sup-portent. Jadis, ils étaient protégés par un responsable politique chargé des tarifs de l’électricité. Aujourd’hui, le protecteur traditionnel n’existe plus et le consom-

mateur n’est plus dans la boucle. On souffre d’un déficit de démocratie car le consommateur a été transformé à son insu en contribuable. Cette évolution qui a ignoré le consommateur est para-doxale en Europe. On entend souvent dire que l’Europe privilégie les consom-mateurs au risque d’engendrer du chô-mage car les producteurs exposés à la concurrence ferment les usines. Dans le secteur électrique, cette analyse ne s’applique pas, les consommateurs ne sont pas favorisés et un système low-cost ne leur a pas été proposé dans le secteur de l’électricité. Les producteurs classiques n’ont pas été bien traités non plus, car de nombreux électriciens ne gagnent pas d’argent en Europe.

REE : Vous mentionnez le succès des énergies renouvelables en Europe. En a-t-on trop fait dans ce domaine ?G. B : On a fait trop tôt et surtout trop vite. On a fait trop tôt car on a beaucoup investi quand les matériels étaient à la fois chers et importés alors qu’un peu de patience aurait permis de profiter de la baisse de certains prix. Mais le photo-voltaïque reste encore très cher, surtout en France où les installateurs sont moins efficaces qu’en Allemagne. L’impatience va finalement coûter cher.

REE : Vous évoquiez précédemment le risque de coupures ? Le système élec-trique européen, et français en particu-lier, serait-il devenu vulnérable ?G. B : Il y a des problèmes en Europe, liés notamment au fait que l’Allemagne utilise les réseaux internationaux pour déverser ses surplus d’éolien et de photovoltaïque sur ses voisins, ce qui répartit sur un vaste espace les pro-blèmes qu’elle génère. L’Allemagne pro-fite de la flexibilité de l’hydraulique des Norvégiens, elle a déstabilisé les stoc-

Le consommateur a été couvert de dettes et transformé

en contribuable à son insu

Energies renouvelables : on a fait trop tôt et trop vite.

L’impatience coûte cher

jphauet
Rectangle

REE N°5/2013 Z 123

ENSEIGNEMENT & RECHERCHE

Nicolas Sennequier Directeur de la stratégie de l’Institut Mines-Télécom

Introduction« Le vénérable secteur [de l’enseignement supérieur] est sérieusement atteint de l’obsession du .com »1. Des précé-dents tels que celui du MP3, qui a remis en question dans

les années 1990 la position de nombreux acteurs de l’industrie de la musique, inspire certainement cette « obsession ». De fait, la compa-raison ne peut être écartée. De nouvelles pratiques d’enseignement appuyées sur le numérique s’ajoutent depuis quelques années, de manière très visible, au modèle de référence qu’est la salle de cours physique. L’ancienneté de ce modèle – qui combine transmission orale, écriture et imprimerie – rend la mutation en cours de l’ensei-gnement supérieur d’autant plus profonde. Pour reprendre l’exemple de la musique, la transformation de l’écoute directe d’un interprète jusqu’à l’écoute en continu par l’Internet (“streaming”) s’est faite sur plus d’un siècle, en passant par le disque analogique puis numé-rique, puis par le fichier MP3.

Quelle forme prend actuellement l’irruption du numérique dans l’enseignement supérieur ? Nous examinerons cette question en partant d’abord de la chaîne de valeur de l’enseignement supérieur et de ses transformations à l’heure du numérique. Nous nous inté-resserons ensuite plus particulièrement à un apport récent et spéci-fique du numérique, à savoir la possibilité d’associer un (très) grand

1 “Dotcom mania now has the venerable [higher education] industry firmly in its grip”. The attack of the MOOC. In The Economist, July 20th, 2013.

nombre de participants à une formation. Puis nous illustrerons notre propos avec le cas d’un acteur en pointe pour la France sur ce sujet, l’Institut Mines-Télécom.

De nouveaux entrants dans la chaîne de valeur de l’enseignement supérieur

Aujourd’hui encore, la grande majorité des étudiants inscrits à une institution d’enseignement supérieur bénéficient d’un service composé d’une multitude d’éléments dont ils n’ont pas toujours conscience. L’acquisition de compétence par l’apprenant et la déli-vrance du diplôme par l’institution sont les deux chaînons les plus visibles d’une véritable chaîne de valeur, présentée dans la figure 1. Le cœur du dispositif est constitué de l’enseignement à proprement parler. On peut y distinguer une phase amont (de la définition des objectifs de la formation jusqu’à la construction du processus d’ap-prentissage), un « pendant » (la transmission du cours notamment) et un aval (l’évaluation certifiante et la délivrance du diplôme). A ces éléments fondamentaux s’en ajoutent d’autres, indiqués par les flèches horizontales sur la figure 1. Ces éléments peuvent être pour un étudiant un facteur important d’intérêt pour une formation, tel que l’insertion dans le réseau des diplômés, qui se réalise d’abord par la création d’un « esprit de promotion ». D’autres sont plus im-plicites, comme l’obtention par l’institution des accréditations qui donnent leur pleine valeur au diplôme (en France, généralement de la part du ministère chargé de l’enseignement supérieur) ou l’obten-tion d’éventuelles subventions récurrentes de l’Etat.

A la faveur des possibilités ouvertes par les technologies et les usages du numérique, l’intégration par un même acteur de cette chaîne de valeur est remise en question par de nouveaux entrants.

L’enseignement supérieur transformé à son tour par le numérique

Figure 1 : Modélisation simplifiée de la chaîne de valeur de l’enseignement supérieur.

124 Z�REE N°5/2013

ENSEIGNEMENT & RECHERCHE

En effet, des entreprises “pure players” de la Toile offrent des ser-vices sur un ou plusieurs segments. Nous proposons trois exemples parmi ces nombreux acteurs :

Coursera (www.coursera.org) a été créée en 2012 pour proposer à ses universités partenaires d’héberger des cours ouverts à tous et massifs (“Massive open online courses” ou MOOC ; nous revien-drons plus bas sur le caractère massif). Les cours sont « joués » sur l’infrastructure de Coursera où les apprenants trouvent à la fois un contenu et une communauté qui les accompagne dans leur acqui-sition de connaissances.Thinkful (www.thinkful.org), également apparue en 2012, propose d’acquérir en ligne des compétences en informatique. L’apprenant y trouve une orientation vers des contenus libres disponibles sur l’in-ternet et surtout un accompagnement personnalisé par un mentor.Sandbox (sandbox.is) s’est positionnée sur un créneau différent : la création d’une communauté de jeunes gens « entrepreneuriaux » dans un réseau. Les personnes sélectionnées par cette société par-ticipent à des activités collectives dont le but explicite est à la fois de faire mûrir leurs compétences professionnelles et de les mettre en contact entre eux.

Le « terrain de jeu » de ces nouveaux acteurs est souvent mondial et certains ont su se créer une visibilité en conséquence. Un indi-cateur parmi beaucoup d’autres illustre cette évolution : le nombre de requêtes reçues par le moteur de recherche de Google (www.google.fr/trends/explore). La figure 2 compare trois institutions pres-tigieuses d’enseignement supérieur et Coursera. Selon cette mesure rustique de la visibilité, Coursera dépasse l’Ecole normale supérieure et d’autres grandes institutions françaises telles que l’Université Pierre et Marie Curie et l’Université Paris Sud (non représentées dans la figure). Plus surprenant, Coursera dépasse également Princeton University (7e au classement de Shanghai 2013) et talonne l’Univer-sité de Californie à Berkeley (3e au classement de Shanghai 2013).

Ce nouvel entrant est installé à un haut niveau depuis plus d’un an : on a dépassé l’effet de circonstance.

Les acteurs « installés » de l’enseignement supérieur, universités et grandes écoles, se voient ainsi concurrencés sur de nombreux segments de leur chaîne de valeur par des acteurs agiles et mondia-lisés, qui ont dans leurs gènes la dynamique innovatrice qui caracté-rise aujourd’hui le numérique. Une prise de conscience semble avoir eu lieu en 2011 aux Etats-Unis, où les universités dépendent finan-cièrement des frais d’inscription de leurs étudiants. Cette année-là,

Figure 2 : Nombre de requêtes Google par semaine pour quatre institutions, sur la période janvier 2011-novembre 2013. L’indice 100 est le plus grand nombre de requêtes atteintes par une institution dans l’intervalle considéré.

Un cours en ligne ouvert et massif (MOOC) est, selon le modèle actuel, un cours en ligne ouvert à tous et auquel participent un nombre important d’apprenants – la barre du millier pouvant être un seuil approximatif pour juger de la massivité effective. « Ouvert à tous » signifie que l’inscrip-tion est sans conditions d’identification préalable auprès d’une institution d’enseignement supérieur, ni de niveau, ni de paiement pour le cœur de la prestation d’enseignement. L’équipe pédagogique propose aux apprenants du contenu (notamment sous forme de vidéos) et surtout organise des modalités d’interaction entre eux. Les formes les plus cou-rantes aujourd’hui pour ces interactions sont les forums et l’évaluation entre pairs. La constitution d’un groupe impor-tant est généralement facilitée par un cadencement hebdo-madaire du cours, qui commence à une date donnée et dure 4 à 12 semaines. L’investissement en temps pour l’appre-nant est généralement raisonnable, de deux à huit heures de travail par semaine. Enfin, un certificat peut être délivré à l’apprenant ; si une évaluation est mise en œuvre pour cela, elle est généralement payante.

jphauet
Rectangle

REE N°5/2013 Z 131

E st-ce un signe des temps ? Un retour de la métaphysique dans le champ quoti-dien ? Une préoccupation actuelle des physiciens, grâce à de nouveaux outils

et concepts ? Sans doute tout cela à la fois, et les ouvrages se font assez nombreux dont le titre évoque l’infini, et parfois les deux infinis, l’infiniment grand et l’infiniment petit, tous deux d’ordre spatial, car l’éternité, infini temporel et attribut quasi-divin, fait nettement moins recette depuis que chacun sait qu’il y eut un « Big Bang » originel…

De nombreux scientifiques se rangent sous cette bannière : ainsi l’Ecole polytechnique (http://www.physique.polytechnique.edu) présente son pôle thématique « Physique des deux infinis » qui fédère les spécialistes des particules élémentaires et ceux des sciences de l’univers. Plus générale-ment, le Groupement d’intérêt scientifique « Phy-sique des deux infinis » (GIS P2i, http://www.upmc.fr) regroupe une vingtaine de laboratoires franci-liens, avec une ambition de rayonnement mondial sur ce thème. Ce GIS est d’ailleurs partie prenante du Passeport pour les deux infinis, mentionné avec enthousiasme dans la rubrique « Vient de paraitre » du présent numéro de la REE !

Deux ouvrages de grand intérêt, mais de fac-ture et d’orientation fort différentes illustrent cette forte prégnence de l'infini. On ne s’étonnera pas de retrouver parmi eux le dernier ouvrage de cet immense et talentueux vulgarisateur qu’est Trinh Xuan Thuan, lequel confesse d’ailleurs : j’ai long-temps voulu écrire un livre sur l’infini. Voilà chose faite, pour le bonheur des lecteurs qui apprécient son talent à présenter de belles synthèses où la poésie voisine avec la physique, la métaphysique avec l’esthétique.

Ici nous somme comblés, et c’est peut-être le meilleur d’une belle série d’ouvrages, depuis La mélodie secrète : et l’homme créa l’univers il y a plus de 20 ans ! Avec sa volonté de faire sur l’infini une œuvre globale et complète, Trinh Xuan Trinh nous entraîne dans des directions fort variées, des mathématiques de Cantor à la poésie de Borgès, de l’esthétique du cosmos aux sugges-tives créations d’Escher ! Après nous avoir présen-té l’insoutenable étrangeté de l’infini puis la quête de l’infini mathématique, avec leurs paradoxes respectifs, l’auteur aborde des thèmes plus phy-siques en se posant les questions décisives sur le caractère fini ou infini de l’univers ; cela nous vaut de riches développements où la malice se glisse

dans l’évocation des grandes théories cosmolo-giques, avec des titres tels que Le chanoine belge et l’atome primitif, Le pape et le Big Bang.

On aborde ainsi de grandes questions de la science contemporaine, telles que la matière noire (ordinaire ou exotique !), l’univers (pourquoi il est si homogène, si plat et si structuré ?). A la métaphysique poétique de l’éternel retour, Trinh Xuan Thuan ajoute sa vision des multivers, mais sans éluder la redoutable question de leur accep-tabilité scientifique puisqu’il s’agit là de théories

non testables et non falsifiables (au sens de K Popper). Il nous entraîne aussi vers le Prin-cipe anthropique, dont il est un des plus illustres tenants et qui lui sert d’antidote au pessimisme de savants tels que Weinberg ou Monod. Avec Dyson, il pense que L’Univers savait quelque part que l’homme allait venir…

En conclusion c’est dans un beau voyage que nous entraîne ce merveilleux et savant conteur : à son terme, c’est à chacun de choisir celui des visages de l’infini qui lui convient…

Tout différent est l’autre ouvrage, « écrit à quatre voix » puisqu’il présente les conversations

qu’ont eues ensemble quatre éminents scienti-fiques, rassemblés par Sylvestre Huet pour parler de leurs travaux et de leurs conceptions : le chro-niqueur scientifique de Libération vient en effet d’initier, chez un sympathique « petit » éditeur, la collection 360 qui aborde de grandes questions scientifiques d’actualité, avec plusieurs repré-sentants reconnus du domaine. Cela donne des ouvrages vivants, où les idées s’enrichissent et se confrontent dans la bonne humeur, en restant à la fois précises et concrètes.

Ici sont rassemblés quatre spécialistes, très connus du grand public comme Etienne Klein et Michel Spiro, ou très engagés dans leurs domaines respectifs : Francis Bernardeau est théoricien en cosmologie et Sandrine Laplace expérimentatrice au LHC à Genève. Leurs dialogues s’articulent autour de trois grandes thématiques, auxquelles chacun apporte une vision spécifique : les enjeux scientifiques de la physique des infinis, la super big science en questions et, enfin, l’homme et la quête de l’infini. C’est un plaisir que de lire ces débats, vivants et argumentés, toujours modestes et souvent imprévus dans leurs développements, relancés par un journaliste à la fois averti et discret. On apprend beaucoup sur l’histoire et la philoso-phie des sciences, sur les coulisses de celles qui se font et sur les enjeux de celle qui se prépare : que peut-on espérer et comment faire de la physique après la découverte du boson de Higgs ? Com-ment mieux conforter, et par quelles expériences, le modèle standard ? Les scientifiques arriveront-ils à unifier le monde quantique et la relativité gé-nérale, à produire une théorie unitaire des quatre forces à l’œuvre dans l’univers ? Que faut-il pen-ser des modèles mathématiques sophistiqués, des multivers en particulier, dont jamais l’homme ne pourra tester la pertinence ? Ces questions tournent toutes autour de l’infini et pourraient don-ner le vertige, mais le dialogue à la fois vif et serein, enthousiaste et paisible, de nos quatre spécialistes est riche, sur les enjeux épistémologiques, géopo-litiques et sociétaux de la science.

L'éditeur a pris de pertinentes initiatives (un glossaire, quelques schémas synthétiques, les pistes de lecture de chacun des intervenants) et sa collection 360 mérite le succès : grâce à elle, le lecteur curieux d’une approche à la fois pluraliste et rigoureuse, pourra s’informer, s’enrichir et forti-fier son jugement sur l’infini mais aussi sur le cli-mat, le big bang, le nucléaire ou les multivers… Q

B. Ay.

Trinh Xuan ThuanDésir d’infiniÉditions Fayard

juillet 2013 - 400 p. - 21,50 F

Francis Bernardeau, Etienne Klein, Sandrine Laplace & Michel Spiro

La physique des infinisÉditions « La ville brûle » Collection 360

septembre 2013 - 208 p. - 20 F

CHRONIQUE

L’infini continue de nous fasciner !

132 Z�REE N°5/2013

LIBRES PROPOS

Philippe Vesseron

G lobalement, sur tous les continents, nous avons fait depuis cinquante ans des progrès fantastiques dans la maîtrise des risques naturels et technologiques. Mais est-ce

bien aussi le cas pour les risques liés au sous-sol ? Dans les difficultés actuelles de la gestion des risques et des ressources, quelle est ici la part des causes systémiques ?

essentiel des problématiques de l’énergie : on pense bien sûr au charbon, au pétrole, au gaz naturel ou à

de demain comme la géothermie à basse tempéra-ture, le stockage du gaz naturel ou le stockage géolo-gique du CO2. Dans tous ces cas d’ailleurs, les coûts, les rentabilités et les durées commandent assez direc-tement l’articulation entre énergie et sous-sol : il ne faut jamais raisonner sur l’énergie en oubliant l’économie, en particulier pour réussir la maîtrise des gaz à effet de serre. D’autres articulations fortes sont apparues

-diale : la connaissance du sous-sol est maintenant reconnue comme un élément important pour garan-tir la sécurité des centrales nucléaires ou des grands barrages, mais aussi pour gérer les premières consé-quences des changements climatiques comme le retrait/gonflement des argiles ou les modifications du trait de côte provoquées par l’élévation du niveau des mers. Sans oublier que pour beaucoup d’installations implantées par nature sur le littoral – centrales, ports

tsunamis sont des préoccupations durables.-

sibles à des coûts raisonnables et l’impératif de maî-trise des risques jouent, tantôt conjointement, tantôt al-ternativement, le rôle moteur dans les préoccupations sur le sous-sol. Dans à peu près tous les domaines des risques technologiques ou naturels, nous avons appris à agir préventivement ou à tirer des leçons des catas-

sinistre de la technologie où s’enchaînent Seveso

-

ont été apportés par la technologie elle-même, qu’il

de la sophistication des contrôles commandes ou de la simulation… et, spécifiquement pour le sous-sol, des progrès de la géophysique, de la géomodélisation, de la sismique ou des mesures aéroportées : qui aurait

technique et économique ou que la carte géologique

comme un outil informatique interopérable ? Et paral-lèlement les progrès du génie para-

la géochimie, la sécurité de l’offshore profond et ultra profond, la maîtrise des forages déviés… ont constitué

Des innovations françaises sont d’ail-leurs bien reconnues et ont permis de constituer des entreprises pétro-

lières, parapétrolières ou gazières, de tailles diverses, dont certaines sont maintenant très visibles au niveau

– cause ou conséquence ? – avec la diffusion des démarches de qualité dans la plupart des activités de production et de service.

vite : notre connaissance des caractéristiques du

qui se passe plus près de la surface ne sont pas

vraie couverture de géophysique aéroportée que sur quatre régions de démonstration… Et alors que nous avons plutôt des succès dans la prévention du risque

Energies, sous-sol

et maîtrise des risques

REE N°5/2013 Z 133

LIBRES PROPOS

sismique en métropole, pourquoi une réévaluation à

a-t-elle été si tardive, avec des conséquences lourdes pour les plannings des projets industriels dans cette

qu’il y a urgence économique et politique à réunir les bases d’un débat rationnel, combien de temps faudra-t-il pour disposer d’un dossier correct sur les

non conventionnels et sur les moyens disponibles

questions posées dans les îles de l’outremer français par la géothermie, le volcanisme et le risque sismique.

Dans le passé, l’investissement pour connaître le sous-sol a été largement associé à la prospection minière

avons besoin que des connaissances suffisantes soient durablement disponibles. Comment seront-elles pro-duites ? Quel archivage des données ? Quelle conser-vation des échantillons et des carottes prélevés quelle qu’ait été la motivation des forages ? Quel schéma de financement pour la constitution et l’utilisation d’une mémoire pérenne ? Quel investissement dans la for-mation des jeunes ?

maintenant organiser une fonction moderne de pro-duction, de conservation et de mise à disposition de l’information sur le sous-sol qui puisse répondre à des finalités multiformes : assurer dans de bonnes condi-tions les tâches de sécurité – du retrait/gonflement

en valeur des ressources – de la reconnaissance des hydrocarbures à cinq km de profondeur à l’évaluation de la capacité d’échange de chaleur par des sondes

rassembler les données utilisables dans l’avenir quand on recherchera des substances qui ne présentent pas d’intérêt aujourd’hui.

et des entreprises… : faut-il croire que demain tout ira

On a vu plus haut que la fin du XXe siècle a été marquée par une demande forte de maîtrise du « risque majeur »,

cette maîtrise appelle, en particulier dans le domaine de l’énergie, des méthodes, une stratégie et une régulation publique de bonne qualité, nationale ou internationale.

Nous avons progressivement dégagé des principes as-sez robustes comme la nécessité d’éviter les confusions de rôles entre maître d’ouvrage et maître d’œuvre, entre promoteur d’un projet, régulateur et autorité de sûreté, entre évaluation des risques et décision sur les risques. Et simultanément, nous avons appris l’importance d’as-

de la transparence, des bonnes pratiques de la publi-

décisions… Nous avons aussi entrepris la clarification du sens du « principe de précaution » mais il y faudra du temps… Ces évolutions partent de principes relativement

des décisions qu’ils s’apprêtent à prendre, à formaliser les avantages et inconvénients qu’ils mettent en balance, à préciser pour l’avenir les besoins d’amélioration des connaissances, la création de dispositifs de suivi, d’obser-

de modestie et de loyauté. Beaucoup de ces idées ont

acceptées sans réticences initiales par une administration -

de tout petits projets sont devenus, en théorie au moins,

publique. Situation d’autant plus étrange qu’au même

toutes ces transformations, les questions de l’énergie ne sont plus chez nous le moteur de l’évolution de la connaissance du sous-sol et, pour sa part, la Commission

jphauet
Rectangle
jphauet
Texte tapé à la machine
Vous voulez... Vous abonner à la REE ? Acheter un numéro ? Cliquer ICI Ou bien téléphoner au 01 56 90 37 04