aperçu du numéro 2015-5 de la ree (janvier 2016)

31
ÉNERGIE ÉNERGIE TELECOMMUNICATIONS TELECOMMUNICATIONS SIGNAL SIGNAL COMPOSANTS COMPOSANTS AUTOMATIQUE AUTOMATIQUE INFORMATIQUE INFORMATIQUE Numéro 2015 EDITORIAL L ’Europe, l’énergie et les réseaux intelligents Michel Derdevet Secrétaire général ERDF ENTRETIEN AVEC Philippe Pradel Vice-président Développement nucléaire ENGIE www.see.asso.fr 5 ISSN 1265-6534 Les brevets, clef des stratégies de propriété industrielle Par Jean-Charles Hourcade L'ARTI C L E INVITÉ DOSSIER DOSSIER Cet aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE de découvrir le sommaire et les principaux articles du numéro 2015-5 de la revue, publié en janvier 2016. Pour acheter le numéro ou s'abonner, se rendre à la dernière page.

Upload: jean-pierre-hauet

Post on 25-Jul-2016

236 views

Category:

Documents


3 download

DESCRIPTION

Cet aperçu permet de découvrir le sommaire et les principaux articles du numéro REE 2015-5 publié en janvier 2016 - Pour s'abonner, merci de vous rendre à la dernière page.

TRANSCRIPT

Page 1: Aperçu du numéro 2015-5 de la REE (janvier 2016)

ÉNERGIEÉNERGIE TELECOMMUNICATIONSTELECOMMUNICATIONS SIGNALSIGNAL COMPOSANTSCOMPOSANTS AUTOMATIQUEAUTOMATIQUE INFORMATIQUEINFORMATIQUE

Nu

mér

o

2

015 EDITORIAL

L’Europe, l’énergie et les réseaux intelligents

Michel DerdevetSecrétaire général ERDF

ENTRETIEN AVEC Philippe Pradel

Vice-présidentDéveloppement nucléaire

ENGIE

www.see.asso.fr

5

ISSN

126

5-65

34 Les brevets, clef des stratégies de propriété industriellePar Jean-Charles Hourcade

L'ARTICLE INVITÉ

DOSSIERDOSSIER

Cet aperçu gratuit permet aux lecteurs ou aux futurs lecteurs de la REE dedécouvrir le sommaire et les principaux articles du numéro 2015-5 de la revue,publié en janvier 2016. Pour acheter le numéro ou s'abonner, se rendre à ladernière page.

Page 2: Aperçu du numéro 2015-5 de la REE (janvier 2016)

��

��

���������� ���������� ����������������������������������������

��������������������������������� ������������� !�"#�������

$������������������������%�&'���

�������������� �� ����������������� �������������� ������������� ������������������������������� !��"#� �$��%&#�����'���� ������ �����������������(����������� �������������)�������������

���*�����$ +������,�����-$��'�$���.�� ���/������������� ���0������������� ��� �������������%&#� ���'����1��������*�����$ +�������,�����-$���-�� ��� �0������������ ���2 ������������ ��� 0������������� ����3���� �4��-�#������ (�,�� �� �- ���"���$����������������������������*�� ���$ +����� ��$-��"�-��$�� �%&#�����'������%&#� �������-����.������*���-5�"-�$ �� ����#$����� 4-���%��$��'�����-6���"��%���-�����7����"���%��$��%���%����-��� " �����

�������������� �������������������� ������������ � �

�������������� ��������� ��������� ������������ ���������������� �����!�!"�������#�����������#���������� �

$��%������������������ � �&���������� �"%' ��(��#���������������� ��������!����)������� �!��*+����!��,��������� �

��������-������� ������������� ��� $��������!�-��� ���.�!� ��� ������ �-������ �����������(�!��������� ���������� �

������������ �������������� � ��������� �����/�������!��� �� ������� �0������������ �%��������1/����2��"������3��!��

���.�������(��������� �45*46*6789��-� ���������:��# ��������#�!!%��� ;���.���������' ��-� ��!��!�������������!��.�!������������!��������-�!�������������������������

����������� ����������������-�����7�$��'���,� )��-��%��$8�� ��$�����$ ��,�)0)2.�9�� ����%�5� (�, �������,���$���..� 0(�/��.)� )�,����:���������!��

�������������������������� ����!"#"��

Page 3: Aperçu du numéro 2015-5 de la REE (janvier 2016)

REE N°5/2015 � 1

A u-delà de la COP 21, la France et l’Europe conservent pour les prochaines années une responsabilité particulière : celle de continuer à être force de propositions afin de faire de la

transition vers une économie décarbonée une réussite à la fois économique et sociétale.

On l’oublie trop souvent, les Européens furent les pre-miers à faire de la lutte contre le dérèglement climatique une grande politique structurante de ce demi-siècle.

Mais, pionniers, nous nous trouvons encore en première ligne face aux nombreux défis technologiques (déploie-ment de nouveaux moyens de production, renouvelables et décentralisés, rénovation massive des parcs immobi-liers, invention de nouveaux modèles énergétiques lo-caux), sociétaux (acceptabilité d’une évolution des modes de vie) et économiques (activation de circuits de finan-cement innovants et mobilisation de l’épargne) qui struc-turent la transition énergétique.

La manière de relever ces défis dépendra des choix faits dans chaque État membre (et même, de plus en plus, dans chaque région ou collectivité de l’Union), mais les solutions trouvées auront en commun de devoir s’insé-rer dans des systèmes énergétiques dont les réseaux de transport et de distribution, d’électricité ou de gaz, four-nissent déjà, sur des millions de kilomètres, l’architecture.

Continuer à « faire système », grâce aux réseaux, afin de délivrer une énergie dans les meilleures conditions d’effi-cacité et de coût, est ainsi l’impératif absolu pour la sécu-rité d’approvisionnement des Européens, notre confort de vie, la compétitivité de nos entreprises et donc pour nos emplois. L’Europe est la zone du monde qui offre les ser-vices énergétiques de la meilleure qualité ; cet atout doit être conforté.

Or, les réseaux énergétiques européens sont soumis à un cahier des charges profondément renouvelé dans ce

contexte de transition énergétique, puisque leur organisa-tion doit désormais permettre :

d’accompagner la décentralisation, les moyens de pro-duction renouvelables étant dispersés en centaines de milliers de sites sur l’ensemble des territoires. Cela impose de repenser en profondeur les réseaux, no-tamment de distribution, qui n’ont pas été initialement conçus pour cette fonction de collecte des énergies renouvelables ; de piloter une complexité d’un ordre nouveau en rai-son de la variabilité de certaines énergies renouvelables (éolien, photovoltaïque) mais aussi de l’émergence de nouveaux usages, tels les véhicules électriques ;d’assurer les solidarités entre les Etats et régions, dans un contexte où les incertitudes technologiques des filières nouvelles viennent s’ajouter à celles, plus anciennes, d’ordre géopolitique ;de continuer à garantir un égal accès aux services éner-gétiques, sans que la transition devienne un facteur de discrimination à l’encontre des citoyens les plus fragiles économiquement.

Mettre les intelligences en commun pour adapter les ré-seaux est une nécessité si les Européens veulent réussir la transition énergétique. L’article 194 du Traité de Lisbonne trace déjà la voie à une intervention plus forte de l’Union en la matière. Mais les Européens doivent aller au-delà et explorer au plus vite de nouveaux espaces de coopéra-tion, d’innovation et d’investissements conjoints.

Le défi est de taille car des centaines de milliards d’inves-tissements devront être engagés d’ici à 2030, et il n’est nul besoin d’argumenter pour se convaincre que, dans une Europe convalescente, chaque euro devra être investi avec le plus grand souci d’efficacité pour nos collectivités.

Cette « Europe énergétique en réseaux », que nous ap-pelons de nos vœux, ne sera pas qu’un défi physique, technique ou économique. Elle devra aussi incarner ces « singularités partagées » qui caractérisent aujourd’hui

L’Europe, l’énergie et les réseaux intelligents

EDITORIAL MICHEL DERDEVET

Page 4: Aperçu du numéro 2015-5 de la REE (janvier 2016)

2 ��REE N°5/2015

l’espace énergétique européen : à la verticalité des hié-rarchies, nationales, succèdera l’horizontalité de la com-munication entre les territoires ; à l’autorité des pouvoirs en place, la légitimité du citoyen, de l’initiative et de la réussite ; à l’uniformité industrielle, la diversité des mo-dèles d’organisation ; à un univers d’Etats, le flux des échanges sur l’espace européen.

Plus que jamais, il faut d’urgence faire émerger une approche européenne cohérente et pragmatique dans le domaine des réseaux, pour résoudre les difficultés d’aujourd’hui, et répondre aux défis de demain. Et nous devons organiser nos efforts autour de trois axes majeurs :

rénover la sécurité d’approvisionnement et la coopération entre les entreprises de réseaux, mais aussi les collectivi-tés locales porteuses de la transition énergétique ; renforcer les coordinations des régulations et les leviers de financement pour optimiser les coûts des infrastruc-tures, tout en investissant sur les territoires traversés par ces infrastructures stratégiques ;

promouvoir l’Europe en leader de l’innovation énergé-tique, en donnant un nouvel élan et une nouvelle dimen-sion à sa R&D, notamment à travers la normalisation, la création d’une plate-forme des données énergétiques, la mise en place de corridors des mobilités innovantes ou encore la fondation d’un Collège d’Europe de l’Energie.

Le 9 mai 1950, Robert Schuman évoquait le fait que « l’Europe ne se fera pas d’un coup, ni dans une construc-tion d’ensemble : elle se fera par des réalisations concrètes créant d’abord une solidarité de fait ». Plus de 65 ans plus tard, une vraie politique européenne en matière d’infrastructures énergétiques irait à l’évidence dans cette (juste) direction, et donnerait un contenu concret au concept d’ « d'Union de l’énergie ».

Michel Derdevet est secrétaire général et membre du directoire d’ERDF.

Il est maître de conférences à l’IEP de Paris, professeur au Collège d’Europe de Bruges.

Page 5: Aperçu du numéro 2015-5 de la REE (janvier 2016)

4 ��REE N°5/2015

sommaireNuméro 5 ����

1 EDITORIAL L’Europe, l’énergie et les réseaux intelligents

Par Michel Derdevet

4 SOMMAIRE

6 FLASH INFOS Thread : vers un standard de fait de l’Internet des objets ?8 Le MIMO massif10 Des composants de nouvelle génération pour la traction électrique13 Sécurité des mobiles et de l’Internet des objets (IoT) :

un micronoyau compatible POSIX14 Survol de Pluton par la mission NASA “New Horizons”15 Après Solar Roadways et SolaRoad, voici Wattway17 Bientôt des smartphones dotés d’une caméra 3 D ? 18 Collecter l’énergie des ondes électromagnétiques avec

un rendement voisin de 119 Selon l’Organisation météorologique mondiale (OMM), les teneurs

en gaz à effet de serre l’atmosphère continuent à croître21 Le prix Nobel de physique 2015, une étape supplémentaire

dans l’histoire du neutrino

25 ACTUALITÉS L’Accord de Paris 29 Maison Ampère de Poleymieux : inauguration de l’Espace

Ampère et signature du contrat de mécénat avec RTE

30 A RETENIR Congrès et manifestations

32 VIENT DE PARAÎTRE La REE vous recommande

34 ARTICLE INVITÉ Les brevets, clef des stratégies de propriété industrielle

Par Jean-Charles Hourcade

44 RADAR 2014 Radars à antennes électroniques : Plus sensibles

et plus agiles au prix d’une complexité accrue Introduction Par Sylvain Azarian

47 Analyse et comparaison de formes d’ondes pour le radar MIMO Par Hongbo Sun, Frédéric Brigui, Marc Lesturgie

55 Codage spatio-temporel multi-rafales pour systèmes à antenne active

Par Guy Desodt, Georges-Edouard Michel, Jean-Paul Guyvarch, François Le Chevalier, Olivier Rabast

p. 1

p. 44

p. 34 p. 97

Photo de couverture : © Stéphane Saillant - Onera

Page 6: Aperçu du numéro 2015-5 de la REE (janvier 2016)

REE N°5/2015 � 5

ets

06

64 Ordonnancement des tâches pour radar multifonction avec contrainte en temps dur et priorité

Par Vincent Jeauneau, Frédéric Barbaresco, Thomas Guenais

75 Antenne active multi-facettes à balayage électronique en tech-nologie « tuile »

Par G Byrne, A M Kinghorn, R W Lyon et G D Morrison79 Nouveaux développements pour les antennes actives

et les modules T/R Par Yves Mancuso, Christian Renard83 Suppression des directions aveugles d’une antenne réseau

grâce aux métamatériaux Par Thomas Crepin, Cedric Martel, Benjamin Gabard,

Fabrice Boust, Jean-Paul Martinaud, Thierry Dousset, Pablo Rodriguez-Ulibarri, Miguel Beruete, Claudius Loecker, Thomas Bertuch, Jose Antonio Marcotegui, Stefano Maci

89 RETOUR SUR ... Les grandes étapes des télécommunications intercontinentales

Le câble, la radio, le satellite Par Bernard Ayrault

97 ENTRETIEN AVEC... Philippe Pradel

Vice-président développement nucléaire ENGIE ENGIE et le développement du nucléaire

101 ENSEIGNEMENT & RECHERCHE Femmes et numérique Par Sandrine Vaton 107 Echos de l’enseignement supérieur Par Bernard Ayrault

109 CHRONIQUE L’homme et après…? Par Bernard Ayrault

111 LIBRES PROPOS Une lecture de Laudato si’ Par Gilles Bellec

117 SEE EN DIRECT La vie de l'association

27-29 JANUARY 2016TOULOUSE, France

CENTRE DE CONGRÈS PIERRE BAUDIS

Organized by:

www.erts2016.org

Page 7: Aperçu du numéro 2015-5 de la REE (janvier 2016)

6 � REE N°5/2015

FLASHINFOS

Thread : vers un standard de fait de l’Internet des objets ?

A l’occasion de son forum technique tenu à Paris le

1er octobre 2015, la société Freescale a présenté sa solur -

tion d’implémentation du protocole Thread destiné à

assurer la connexion sans fil entre objets communicants

dans le domaine de la domotique.

Thread est encore peu connu en France mais sa

montée en puissance est telle qu’il pourrait rapidement

devenir un standard de fait dans le domaine de l’inter-rr

net des objets, avant même d’être officiellement reconnu

comme norme par les instances internationales.

Thread est en effet soutenu par un consortium dénom-

mé Thread Group (http://threadgroup.org), formé en oc-

tobre 2014 et regroupant aujourd’hui plus de 220 membres

parmi lesquels la plupart des grands noms de l’électronique

internationale. Après la publication de la spécification 1.0

de Thread l’été dernier, plus de 30 produits ou composants

étaient en cours de certification à la mi-novembre 2015 et

des stacks logiciels certifiés en provenance d’ARM, de Free-

scale et de Silicon Labs sont à présent disponibles.

La cible visée par Thread est le marché de la domo-

tique, c’est-à-dire celui des Home Area Networks (HAN).

L’objectif de Thread est d’offrir une solution ouverte

permettant de connecter entre eux des équipements

domestiques par des liaisons sans fil, de façon simple,

économique et sûre et avec une très faible consomma-

tion d’énergie. Thread offre également la possibilité de

raccorder le réseau local à l’Internet et donc d’opérer à

distance toute sorte d’équipements (électroménager, sé-

curité, éclairage, contrôle d’accès…) à partir de tablettes

ou de smartphones (figure 1).

Thread apparaît ainsi comme un réseau local à faible

consommation pouvant s’interfacer, sans solution de conti-

nuité, avec l’Internet. Il fait partie de la catégorie des LLN

(Low Power and Lossy networks c-à-d réseaux à basse puis-

sance et avec pertes). Il tire parti de l’expérience acquise

lors des travaux menés au cours des dernières années pour

interfacer avec Internet les réseaux locaux développés sur

la base du standard IEEE 802.15.4 : ZigBee, WirelessHart,

ISA100.11a. Il partage avec eux beaucoup de points com-

muns : il s’agit en particulier d’un réseau capable de s’orga-

niser en réseau maillé, apte à reconfigurer le routage des

messages au cas où la défaillance d’un équipement vient à

interrompre un chemin de transmission.

Cependant Thread ne vise pas à atteindre les perfor-rr

mances exigées dans le domaine du contrôle industriel.

Thread n’est pas déterministe, il n’est pas fondé, comme

l’ISA100.11a, sur une répartition des slots de communi-

cation par multiplexage temporel (Time Division Mul-

tiple Access ou TDMA) : les équipements rentrent sur

le réseau par une procédure de « best effort » du type

CSMA-CA1 (utilisée dans ZigBee) afin d’éviter au maxi-

mum les collisions. Thread est conçu pour répondre aux

besoins de la domotique, avec des débits maximum sur

les segments de 250 kbit/s et une portée suffisante pour

couvrir correctement une maison.

On trouve dans un réseau Thread (figure 2) :

connectivité avec le monde « hors réseau » ;

des « devices » dotés de la capacité de routage et qui,

en règle générale, sont alimentés de façon permanente ;

donc à très faible consommation et pouvant être ali-

mentés par batterie et qui se réveillent sur événement

en entrant alors en communication avec le routeur

« parent » qui leur est assigné ; certains de ces devices

peuvent éventuellement devenir routeurs, ils sont quali-

fiés de REED (Router-Eligible End devices) ;

stockant les informations clés et les distribuant aux rou-

teurs.

Un protocole de routage, fondé sur la qualité obser-rr

vée des communications entre routeurs, permet de doter

chaque routeur d’une table de routage des messages.

1 CSMA-CA: Carrier Sense Multiple Access with Collision Avoidance.

Figure 1 : Schéma de principe de Thread.Source : d’après le Thread Group.

Page 8: Aperçu du numéro 2015-5 de la REE (janvier 2016)

REE N°5/2015 � 7

FLASHINFOS

Le mécanisme d’auto-cicatrisation permet à un routeur de

déceler un défaut dans une transmission vers un autre rou-

teur et de recalculer en conséquence la table de routage.

Un réseau Thread peut contenir plusieurs centaines

d’abonnés d’extrémité et jusqu’à 32 routeurs actifs, ce qui est

très largement suffisant pour les applications domotiques.

Le stack de communication Thread s’appuie pour l’es-

sentiel sur des protocoles existants (figure 3). Il repose au

niveau des couches basses sur le protocole de communi-

cation IEEE 802.15.4 (2006), ce qui permet de bénéficier

de la disponibilité de chips à très bon marché, dévelop-

pés notamment pour les besoins de ZigBee.

Au-dessus de ces couches basses, on trouve des

protocoles développés dans le cadre de l’Internet IPv6.

En particulier, le protocole 6LoWPAN2 qui joue un rôle

d’articulation fondamental entre le monde de l’IPv6 et

celui des réseaux locaux 802.15.4. C’est lui en particulier

qui règle les problèmes de compression d’en-têtes pour

passer des adresses à 128 bits de l’IPv6 aux adresses du

réseau local codées sur 16 bits. Le protocole 6LowPAN

assure également la fragmentation et le réassemblage,

des trames de l’IPv6 dont la longueur peut atteindre

1280 bytes, de façon à pouvoir les router avec le mini-

mum de « frais généraux » dans le réseau local où la lon-

gueur des trames ne doit pas excéder 127 bytes.

Au-dessus de la « glue » 6LoWPAN, on trouve le proto-

cole de couche 3 IPv6 qui est au cœur de la conception

du système et doit assurer l’interopérabilité entre tous les

équipements, locaux ou distants.

Les trames IPv6 sont routées par l’algorithme RIP

(Routing Information Protocol) issues du monde de

l’Internet. Quant à la couche transport, elle utilise, pour

avoir la dynamique nécessaire, le protocole UDP sécurisé

par DTLS (Datagram Transport Layer Security).

La couche application ne fait pas partie du stack

Thread. Elle est laissée au choix de l’utilisateur qui pour-

ra, en particulier, installer CoAP (Constrained Application

-

tinée aux équipements à faibles ressources.

En transversal, différents mécanismes de sécurité,

s’ajoutant à ceux de l’IEEE 802.15.4 sont implémentés.

Quels sont les points forts de Thread ?

-

mantes du monde des réseaux locaux et de l’Internet ;

-

nismes d’auto-cicatrisation ;

2 6LoWPAN veut dire “IPv6 Low Power Wireless Personal Area Networks”.

Figure 2 : Schéma simplifié d’un réseau Thread. Source : Thread Group.

Figure 3 : Le stack de communication Thread – Source : Thread Group.

Page 9: Aperçu du numéro 2015-5 de la REE (janvier 2016)

8 � REE N°5/2015

FLASHINFOS

Le MIMO massif

elliptiques et mécanismes sophistiqués d’échange de

de nouveaux équipements ;

consommations d’énergie.

Avec Thread on voit se profiler dans l’IoT et dans l’IIoT

(Internet industriel des objets) deux familles de réseaux

locaux sans fil couplés à l’Internet :

exigeantes en termes de temps de latence, taux de

perte de paquets, aléas dans les délais de transmis-

sion (jitter). Ces réseaux utiliseront des mécanismes

de séquencement temporel déterministes dérivés de

celui de l’ISA10.11a et qui seront conformes à la spé-

cification 6tisch de l’IETF (IPv6 over the TSCH mode

of IEEE 802.15.4e) ; la spécification de ces réseaux se

fait actuellement au sein du groupe de travail DetNet

(Deterministic Networking) de l’IETF ;

Thread répondant à un cahier des

charges moins exigeant et qui seront plus simples à

mettre en œuvre tout en offrant des niveaux de perfor-rr

mances et de sécurité élevés.

La solution Thread peut s’avérer la mieux adaptée

pour assurer à l’avenir les communications qui s’établi-

ront dans les logements en direction des équipements

électriques, à partir des boîtiers connectés aux comp-

teurs communicants du type Linky qui seront proposés

par les fournisseurs d’énergie ou les opérateurs d’effa-

cement. ■

JPH

Le MIMO massifLa technique MIMO, décrite dans les années 1990,

est utilisée dans beaucoup de systèmes de communica-

tion mobile récents. C’est notamment le cas de l’exten-

sion très haut débit de la 3G (HSPA+), des LTE et LTE-

Advanced, du WiMAX et des versions les plus récentes

du Wi-Fi (802.11n et 802.11ac). Elle consiste à tirer parti

de la diversité spatiale de propagation en multipliant les

antennes d’émission et de réception aux deux extrémités

du lien radio et donc le nombre de sous-canaux radio

MIMO présente deux avantages importants, il permet

d’une part « d’améliorer la qualité du lien en s’affranchis-

sant des évanouissements de canaux » et d’autre part

« d’augmenter le débit d’information sans augmenter la

bande passante ou la puissance transmise ».

Le MIMO multiutilisateur (Mu-MIMO) offre une capa-

cité d’accès multiples à un même canal de transmission

tout en utilisant le MIMO sur chaque liaison (à la façon de

l’OFDMA et de l’OFDM).

En principe, plus le nombre d’antennes est élevé, plus

la capacité du canal mesurée en bit/s.Hz augmente. Mais

les antennes doivent être espacées d’au moins une demi

longueur d’onde pour ne pas interférer et leur nombre

se heurte vite aux limites de taille qui s’appliquent no-

tamment aux terminaux mobiles, sauf à recourir à des

fréquences très élevées, aux alentours de 60 Hz par

exemple, auquel cas l’espacement est réduit à 2,5 mm.

C’est l’objectif du standard IEEE 802.11ad qui utilise des

ondes millimétriques à 60 GHz. Il est alors possible d’ins-

taller un très grand nombre d’antennes : c’est ce qu’on

appelle le MIMO massif, concept dérivé du Mu-MIMO

mais qui n’avait jusqu’alors fait l’objet que de travaux aca-

démiques (figure 2).

Les travaux relatifs aux systèmes de 5e génération consi-

dèrent également la possibilité de recourir au MIMO mas-

sif. Cette technique consiste à placer au niveau des stations

de base (BS) desservant une cellule, un grand nombre

d’antennes – des centaines voire des milliers – dépassant

largement le nombre de terminaux actifs dans cette cellule

qui eux n’ont qu’une antenne. Le grand nombre d’antennes

permet à la station de base de focaliser l’énergie rayonnée

dans un espace réduit autour du terminal avec lequel il

communique. Ainsi, d’importants progrès doivent pouvoir

être faits en termes d’efficacité spectrale et également de

consommation d’énergie (figure 3).

Pour être mis en œuvre, le MIMO massif comme le

MIMO classique, exige une connaissance des caractéris-

tiques instantanées des canaux radio disponibles : pour

le canal montant du terminal à la station, le terminal émet

périodiquement des pilotes à la réception desquels la

station de base peut estimer les caractéristiques des dif-

férents canaux. Concernant le canal descendant, à cause

de la mobilité du terminal qui impose de renouveler avec

une grande fréquence l’estimation et le nombre de canaux

à estimer, la transmission des résultats par les terminaux

n’est pas faisable car elle consommerait des ressources

considérables. C’est pourquoi on envisage en général un

MIMO massif s’appuyant sur un mode de fonctionnement

en TDD (Time Division Duplexing) où terminaux et sta-

tions de base se répartissent dans le temps la même res-

source en fréquences : on s’appuie alors sur l’estimation

de canal faite dans le sens montant en considérant que la

réponse du canal est la même dans les deux sens.

Page 10: Aperçu du numéro 2015-5 de la REE (janvier 2016)

REE N°5/2015 � 25

ACTUALITÉS

L’Accord de Paris

Initiée lors de la conférence de Durban sur les change-ments climatiques de décembre 2011 (la COP17), la négo-ciation sur un accord post-2020 sur le climat incluant tous les pays qui sont parties à la Convention cadre des Nations-Unies sur les changements climatiques (« la Convention »), est ar-rivée à son terme le samedi 12 décembre 2015 avec l’adop-tion d’un texte de 17 pages, appelé Accord de Paris, qui est annexé aux résolutions de la Conférence de Paris sur le cli-mat (la COP21, c’est-à-dire la 21e conférence des Parties à la Convention).

Cette adoption a été saluée à juste titre comme un grand succès diplomatique, à mettre au crédit des Nations-Unies mais aussi et surtout de la diplomatie française, emmenée par Laurent Fabius qui depuis trois ans, a organisé et conduit un travail de préparation remarquable, sur le plan technique et politique, permettant de parvenir à ce résultat qui, lors de l’adoption de la plate-forme de Durban, était considéré par beaucoup comme très incertain.

Mais aujourd’hui le texte est là, disponible à l’heure et tra-duit en français, anglais, arabe, chinois, espagnol et russe, chaque version faisant également foi. Il est précédé des ré-solutions de la conférence qui en constituent en quelque sorte le premier décret d’application et qui contiennent des dispositions essentielles à la compréhension de l’ensemble.

Il reste à savoir quel sera l’impact dans la durée de ce texte salué dans le monde entier : certains le considèrent

comme un évènement historique, d’autres l’estiment dé-cevant et insuffisant pour répondre au défi du changement climatique. Les développements qui suivent visent à don-ner à nos lecteurs certains éléments d’information et de compréhension sur le contenu de l’accord et sur sa portée exacte.

Les aspects juridiques

L’Accord de Paris s’appuie sur la Convention de 1992 et est destiné à en être approuvé par les Parties. Au stade ac-tuel, il n’est pas encore formellement signé : il a été déclaré par la COP apte à l’être. La période de signature d’une année s’ouvrira à New York, au siège des Nations unies, le 22 avril 2016 pour s’achever le 21 avril 2017. Puis débutera la période la plus délicate de l’adhésion effective des Etats, celle qui avait tant retardé l’entrée en vigueur du protocole de Kyoto. Cette approbation pourra prendre différentes formes selon les constitutions ou les lois propres à chaque Etat : ratifica-tion, acceptation, approbation ou adhésion. L’Accord pourra entrer en vigueur le 30e jour suivant le dépôt de leurs instru-ments de ratification par 55 Parties au moins à la Convention représentant un total d’au moins 55 % du total des émissions mondiales de gaz à effet de serre.

Il y a de bonnes chances que cette entrée en vigueur intervienne avant 2020, date à laquelle le protocole de Kyoto, prorogé par l’amendement de Doha sur la période

Photo 1 : A la tribune, lors de l’adoption de l’accord de Paris, Laurence Tubiana, Christiane Figueres, Laurent Fabius et François Hollande. Crédit photo : COP21.

Page 11: Aperçu du numéro 2015-5 de la REE (janvier 2016)

26 ��REE N°5/2015

ACTUALITÉS

2013-2020, s’éteindra de lui-même faute d’être prorogé au-delà1. Mais la chose n’est pas certaine. Il est possible que des difficultés surgissent, aux Etats-Unis notamment. Cela tient à la nature du texte, qualifié d’ « accord », qui n’est donc pas officiellement un « traité » mais qui en est quand même un. Le point-clé est de savoir si l’Accord de Paris sera consi-déré comme un traité au sens de l’article II de la constitution américaine ce qui impliquerait une ratification par une ma-jorité des 2/3 du Sénat des Etats-Unis où les Républicains, opposés à toute forme d’accord, ont aujourd’hui la majorité.

Pour éviter d’être confrontés à cette épreuve, les négocia-teurs américains ont obtenu qu’un certain nombre d’engage-ments ne soient pas formulés en termes prescriptifs mais de-viennent aspirationnels ou volontaires. S’agissant des « contri-butions déterminées au niveau national », sur lesquelles nous reviendrons, on relève par exemple le membre de phrase suivant : « Les contributions déterminées au niveau natio-nal... peuvent inclure, selon qu’il convient, entre autres, des informations chiffrables... ». Certains en ont conclu que l’Ac-cord avait perdu tout caractère d’engagement juridique alors que la plate-forme de Durban stipulait que l’accord à mettre en place devait être juridiquement contraignant, ce que nos responsables politiques ont à maintes reprises rappelé2. Il est

1 Il est à noter que l’amendement de Doha de décembre 2012 n’a pas encore reçu la ratification d’un nombre suffisant de Parties pour officiel-lement entrer en vigueur. Il n’est pas exclu qu’il s’éteigne avant d’avoir jamais existé.

2 L’ordre du jour de la COP21 était rédigé en ces termes : Adoption of a protocol, another legal instrument, or an agreed outcome with legal force under the Convention applicable to all Parties.

exact qu’à plusieurs endroits un “should” est venu rempla-cer le “shall” initial. Cependant il demeure dans les textes adoptés à la fin de la COP21, dans la version anglaise, 139 occurrences du mot “shall” contre 39 du mot “should”. Diffi-cile dans ces conditions de soutenir que le texte n’emporte pas des obligations. Le problème est en fait de déterminer le prisme de lecture. Selon que l’on se place du point de vue des pouvoirs réglementaires ou législatifs d’un Etat donné, pour autant qu’ils soient distincts, il pourra être considéré que le texte génère ou ne génère pas des obligations juri-diques. D’une façon générale, on peut considérer que l’Ac-cord est assez contraignant du point de vue de la méthode mais reste indicatif du point de vue de la définition des ac-tions précises à mener.

A l’instar de la Convention, l’Accord de Paris peut donc être vu comme une architecture ou un cadre (un “framework”), dont la durée de vie, comme celle de la Convention, peut s’étaler sur plusieurs dizaines d’années, autour duquel peut s’organiser une stratégie de lutte contre les changements cli-matiques, balisée chaque année par des COP successives dont la prochaine se tiendra en 2016 à Marrakech (Maroc).

La philosophie générale de l’accord

Les disputations autour du protocole de Kyoto et les palino-dies qui s’en sont ensuivies ont convaincu les Parties qu’une approche top-down consistant à imposer des limites aux émis-sions de chacun des états, comme cherchait à le faire le pro-tocole de Kyoto, était une impasse compte tenu de la disparité des situations de chacune des Parties et de leur refus, notam-ment de la part des pays en développement, de se voir im-

Photo 2 : La salle au Bourget, lors de l’adoption de l’accord de Paris, le samedi 12 décembre 2015 – Crédit photo : COP21.

Page 12: Aperçu du numéro 2015-5 de la REE (janvier 2016)

REE N°5/2015 � 27

ACTUALITÉS

poser des limitations qui pourraient venir contrecarrer leur dé-veloppement. L’Accord adopte en conséquence la démarche inverse. Il fixe des objectifs très généraux – en l’occurrence la limitation à 2 °C de l’élévation de la température moyenne de la planète – et, constatant que la tendance actuelle ne va pas dans cette direction, demande à chaque Partie de contri-buer à la réalisation de l’objectif et même au-delà (en visant 1,5 °C) par des contributions volontaires, « les contributions déterminées au niveau national », que chaque Etat doit élabo-rer dans un esprit d’équité et dans un contexte de développe-ment durable et de lutte contre la pauvreté.

Après avoir rappelé le principe de responsabilité com-mune mais différenciée, l’Accord met ainsi chaque Partie devant ses responsabilités en demandant des contributions, qui n’auront pas valeur d’engagements formels, mais seront publiées et discutées au vu et au su de l’ensemble des Par-ties dans un esprit de transparence et de solidarité.

L’innovation majeure est d’amener l’ensemble des Parties à contribuer à la réalisation de l’objectif commun, chacune à la hauteur de ses moyens, en mettant ainsi un terme à la dichotomie du protocole de Kyoto qui voulait que les pays en développement restassent les spectateurs passifs de l’effort consenti par les pays économiquement les plus avancés (les pays de l’annexe B). Cette approche a été rendue possible par l’évolution des positions de la plupart des Etats et notam-ment des deux grands émetteurs : les Etats-Unis et la Chine, laquelle est confrontée à des problèmes considérables de pollution atmosphérique dans ses grandes cités. Cette évolu-tion s’est concrétisée par le dépôt, préalablement à la COP21, de contributions prévues en provenance de 185 gouverne-ments (les Intended Nationally Determined Commitments ou INDCs).

La décision de la COP21 ne fait pas preuve de naïveté : elle reconnait que les contributions actuellement déposées conduiront en 2030 à des émissions de gaz à effet de serre au niveau global de 55 Gt de CO

2 en 2030 alors qu’il faudrait les ramener à 40 Gt pour respecter l’objectif de 2 °C et à moins pour espérer atteindre celui de 1,5 °C ce qui semble aujourd’hui tout à fait hors de portée. L’Accord définit un cadre qui, sans être formellement contraignant, devrait constituer une incitation forte pour chaque Etat à s’associer en équité à la réalisation de l’objectif, ce qui, dans le cas des Etats-Unis par exemple, pourrait amener l’administration au pouvoir, quelle qu’elle soit, à réfléchir à deux fois avant de décider de s’éloigner de la trajectoire commune.

L’atténuation des émissions et les contri-butions déterminées au niveau national

Chaque Partie devra donc soumettre sa « contribution dé-terminée au niveau national ». Si l’ampleur n’en est pas fixée de façon normative, ces contributions devront refléter des « efforts ambitieux » en vue de réaliser l’objet de l’Accord de-vant se traduire au niveau mondial par un plafonnement des

émissions dans les meilleurs délais, suivi au cours de la deu-xième partie du siècle par un équilibre entre les émissions et les capacités d’absorption des puits de gaz à effet de serre.

La forme de ces contributions est en apparence laissée relativement libre mais la COP et ses organes subsidiaires se réservent la possibilité de fixer des règles précises. Le souci de clarté et de transparence est l’un des points essentiels de l’Accord afin de permettre de dresser dès 2023 un bilan mondial de mise en œuvre qui éclairera les Parties dans la détermination et l’actualisation de leurs contributions.

Ces contributions devront correspondre à des objectifs ex-primés en chiffres absolus pour les pays développés cepen-dant que les pays en développement sont encouragés à pas-ser progressivement à des objectifs de réduction ou de limita-tion de leurs émissions eu égard à leurs contextes nationaux.

Les contributions seront déterminées tous les cinq ans à compter de 2020, les premières devant être déposées et/ou actualisées au moment du dépôt des instruments d’adhé-sion à l’Accord avec un rapport de situation prévu en 2018. Chaque partie pourra à tout moment modifier sa contribution mais à la condition d’en relever le niveau d’ambition.

L’Accord reconnait la possibilité pour les Parties qui le souhaitent d’agir de façon concertée dans la définition et la réalisation de leur niveau d’ambition et de leurs contribu-tions, comme c’est le cas aujourd’hui de l’Europe. Il ouvre également la voie à un mécanisme de mutualisation des ef-forts (le mécanisme pour le développement durable), qui pourrait constituer une réincarnation du mécanisme de dé-veloppement propre implémenté dans le cadre du protocole de Kyoto, étant noté que la participation à ce mécanisme resterait volontaire et ne concernerait que les réductions des émissions s’ajoutant à celles qui se produiraient autrement (principe d’additivité).

L’adaptation

L’Accord reconnaît que l’adaptation aux changements cli-matiques est un problème mondial qui se pose à tous, avec des dimensions locales, nationales, régionales ou interna-tionales. En conséquence, les Parties reconnaissent qu’elles devraient, sous différentes formes, intensifier leur coopéra-tion en vue d’améliorer l’action pour l’adaptation. Ces efforts seront reflétés dans le bilan mondial et ceux des pays en développement seront reconnus selon des modalités fixées par la COP.

Cependant, les résolutions de la COP21 stipulent claire-ment, à la demande des Etats-Unis, que les pertes et dom-mages liés aux changements climatiques « ne peuvent don-ner lieu ni servir de fondement à aucune responsabilité ni indemnisation ».

En définitive, hormis le droit reconnu aux pays en dévelop-pement d’exposer leurs efforts en matière d’adaptation, cette partie de l’Accord reste faible et relève pour l’essentiel de la déclaration d’intention. Le problème de fond est en fait celui du financement, de l’atténuation comme de l’adaptation.

Page 13: Aperçu du numéro 2015-5 de la REE (janvier 2016)

28 ��REE N°5/2015

ACTUALITÉS

L’assistance financière aux pays en développement

On sait que depuis la COP15 de Copenhague en 2009, cette question est au cœur des débats, les pays dévelop-pés ayant pris l’engagement, non juridiquement contraignant, d’apporter chaque année aux pays en développement des financements d’au minimum 100 Md USD à compter de 2020, pour leur permettre de mener les actions de mitiga-tion et d’adaptation nécessaires.

La difficulté à matérialiser cette promesse a été l’un des obstacles les plus difficiles à la finalisation de l’Accord de Pa-ris. Au final, les pays en développement ont obtenu dans l’Ac-cord un engagement des pays développés (avec un “shall”) de leur fournir « des » ressources financières aux fins tant de l’atténuation que de l’adaptation. Avec un “should” cette fois, lesdits pays développés « devraient continuer de montrer la voie en mobilisant des moyens de financement de l’action climatique... ». Aucun chiffre ne figure dans l’accord propre-ment dit et les résolutions de la COP21 se limitent à dire que « les pays développés entendent poursuivre leur objectif collectif annuel de mobilisation » et que « la COP fixera avant 2025 un nouvel objectif chiffré collectif à partir d’un niveau plancher de 100 Md USD par an, en tenant compte des besoins des pays en développement ».

On le voit, ces dispositions sont faibles et peuvent être interprétées comme traduisant un certain rapport de forces. Mais pouvait-il en aller autrement en l’absence d’une gouvernance beaucoup plus forte impliquant le prélèvement et la redistribution de ressources ?

La même remarque pourrait être faite à propos des dispositions relatives au transfert de technologies qui restent pour l’essentiel – hormis les obligations de reporting – au niveau de la déclaration d’intentions et innovent peu par rapport aux dispositions de la Convention.

Les marchés et le prix du carbone

L’absence de dispositions fortes relatives au prix du car-bone est considérée par beaucoup comme une faiblesse majeure de l’accord. Mais on sait depuis longtemps que la plupart des Parties à la Convention n’étaient pas prêtes à s’engager dans un remake du protocole de Kyoto imposant un prix de marché au niveau mondial, considérant que le concept de prix du carbone vient interférer de trop près avec les ressorts de leur développement économique et que sa fixation par un mécanisme qui leur échappe constituerait une forme de perte de nationalité.

On notera cependant que l’Accord reconnaît que les Parties peuvent « mener à titre volontaire des démarches concertées

passant par l’utilisation de résultats d’atténuation transférés au niveau international » et, comme mentionné précédemment, prévoit un mécanisme de transfert des droits entre pays hôtes des projets et pays acquéreurs de ces droits. Lorsqu’elles s’engagent dans des mécanismes volontaires de ce type, les Parties doivent en assurer l’intégrité environnementale et la transparence, en respectant les règles fixées par la COP afin d’éviter notamment les doubles comptes.

Se trouve ainsi préservée la possibilité pour certaines Par-ties de constituer des « clubs carbone » qui, pourront être reconnus au niveau international mais devront respecter les règles fixées par la COP.

Derrière cette approche, on peut lire la conviction que la fixation d’un prix du carbone au niveau mondial relève de l’utopie et serait peut-être inefficace. Si un prix du carbone est en soit souhaitable pour intégrer les externalités liées aux émissions de CO2, ce prix se forme, de façon explicite ou implicite, au travers de la réglementation, de la standar-disation ou du marché, à des niveaux qui varient dans des proportions considérables en fonction des secteurs appli-catifs et des zones géographiques. L’Accord de Paris fait le pari qu’une approche décentralisée laissant toute sa place à la subsidiarité sera plus efficace qu’un dispositif imposé depuis l’amont.

En conclusion…

L’Accord de Paris impose peu mais il établit un process fondé sur une architecture constituée de règles et d’institu-tions aujourd’hui acceptées par tous, qui est de nature à per-mettre la construction, pierre par pierre et au fil des années, d’une stratégie concertée au niveau mondial autour d’ob-jectifs partagés. Vu de cette façon, l’Accord de Paris pourrait servir d’accélérateur à toutes les initiatives prises localement – en Europe, aux Etats-Unis et en Chine tout particulièrement à les aider à se déployer et à viser progressivement des ob-jectifs de plus en plus ambitieux.

Bien entendu la responsabilité de la conférence des Parties à la Convention est énorme et comme chacun sait, le diable est toujours dans les détails. Après tant d’échecs et de déceptions, c’est quand même la pre-mière fois depuis 1992 qu’un vent d’optimisme vient ra-fraîchir le climat. �

Jean-Pierre HauetRédacteur en chef de la REE

Membre émérite de la SEE

Page 14: Aperçu du numéro 2015-5 de la REE (janvier 2016)

REE N°5/2015 � 29

Le samedi 10 octobre 2015, a été inauguré l’Espace Ampère d’une capacité de 50 places, dans l’ancienne grange de la maison d’Ampère, propriété de la SEE à Poleymieux au Mont d’Or.

Grâce à la générosité de l’Institut de France, de la Fonda-tion Total, du Ministère de la culture, des élus de la Métro-pole de Lyon dont son président, de Madame le maire de Poleymieux, des divers mécènes, parmi lesquels EDF, EDF-ENR-Solaire, AIDELEC, SOGEDO, ERDF, COIRO et RTE, les travaux d’aménagement de cette salle et d’équipement du bâtiment (notamment la réalisation d’un système de produc-tion d’électricité photovoltaïque en toiture) ont été menés à bien au bout de six ans d’efforts.

Une convention de mécénat entre le RTE et la Société des amis d’André Marie Ampère (SAAMA) a été signée par Frédéric Dohet, délégué de RTE pour la région Rhône-Alpes- Auvergne, et Geneviève Comte-Bellot, présidente de la Société des amis d’André-Marie Ampère, en présence de la SEE qui était représentée par son Président, François Gerin, accompagné de Patrick Leclerc, président du groupe régional Rhône Bourgogne, et du vice-président André Gromier.

L’espace Ampère sera mis à la disposition des entreprises, administrations et établissements d’enseignement pour tous types de manifestations, ce qui contribuera à accroître la no-toriété de la maison d’Ampère tout en la faisant bénéficier de nouvelles ressources. �

Figure 1 : Une vue de la nouvelle salle le jour de son inauguration.

Figure 2 : Francois Gerin, président de la SEE et Frédéric Dohet, délégué de RTE pour la région Rhône-Alpes Auvergne.

ACTUALITÉS

Maison Ampère de Poleymieux : inauguration de l’Espace Ampère

et signature du contrat de mécénat avec RTE

Page 15: Aperçu du numéro 2015-5 de la REE (janvier 2016)

34 ��REE N°5/2015

Les brevets, clef des stratégies de propriété industrielle

L'ARTICLE INVITÉ

The global patent system governs a fundamental regulation mechanism, which organizes a fair and reasonable return to-wards the inventors of technologies used in downstream products, thus allowing a more secure flow of innovation exchangesthroughout the worldwide industry. Globalization and the massive introduction of digital technologies in most industrial fieldshave further increased the importance of patents to protect innovation and fuel R&D investments.Recent attacks against the patent system, initiated by downstream players trying to escape their obligations to share a portioniiof their profits with upstream investors in technology, have the potential to deter R&D investments and deserve a renewed attention from the innovation ecosystem as a whole.Patents should not be considered today based on the sole merits of protecting inventions, but rather as a versatile tool to ac-cccompany the investment strategies of innovating companies. The proper definition of adequate IP strategies hence becomes a fundamental component of global enterprise strategies. Proper attention to patents and more generally to IP strategies should be paid by the whole command chain within innovative companies, from research engineers up to the CEO level.

ABSTRACT

JEAN-CHARLES HOURCADEDirecteur général de France Brevets

Introduction

L es enjeux relatifs aux brevets ne sont pas nou-

veaux dans l’industrie et sont récurrents depuis

leur émergence, en particulier dans les indus-

tries électroniques et électriques. Ils prennent

cependant un relief particulier depuis quelques années,

conséquence directe des transformations considérables in-

duites dans le tissu industriel par la pénétration généralisée

du numérique, la mondialisation des échanges, l’affirmation

de la Chine comme grande puissance industrielle et les bou-

leversements qui en ont résulté sur les chaînes de valeur.

En accompagnement de ces transformations, l’écosys-

tème des brevets et de la propriété industrielle (“IP”) connaît

une évolution rapide. La majorité des entreprises françaises

peine encore à en prendre la pleine mesure. Le présent ar-rr

ticle tentera d’éclairer ces grandes tendances et de donner

quelques clefs utiles pour la réflexion et l’action.

Les brevets, principes généraux

Le brevet est un titre juridique,portant sur un contenu technique

Le brevet est un titre juridique qui protège les droits de

l’inventeur, lui garantissant pendant en général 20 ans l’exclu-

sivité des droits d’exploitation de l’invention brevetée. Au-

delà, l’invention tombe dans le domaine public et sera donc

exploitable par tous.

Le détenteur d’un brevet peut choisir la voie de l’exploita-

tion directe, c’est-à-dire de bénéficier pendant sa durée de vali-

dité de l’exclusivité accordée par le brevet. Il peut aussi décider

de concéder à des tiers des licences d’exploitation, moyennant

le versement de redevances. Ce dernier mode de valorisation

des brevets est communément appelé “licensing”.

Comme tout droit, il est applicable dans les juridictions dans

lesquelles le titre a été délivré. Dans le cas d’une exploitation

non autorisée par un tiers, le détenteur du droit bafoué peut

saisir les tribunaux et demander soit l’arrêt du trouble causé,

en pratique le retrait de vente du produit contrefaisant, soit une

réparation financière sous forme de dommages et intérêts.

Toute invention n’est pas brevetable et les critères de bre-

vetabilité sont stricts :

Ainsi une nouvelle recette de cuisine ou un théorème ma-

thématique ne sont-ils pas brevetables ;

ce sens, toute communication qui en aurait exposé publi-

quement des éléments les ferait tomber dans le domaine

public ;

caractérise par une « activité inventive », c’est-à-dire qu’elle

ne paraisse pas évidente à un homme de l’art au moment

de son dépôt ;

décrite, rendant possible sa libre exploitation après l’expi-

ration du brevet. Ce point peut dissuader des inventeurs

de déposer un brevet, par exemple si le bénéfice attendu

d’exploitation paraît devoir perdurer au-delà de 20 ans.

Page 16: Aperçu du numéro 2015-5 de la REE (janvier 2016)

REE N°5/2015 � 35

L'ARTICLE INVITÉ

Les brevets, avantages et inconvénients

Le droit exclusif accordé, dérogatoire au droit de la concur-

rence puisqu’il interdit à un concurrent de copier, se com-

prend en fait comme un compromis. Le breveté retire de son

dépôt des avantages potentiels, mais doit assumer en retour

certains inconvénients :

20 ans, l’invention tombe dans le domaine public et tous

les concurrents seront libres de l’utiliser sans frais. La pé-

riode peut paraître longue, mais l’expérience montre qu’il

s’écoule en moyenne de 8 à 10 ans entre le moment de

l’invention et son éventuelle adoption à grande échelle sur

le marché. La fenêtre de valorisation est encore plus limitée

si l’on prend en compte les risques d’obsolescence de la

technologie brevetée ;

l’innovation protégée. Cette information donne aux concur-

rents du déposant des indications qui peuvent être pré-

cieuses. Ceux-ci peuvent a minima suivre l’évolution de la

stratégie et de l’état de l’art de leurs propres concurrents.

Ils peuvent s’en inspirer pour d’autres développements,

déposer des brevets qui améliorent le procédé – auquel

cas ils seront redevables de redevances pour le brevet de

base – voire déposer des brevets conçus intelligemment

pour contourner entièrement et faire mieux que l’invention

initiale.

Pour ces raisons, certains industriels préfèrent protéger

leurs inventions par le secret industriel. D’autres préfèrent se

contenter de la protection minimale apportée en France par

le recours aux « enveloppes Soleau », qui évitent la publica-

tion d’informations mais qui ne permettent que d’enregistrer

la date et l’origine d’une invention, sans emporter de droits

vis à vis de tiers.

Du rôle des brevets dans l’industrie mondiale

Le brevet, mécanisme régulateurOn peut considérer l’ensemble du système des brevets,

harmonisé au niveau mondial par l’OMPI (Organisation mon-

diale de la propriété intellectuelle), comme un système de ré-

gulation des échanges dans l’innovation industrielle. Certains

acteurs excellent dans le développement de technologies de

base destinées à être intégrées dans les produits d’autres

industriels, d’autres dans la fourniture de produits et services

au consommateur final. Tant que les seconds achètent aux

premiers les composants et sous-ensembles intégrant ces

technologies de base et financent ainsi leur investissement

de R&D, l’équilibre des échanges est assuré. Toutes les situa-

tions n’obéissent cependant pas à ce schéma idyllique.

Dans de très nombreux cas, le fabricant du produit final va

se fournir auprès de fournisseurs concurrents de ceux qui ont

inventé et développé ces technologies. Seule la protection

par des brevets pourra permettre aux inventeurs de sécu-

riser une juste compensation, soit auprès des fournisseurs

concurrents, soit auprès des industriels clients.

Dans d’autres cas, l’invention ne se matérialise plus dans

des fournitures industrielles. C’est par exemple le cas de

nombreux designs d’antennes, qui n’existent plus matérielle-

ment que sous la forme de structures conductrices directe-

ment imprimées sur des cartes ou moulées dans des coques

plastiques. Seul le brevet permet à l’inventeur de sécuriser un

retour sur son investissement.

Dans d’autres cas, un industriel placé en aval de la chaîne

de valeur sera tenté de mettre en œuvre directement des in-

ventions dans son propre processus de production, sans veil-

ler à en informer les inventeurs. Ceci est un fait très général

dans la vie réelle. Dans tous ces cas, et bien d’autres encore,

le brevet est le mécanisme permettant à l’industriel inventeur

de faire valoir des droits sur leur utilisation par des tiers avec

qui il n’a souvent jamais eu le moindre contact.

L’impact additionnel de la mondialisation et du numérique

La mondialisation des échanges, s’accompagnant d’une

spécialisation accrue des acteurs, est venue amplifier l’as-

siette des problèmes potentiels. Dans la téléphonie mobile

par exemple, ou de façon plus générale en informatique, on

ne compte quasiment plus aucun acteur européen dispo-

sant d’une part de marché significative sur le marché des

terminaux et des produits grand public. Les entreprises euro-

péennes sont donc massivement dans le cas d’acteurs in-

vestissant dans les technologies de base et dépendant pour

leur équilibre économique des ventes auprès de ceux qui

contrôlent l’accès au client final, ou des redevances sur bre-

vets si le modèle de ventes B2B (“Business To Business”) ne

leur est pas accessible.

La pénétration généralisée des technologies numériques

a également amplifié ces effets. Un produit numérique in-

tègre un nombre croissant de technologies, développées par

un écosystème de plus en plus diversifié d’entreprises inno-

vantes. L’exemple le plus abouti est celui des smartphones,

qui intègrent des milliers d’inventions brevetées par des ac-

teurs de taille très variable, dont des centaines d’inventions

réputées nécessaires à la conformité avec des normes (voir

plus loin).

Le mot de l’avocat du diable...

Des voix s’élèvent périodiquement de la part d’indus-

triels plutôt consommateurs que producteurs de brevets,

donc plutôt payeurs que percepteurs de redevances, pour

remettre en cause le système mondial des brevets. Ces ten-

sions entre innovateurs et consommateurs d’innovations ont

Les brevets, avantages et inconvénients

Le droit exclusif accordé, dérogatoire au droit de la concur-rr

rence puisqu’il interdit à un concurrent de copier, se com-

prend en fait comme un compromis. Le breveté retire de son

dépôt des avantages potentiels, mais doit assumer en retour

certains inconvénients :

20 ans, l’invention tombe dans le domaine public et tous

les concurrents seront libres de l’utiliser sans frais. La pé-

riode peut paraître longue, mais l’expérience montre qu’il

s’écoule en moyenne de 8 à 10 ans entre le moment de

l’invention et son éventuelle adoption à grande échelle sur

le marché. La fenêtre de valorisation est encore plus limitée

si l’on prend en compte les risques d’obsolescence de la

technologie brevetée ;

l’innovation protégée. Cette information donne aux concur-rr

rents du déposant des indications qui peuvent être pré-

cieuses. Ceux-ci peuvent a minima suivre l’évolution de la

stratégie et de l’état de l’art de leurs propres concurrents.

Ils peuvent s’en inspirer pour d’autres développements,

déposer des brevets qui améliorent le procédé – auquel

cas ils seront redevables de redevances pour le brevet de

base – voire déposer des brevets conçus intelligemment

pour contourner entièrement et faire mieux que l’invention

initiale.

Pour ces raisons, certains industriels préfèrent protéger

leurs inventions par le secret industriel. D’autres préfèrent se

contenter de la protection minimale apportée en France par

le recours aux « enveloppes Soleau », qui évitent la publica-

tion d’informations mais qui ne permettent que d’enregistrer

la date et l’origine d’une invention, sans emporter de droits

vis à vis de tiers.

Du rôle des brevetsdans l’industrie mondiale

Le brevet, mécanisme régulateurOn peut considérer l’ensemble du système des brevets,

harmonisé au niveau mondial par l’OMPI (Organisation mon-

diale de la propriété intellectuelle), comme un système de ré-

gulation des échanges dans l’innovation industrielle. Certains

acteurs excellent dans le développement de technologies de

base destinées à être intégrées dans les produits d’autres

industriels, d’autres dans la fourniture de produits et services

au consommateur final. Tant que les seconds achètent aux

premiers les composants et sous-ensembles intégrant ces

technologies de base et financent ainsi leur investissement

de R&D, l’équilibre des échanges est assuré. Toutes les situa-

tions n’obéissent cependant pas à ce schéma idyllique.

Dans de très nombreux cas, le fabricant du produit final va

se fournir auprès de fournisseurs concurrents de ceux qui ont

inventé et développé ces technologies. Seule la protection

par des brevets pourra permettre aux inventeurs de sécu-

riser une juste compensation, soit auprès des fournisseurs

concurrents, soit auprès des industriels clients.

Dans d’autres cas, l’invention ne se matérialise plus dans

des fournitures industrielles. C’est par exemple le cas de

nombreux designs d’antennes, qui n’existent plus matérielle-

ment que sous la forme de structures conductrices directe-

ment imprimées sur des cartes ou moulées dans des coques

plastiques. Seul le brevet permet à l’inventeur de sécuriser un

retour sur son investissement.

Dans d’autres cas, un industriel placé en aval de la chaîne

de valeur sera tenté de mettre en œuvre directement des in-

ventions dans son propre processus de production, sans veil-

ler à en informer les inventeurs. Ceci est un fait très général

dans la vie réelle. Dans tous ces cas, et bien d’autres encore,

le brevet est le mécanisme permettant à l’industriel inventeur

de faire valoir des droits sur leur utilisation par des tiers avec

qui il n’a souvent jamais eu le moindre contact.

L’impact additionnel de la mondialisationet du numérique

La mondialisation des échanges, s’accompagnant d’une

spécialisation accrue des acteurs, est venue amplifier l’as-

siette des problèmes potentiels. Dans la téléphonie mobile

par exemple, ou de façon plus générale en informatique, on

ne compte quasiment plus aucun acteur européen dispo-

sant d’une part de marché significative sur le marché des

terminaux et des produits grand public. Les entreprises euro-

péennes sont donc massivement dans le cas d’acteurs in-

vestissant dans les technologies de base et dépendant pour

leur équilibre économique des ventes auprès de ceux qui

contrôlent l’accès au client final, ou des redevances sur bre-

vets si le modèle de ventes B2B (“Business To Business”) ne

leur est pas accessible.

La pénétration généralisée des technologies numériques

a également amplifié ces effets. Un produit numérique in-

tègre un nombre croissant de technologies, développées par

un écosystème de plus en plus diversifié d’entreprises inno-

vantes. L’exemple le plus abouti est celui des smartphones,

qui intègrent des milliers d’inventions brevetées par des ac-

teurs de taille très variable, dont des centaines d’inventions

réputées nécessaires à la conformité avec des normes (voir

plus loin).

Le mot de l’avocat du diable...

Des voix s’élèvent périodiquement de la part d’indus-

triels plutôt consommateurs que producteurs de brevets,

donc plutôt payeurs que percepteurs de redevances, pour

remettre en cause le système mondial des brevets. Ces ten-

sions entre innovateurs et consommateurs d’innovations ont

Page 17: Aperçu du numéro 2015-5 de la REE (janvier 2016)

RADAR 2014

IntroductionLa loi de Moore prédit depuis plusieurs

années le cycle d’évolution de l’informa-

tique : toujours plus rapide, toujours plus

petit, toujours moins gourmand en éner-

gie électrique. Cette évolution ne s’est

pas limitée aux éléments de calcul des or-

dinateurs, mais a bénéficié à l’ensemble

de l’industrie électronique. Elle a par

exemple également bénéficié aux ampli-

ficateurs de puissance hyperfréquence

réalisés en technologie « intégrée » qui

fonctionnent à des fréquences toujours

plus élevées, avec des rendements amé-

liorés et des puissances plus importantes.

Ces moyens de calcul et ces circuits radiofré-

quences constituent les ingrédients élémentaires

qui composent les radars : émettre un signal ra-

diofréquence, le laisser se propager dans l’envi-

ronnement puis capter et analyser les signaux qui

sont réfléchis par les éventuelles « cibles » et sont

atténués et modifiés selon la distance parcourue

et la nature des milieux rencontrés.

Le gain obtenu en encombrement et en

consommation a permis d’étendre le nombre de

voies utilisées en émission comme en réception,

les dernières générations de radar pouvant embar-

quer jusqu’à plusieurs centaines d’antennes dans

un espace réduit. Ces nouveaux systèmes per-

mettent d’élargir les fonctionnalités offertes en

apportant, par exemple, la possibilité de former

des faisceaux orientables électroniquement, la

possibilité de diviser le faisceau émis en plusieurs

sous-faisceaux disjoints et simultanés pour suivre

plusieurs « cibles » en même temps.

Bien sûr, ces performances sont obtenues au

prix d’une complexité accrue et les équipes de

recherche et développement ont à résoudre les

nombreux challenges qui accompagnent ces nou-

velles possibilités. La conférence « Radar 2014 »,

organisée par la SEE et le club R2SR en octobre

2014 à Lille, a été l’occasion de rassembler pour

quelques jours les principaux acteurs du domaine,

industriels ou académiques, toutes na-

tions confondues. Les dernières avan-

cées techniques et algorithmiques ont

été présentées à une audience de près

de 450 visiteurs.

Ce dossier a été élaboré avec la

volonté de vous présenter un aperçu

des avancées les plus notables dans le

domaine. Nous y avons sélectionné des

travaux parmi les plus significatifs en

rapport avec les systèmes multivoies.

Le dossier aborde dans un premier

temps sous l’angle théorique les nou-

veaux problèmes que posent ces archi-

tectures et présente quelques-unes des

solutions envisagées pour y répondre. Ensuite, les

solutions industrielles qui ont été imaginées pour

rendre ces concepts théoriques opérationnels

sont présentées, offrant ainsi un éclairage complet

sur l’utilisation des antennes électroniques dans

les radar actuels.

Concevoir des formes d’onde adaptées aux radars multivoies

Il y a d’abord la nécessité de définir la nature

des signaux qui seront émis par ces antennes.

On parle ici de « forme d’onde ». La capacité du

radar à estimer la distance ou la vitesse des objets

détectés est directement reliée à la nature de ces

signaux. Lorsque plusieurs antennes sont utilisées

à l’émission, une nouvelle variable entre en jeu

avec la possibilité d’émettre des signaux différents

d’une antenne à l’autre, d’un instant à l’autre. Le

terme « radar MIMO » (Multiple Input, Multiple

Output) est généralement employé pour dési-

gner des systèmes où les voies d’émission et de

réception sont utilisées de façon indépendante et

simultanément. Ce nouveau degré de liberté aug-

mente significativement la complexité de l’étude

de cette forme d’onde mais ouvre des possibilités

jusqu’alors impossibles dans les radars monovoie :

pointer plusieurs faisceaux électromagnétiques

presque instantanément suivant des axes en azi-

Introduction

44 ��REE N°5/2015

Radars à antennes électroniquesPlus sensibles et plus agiles

au prix d’une complexité accrue

Sylvain AzarianONERA

Département électromagnétisme

et radar Président du Club technique R2SR

Page 18: Aperçu du numéro 2015-5 de la REE (janvier 2016)

Introduction RADAR 2014

mut et élévation différents, permettant à un radar

multivoie de réaliser des fonctions de surveillance

de l’espace, la poursuite et la reconnaissance des

cibles en continu.

La conception de nouvelles formes d’onde est

un travail de recherche à part entière et requiert

des outils mathématiques adaptés pour prédire

les résolutions en distance et vitesse que le radar

pourra espérer atteindre. L’outil le plus couram-

ment utilisé est la « fonction d’ambiguïté » qui per-

met d’évaluer la capacité d’une forme d’onde à bien

rendre compte de la position et de la vitesse d’une

cible, avec une ambiguïté minimale. Un premier

article de notre sélection aborde ce problème de

la construction de formes d’onde adaptées. Dans

cette étude intitulée « Analyse et comparaison

de formes d’ondes pour le radar MIMO » [1]

les auteurs présentent un tour d’horizon des

différentes techniques classiquement utilisées pour

les radars multivoies et résument les performances

qui peuvent être atteintes. Trouver la forme d’onde

optimale reste une tâche difficile et les auteurs

montrent qu’il n’y a qu’une suite de compromis qui

permette d’atteindre le niveau de performances

recherché pour une application donnée.

Quelle que soit la forme d’onde émise, seules

les zones qui sont éclairées par le signal d’émission

peuvent être surveillées. Couvrir une large portion

de l’espace suppose donc d’émettre un signal non

focalisé dans une direction privilégiée, on parle

alors de « fonction de veille ». Cette émission non

focalisée rend alors complexe la localisation précise

des éventuelles cibles qui seraient détectées dans

ce mode, il faut donc ensuite modifier la forme

d’onde émise et focaliser l’énergie vers les zones

d’intérêt. Les auteurs de l’article « Codage spa-

tio-temporel multi-rafales pour systèmes à

antenne active » [2] proposent une approche qui

exploite la possibilité d’exploiter conjointement la

diversité des formes d’onde employées à l’émis-

sion, la diversité spatiale à la réception, et l’emploi

de formes d’ondes évoluant dans le temps.

Organiser le temps alloué à chaque mission du radar

Une autre réponse à ce problème d’optima-

lité consiste à découper le temps de fonctionne-

ment en phases successives pendant lesquelles

le radar ne se consacre qu’à une tâche. Chaque

nouvelle phase est alors assortie de sa configu-

ration optimale et c’est l’enchaînement rapide

de ces différentes phases qui permettra de rem-

plir l’ensemble des missions. Bien sûr, se posent

alors de nouvelles questions : combien de temps

doit-on consacrer à une mission sans pénali-

ser les autres ? Quelle est le meilleur enchaîne-

ment ? Une approche originale est présentée dans

l’article « Ordonnancement des tâches pour un

radar multifonction avec contrainte de temps

dur et priorité » [3]. Ici les auteurs séparent les

différentes missions à remplir en deux grandes

familles : celles qui imposent un cadencement

strict et celles qui peuvent être exécutées à tout

moment. En situation réelle, le nombre de tâches

que le radar doit réaliser évolue au cours du temps

et dépend du contexte : l’arrivée d’une nouvelle

cible dans le périmètre de détection du radar im-

posera de passer d’abord plus de temps à analyser

ce nouvel objet pour évaluer le risque associé. Les

auteurs proposent une approche algorithmique

permettant au radar de s’adapter dynamiquement

à l’ensemble des missions qu’il devra effectuer en

fonction du contexte rencontré.

Fabriquer et intégrer ces radars multivoies

La tendance majoritairement rencontrée chez

les fabricants de système radar multivoies re-

pose sur la conception de briques élémentaires

intégrant toutes les pièces nécessaires : circuits

générateurs de forme d’onde d’émission, circuits

d’amplification pour l’émission et la réception,

commutateurs, antennes. Très compactes, ces

briques peuvent alors être embarquées à bord

d’un avion d’arme comme le Rafale, ou encore sur

des drones par exemple.

Là encore, les ingénieurs doivent relever des

défis complexes tels que la dissipation thermique,

la consommation électrique, la tenue aux vibra-

tions, etc. Il devient alors nécessaire d’intégrer les

contraintes de différents métiers et d’aborder la

conception de l’ensemble au niveau « système » pour

identifier les bons compromis et leurs conséquences.

Un aperçu de cette complexité est présenté

dans l’article « Antenne active multi-facettes à

balayage électronique en technologie ‘’tuile’’ »

[4] où les auteurs explorent les configurations pos-

sibles de positionnement des différents éléments

© St

épha

ne Sa

illant

- On

era

REE N°5/2015 � 45

Page 19: Aperçu du numéro 2015-5 de la REE (janvier 2016)

RADAR 2014

et se consacrent à l’exploration d’une disposition

de type « dièdre » pour un radar multivoie opérant

en bande X.

Avec un éclairage plus large, les auteurs de

l’article « Nouveaux développements pour

les antennes actives et les modules T/R » [5]

dressent un panorama des travaux de recherche

et développement en cours sur ces antennes

compactes.

Ces deux articles montrent qu’une difficulté

supplémentaire apparaît lorsque l’on intègre ces

antennes et leurs circuits de traitement associés

dans un espace contraint : il devient complexe

d’obtenir une focalisation du faisceau constante

dans toutes les directions, en particulier pour

des angles « rasants » (proches de la structure

où est installée l’antenne). Cette mauvaise foca-

lisation se traduit par une perte significative de

performance et on parle alors « d’angle mort ». Le

dernier article de notre sélection explore, dans le

cadre du projet METALESA financé par l’Agence

Européenne de Défense

(AED), une approche à base

de « métamatériaux ». Dans

leur article intitulé « Suppres-

sion des directions aveugles

d’une antenne réseau grâce

aux métamatériaux » [6],

les auteurs montrent l’apport

de structures périodiques

de petites dimensions pour

étendre le domaine angulaire

des antennes.

Radars à antennes électroniques actives : un standard de fait.

Bien que tous les points durs techniques et

théoriques n’aient pas encore tous été levés, les

possibilités offertes par ces systèmes à diversité

« spatiale et temporelle » sont telles que ces radars

sont très certainement destinés à prendre une

place déterminante. Leur capacité en particulier à

permettre la réalisation de plusieurs fonctions en

simultané sont la garantie d’une sécurité accrue.

Développées vers la fin des années 70, les

antennes actives ont peu à peu envahi les radars,

sol d’abord puis aéroportés au fur et à mesure des

progrès technologiques liés à l’électronique de

puissance, sa capacité d’intégration et de miniatu-

risation. Les problèmes les plus ardus demeurent

encore le conditionnement et l’intégration des mo-

dules actifs dans les antennes avant que celles-ci se

fondent comme les antennes conformes dans les

plate-formes. Peu à peu les différents équipements

jadis bien identifiables se fonderont dans les plates-

formes de manière éclatée

pour remplir la fonction de dis-

crétion qui demeure l’une des

plus importantes nécessités.

Les antennes actives à balayage

électronique sont au cœur de

cette mutation et seront les

capteurs indifférenciés pour les

fonctions radar, guerre électro-

nique ou communication des

plates-formes aéroportées du

futur pilotées ou non. �

Analyse et comparaison de formes d’ondes pour le radar MIMO Hongbo Sun, Frédéric Brigui, Marc Lesturgie ........................................................................................................... p. 47Codage spatio-temporel multi-rafales pour systèmes à antenne activeGuy Desodt, Georges-Edouard Michel, Jean-Paul Guyvarch, François Le Chevalier, Olivier Rabaste .......................................................................................................................... p. 55Ordonnancement des tâches pour un radar multifonction avec contrainte de temps dur et prioritéVincent Jeauneau, FrédéricBarabaresco, Thomas Guenais ..................................................................................... p. 64Antenne active multi-facettes à balayage électronique en technologie tuileG Byrne, A M Kinghorn, R W Lyon et G D Morrison ............................................................................................. p. 75Nouveaux développements pour les antennes actives et les modules T/RYves Mancuso, Christian Renard ..................................................................................................................................... p. 79Suppression des directions aveugles d›une antenne réseau grâce aux métamatériauxThomas Crépin, Cédric Martel, Benjamin Gabard, Fabrice Boust, Jean-Paul Martinaud, Thierry Dousset, Pablo Rodriguez-Ulibarri, Miguel Beruete, Claudius Loecker, Thomas Bertuch, José Antonio Marcotegui, Stefano Maci ....................................................................................................................... p. 83

LES ARTICLES

Introduction

46 ��REE N°5/2015

Sylvain Azarian est chargé de mission

au département Electromagnétisme et

radar à l’Onera et est en charge des « nou-

veaux concepts radars ». Il est également

directeur adjoint du laboratoire Sondra

(Supélec-Onera-NUS-DSO-Research

Alliance) à Supélec et s’intéresse plus

particulièrement aux systèmes radars

distribués et aux radars passifs. En 2015, il

a été élu président du club technique R2SR

de la SEE.

Page 20: Aperçu du numéro 2015-5 de la REE (janvier 2016)

REE N°5/2015 ��47

RADARS À ANTENNES ÉLECTRONIQUES RADAR 2014

Analyse et comparaison de formes d’ondes pour le radar MIMOPar Hongbo Sun1, Frédéric Brigui2, Marc Lesturgie2

Temasek Laboratories@NTU - Nanyang Technological University1, Département électromagnétique et radarONERA - The French Aerospace Lab2

Choosing a proper waveform is a critical task for the implementation of multiple-input multiple-output (MIMO) radars. In addition to the general requirements for radar waveforms such as good resolution, low

sidelobes, etc. MIMO radar waveforms also should possess good orthogonality. In this paper we give a brief over-view of MIMO radar waveforms, which are classified into four categories: (1) time division multiple access (TDMA), (2) frequency division multiple access (FDMA), (3) Doppler division multiple access (DDMA), and (4) code division multiple access (CDMA). A special circulating MIMO waveform is also addressed. The properties, as well as applica-tion limitations of different waveforms, are analyzed and compared. Some simulations results are also presented to illustrate the respective performance of different waveforms.

ABSTRACT

IntroductionDe par son architecture et son mode

de fonctionnement, le radar MIMO offre

de nombreux avantages, notamment en

termes de performance de détection et

d’estimation d’une cible. Le radar MIMO

peut être classifié selon deux configu-

rations géométriques: le radar MIMO

cohérent dont les émetteurs sont co-

localisés [1] et le radar MIMO statistique

dont les émetteurs sont distants les uns

des autres [2]. Leurs performances res-

pectives et leurs potentielles supériorités

sur d’autres systèmes radar plus conven-

tionnels ont été largement étudiées,

notamment dans [1] et [2]. Néanmoins

la plupart de ces études s’appuient sur

l’hypothèse de formes d’onde parfaite-

ment orthogonales, ignorant les effets de

signaux réels en pratique.

Le choix d’une forme d’onde appro-

priée est essentiel à la mise en œuvre

pratique des radars MIMO. Outre les pro-

priétés nécessaires des formes d’onde

radar classiques, telles que par exemple

la résolution ou la valeur des lobes se-

condaires, les formes d’onde pour le

radar MIMO doivent être orthogonales.

Mathématiquement, des formes d’ondes

parfaitement orthogonales n’existent

pas. Mais des formes d’onde quasiment

orthogonales ont été proposées dans de

nombreux travaux. Cependant, à notre

connaissance, il existe peu d’études [3,

4] comparant et évaluant les différentes

formes d’onde développées jusqu’à

maintenant pour le radar MIMO.

Dans cette étude, nous tentons de

donner une brève présentation de dif-

férentes formes d’ondes radar. Nous

proposons de les classifier selon quatre

approches basées sur la transmission

multiple par répartition : (1) en temps

(time division multiple access, TDMA),

(2) en fréquence (frequency division

multiple access, FDMA), (3) en Doppler

(Doppler division multiple access, DDMA)

et (4) en code (code division multiple

access, CDMA). Nous étudions de plus

la forme d’onde appelée le chirp circulant

et basée sur une autre approche. « Rien

n’est gratuit » résume bien les compro-

mis qu’impose le choix d’une forme

d’onde ; des pertes en performance

(puissance émise, ambiguïté Doppler,

lobes secondaires) sont inévitables. Dans

les sections suivantes, nous analysons et

comparons les propriétés et les limita-

tions de plusieurs formes d’onde. Nous

suggérons également les applications

pratiques adéquates associées aux diffé-

rentes formes d’ondes. Des résultats sur

simulation illustreront les performances

de celles-ci. Nous considérons dans cette

étude un radar MIMO cohérent avec un

réseau de Ne antennes espacées de la

moitié de longueur d’onde. La bande de

fréquence est notée B et la fréquence

centrale des signaux émis fe.

Transmission multiple par répartition en temps/approche MIMO TDMA

L’approche TDMA exploite la division

du domaine temporel pour transmettre

simultanément les signaux MIMO.

Transmission alternée en temps

La manière la plus intuitive et la plus

simple de séparer des signaux émis par

différents émetteurs est de considérer

un schéma de transmission alternée.

Chaque antenne d’émission émet suc-

cessivement dans son temps imparti.

On obtient ainsi une forme d’onde parfai-

tement orthogonale, adaptée aux formes

d’onde usuellement utilisées en radar,

comme le chirp. Cette forme a été testée

avec succès dans l’étude [5].

Bien que l’émission alternée TDMA

soit facile à mettre en œuvre, il est

évident que les capacités de transmission

ne sont pas exploitées dans leur totalité.

Comparée au radar MIMO dans lequel

toutes les antennes émettrices sont

capables d’émettre simultanément, la

Page 21: Aperçu du numéro 2015-5 de la REE (janvier 2016)

RADARS À ANTENNES ÉLECTRONIQUESRADAR 2014

48 ��REE N°5/2015

transmission alternée souffre d’une perte

significative de puissance à l’émission,

entrainant la réduction de la distance à

laquelle une cible peut être détectée.

Transmission échelonnée en temps (Time-Staggered LFMCW)

La forme d’onde Time-Staggered

LFMCW (Linear Frequency Modulated

Continuous Wave) est un signal conti-

nu, modulé linéairement en fréquence

et dont l’émission est échelonnée en

temps. Cette forme d’onde consiste en

Ne copies du signal LFMCW, chaque

transmission d’une copie étant échelon-

née dans le temps et chaque membre

étant transmis par chaque antenne,

comme illustré figure 1.

Comparée à la transmission alternée,

la forme d’onde échelonnée en temps

LFMCW permet d’exploiter pleinement

les capacités de transmission du radar

MIMO puisque les antennes émettent

simultanément. De plus, elles sont sé-

parables selon leurs retards en temps et

les interférences croisées indésirables

peuvent être filtrées. Ce qui garantit

une forte orthogonalité. Enfin, cette

forme d’onde a été utilisée avec succès

sur un radar MIMO transhorizon haute

fréquence (HF-OTH) australien [6]. La

forme d’onde échelonnée en temps

LFMCW est toutefois exclusivement

réservée aux radars à onde continue

avec une forte tolérance en PRF (Pulse

Repetition Frequency – fréquence de

répétition des impulsions), c’est-à-dire

des radars HF. Pour les autres systèmes

radar, les contraintes de PRF et d’ambi-

guïté en distance rendent difficiles l’utili-

sation d’une telle forme d’onde.

Transmission multiple par répartition en fréquence/approche MIMO FDMA

La transmission simultanée dans dif-

férentes bandes de fréquence est une

autre approche pour générer des formes

d’onde MIMO. L’approche FDMA est

également appelée codage spatio-fré-

quentiel dans la littérature et peut être

implémentée sur une unique impulsion

(temps court) ou sur un train d’impul-

sions (temps long).

Forme d’onde MIMO FDMA temps court

Les formes d’onde basées sur l’ap-

proche FDMA en temps court consistent

à émettre des chirps dans différentes

bandes de fréquences et se répétant

identiquement d’impulsion à impulsion

(comme illustré figure 2). Le chirp est

émis à une fréquence centrale séparée

de B entre deux émetteurs successifs

pour éviter tout chevauchement fréquen-

tiel. Les signaux transmis sont ainsi ortho-

gonaux sur chaque impulsion, en temps

court.

La figure 3 présente la fonction d’am-

biguïté en distance/angle de cette forme

d’onde avec B = 100 kHz et Ne = 4.

Comme l'illustre la figure 3, la contrepar-

tie de cette forme d’onde est un fort cou-

plage distance-angle induit par la relation

linéaire entre la fréquence centrale des

signaux transmis et l’indice des émetteurs.

Figure 1 : Illustration de la forme d’onde time-staggered.

Figure 2: Schéma de transmission de la forme d’onde FDMA en temps court.

Figure 3: Fonction d’ambiguïté en distance/angle de la forme d’onde.

transmission alternée souffre d’une perte

significative de puissance à l’émission,

entrainant la réduction de la distance à

laquelle une cible peut être détectée.

Transmission échelonnéeen temps (Time-Staggered LFMCW)

La forme d’onde Time-Staggered

LFMCW (Linear Frequency ModulatedW

Continuous Wave) est un signal conti-

nu, modulé linéairement en fréquence

et dont l’émission est échelonnée en

temps. Cette forme d’onde consiste en

Ne copies du signal LFMCW, chaque

transmission d’une copie étant échelon-

née dans le temps et chaque membre

étant transmis par chaque antenne,

comme illustré figure 1.

Comparée à la transmission alternée,

la forme d’onde échelonnée en temps

LFMCW permet d’exploiter pleinement

les capacités de transmission du radar

MIMO puisque les antennes émettent

simultanément. De plus, elles sont sé-

parables selon leurs retards en temps et

les interférences croisées indésirables

peuvent être filtrées. Ce qui garantit

une forte orthogonalité. Enfin, cette

forme d’onde a été utilisée avec succès

sur un radar MIMO transhorizon haute

fréquence (HF-OTH) australien [6]. La

forme d’onde échelonnée en temps

LFMCW est toutefois exclusivement W

réservée aux radars à onde continue

avec une forte tolérance en PRF (Pulse

Repetition Frequency – fréquence de

répétition des impulsions), c’est-à-dire

des radars HF. Pour les autres systèmes

radar, les contraintes de PRF et d’ambi-

guïté en distance rendent difficiles l’utili-

sation d’une telle forme d’onde.

Transmission multiple par répartition en fréquence/approche MIMO FDMA

La transmission simultanée dans dif-

férentes bandes de fréquence est une

autre approche pour générer des formes

d’onde MIMO. L’approche FDMA est

également appelée codage spatio-fré-

quentiel dans la littérature et peut être

implémentée sur une unique impulsion

(temps court) ou sur un train d’impul-

sions (temps long).

Forme d’onde MIMO FDMA temps court

Les formes d’onde basées sur l’ap-

proche FDMA en temps court consistent

à émettre des chirps dans différentes

bandes de fréquences et se répétant

identiquement d’impulsion à impulsion

(comme illustré figure 2). Le chirp est

émis à une fréquence centrale séparée

de B entre deux émetteurs successifs

pour éviter tout chevauchement fréquen-

tiel. Les signaux transmis sont ainsi ortho-

gonaux sur chaque impulsion, en temps

court.

La figure 3 présente la fonction d’am-

biguïté en distance/angle de cette forme

d’onde avec B = 100 kHz et Ne = 4.

Comme l'illustre la figure 3, la contrepar-rr

tie de cette forme d’onde est un fort cou-

plage distance-angle induit par la relation

linéaire entre la fréquence centrale des

signaux transmis et l’indice des émetteurs.

Figure 1 : Illustration de la forme d’onde time-staggered.

Figure 2: Schéma de transmission de la forme d’onde FDMAen temps court.

Figure 3: Fonction d’ambiguïté en distance/anglede la forme d’onde.

Page 22: Aperçu du numéro 2015-5 de la REE (janvier 2016)

REE N°5/2015 � 89

RETOUR SUR ❱❱❱❱❱❱❱❱❱

Bernard AyraultAncien directeur de Télécom Bretagne(Institut Mines Télécom)Membre émérite de la SEE

IntroductionQu’on n’attende pas de cet article un éclairage

technique, mais plutôt quelques réflexions sur trois

grandes aventures technologiques, le câble, la radio

puis le satellite, qui se sont succédé, et parfois concur-rr

rencées, depuis le milieu du 19e siècle. Monsieur de

la Palisse aurait remarqué qu’entre les continents on

trouve souvent des mers, des océans même, qui de

toute éternité ont représenté un milieu hostile pour

l’homme et un lieu privilégié pour ses explorations et

ses activités économiques : les télécommunications

intercontinentales ont donc affronté puis surmonté

un milieu hostile tout en symbolisant la nécessité

des accords entre les pays riverains. Les considéra-

tions géopolitiques sont donc très prégnantes depuis

près de deux siècles à propos de télécommunications

intercontinentales et nous en relèverons quelques

aspects surprenants ou oubliés.

Au temps de la Révolution, le télégraphe optique

de Chappe a, pour la première fois dans l’histoire de

l’humanité, permis le transfert d’un signal plus vite que

la course de l’homme ou du cheval ; il s’est développé

avec dynamisme tout au long de la première moitié

du 19e siècle. La nécessité d’investissements impor-rr

tants comme de règles nouvelles donnait un poids

important à l’autorité régalienne : la marine nationale

disposa rapidement d’une liaison entre le ministère

et Brest et les préfets reçurent vite du ministère de

l’Intérieur les consignes, y compris celles, discrètes en

période électorale, qu’évoque Stendhal dans Lucien

Leuwen. Une quinzaine d’années après la conquête,

les hauts plateaux algériens étaient accessibles à par-rr

tir d’Alger. Mais la Méditerranée restait un redoutable

obstacle pour une transmission rapide des consignes

gouvernementales : la mer joua un rôle essentiel

dans les communications intercontinentales, comme

dans l’essor et la gouvernance des empires coloniaux

qui se constituèrent tout au long du siècle.

Le regard historique suggère également quelques

précieuses observations quant aux rapports entre le

progrès des connaissances scientifiques, les déve-

loppements technologiques et la diffusion sociétale.

On aura l’occasion de remarquer, dans la succession

des trois grands moyens, l’existence de plusieurs

constantes de temps : est-ce un hasard si environ un

demi-siècle sépare l’émergence de la radio de celle

du câble, puis celle du satellite après l’essor de la

radio ? La nécessité d’investissements massifs pour

un « câblage » territorial ou international explique sans

doute, avec l’inertie de la société, une telle durée.

On s’étonnera par contre d’une durée plus courte,

de l’ordre de deux décennies, entre les grandes décou-

vertes et la mise au point de technologies efficaces. On

verra également combien est fort le lien entre les pro-

grès de la science et le développement des télécom-

munications : l’histoire associe de grands noms dans

les deux domaines et nombreux sont les physiciens

illustres dont les travaux sont aux fondements des télé-

communications, ou même à l’origine d’entreprises

performantes.

Les grandes étapes des télécommuni-cations intercontinentales Le câble, la radio, le satellite

Science and technology have been contributing for centuries to essential human needs: food, lighting, clothing, and also com-municate. Since the early 19th century, the development of this last aspect has been spectacular and has involved three phases,each associated with a major scientific advance followed by a technological and entrepreneurial dynamism.The article presents some essential aspects of a story whose consequences widely structure the contemporary uses of com-munication and heavily contribute to globalization.

ABSTRACT

Page 23: Aperçu du numéro 2015-5 de la REE (janvier 2016)

90 ��REE N°5/2015

❱❱❱❱❱❱❱❱❱❱❱ RETOUR SUR

Qu’il soit permis aussi dans ces considérations liminaires

de souligner combien tout ce domaine a été tributaire des

progrès de l’électronique depuis la fin du 19e siècle, puis de

l’informatique depuis le milieu du 20e ; il n’est pas étonnant

que la SEE, fondée aux temps de la fée électricité soit mar-

quée de diverses façons par la prégnance des télécommu-

nications intercontinentales : associée au prix qui honore

Edouard Branly, elle décerne avec l’IEEE le prix Alain Gla-

vieux, pour les progrès décisifs des turbocodes ; son grand

prix honore le général Gustave Ferrié, grand nom de la radio,

et c’est elle qui a eu l’honneur de recevoir en héritage la

maison d’Ampère.

Le courant continu et la télégraphie électriqueLes grandes lois physiques du courant continu et les pionniers

C’est de 1800 que date la pile de Volta, qui fait passer de

l’électrostatique à l’électrocinétique ; dès 1809 on imagine un

système 35 fils (i.e. autant que de lettres et de chiffres) qui

permettrait de communiquer à distance par un jeu d’interrup-

teurs, dès lors que l’on saurait détecter de faibles courants.

Ce sera possible après les contributions décisives d’Oers-

ted (1820 : action d’un courant sur un aimant) et d’Ampère

(1821 : actions réciproques courant-aimant) qui instituent la

boussole comme détecteur, puis après la mise au point des

lois de l’induction (1840 : Faraday) grâce auxquelles on peut

concevoir des électroaimants et construire les précieux galva-

nomètres à cadre mobile.

L’Europe des savants était alors une réalité efficace : dès

1833 Gauss et Weber réussissent une liaison expérimen-

tale entre deux bâtiments de l’université de Göttingen et

Wheatstone (l’homme du « pont », fort utile pour la mesure

des faibles courants) et dépose des brevets qui conduisent

à une liaison de 13 miles en 1838. En 1840 il propose de

transmettre des signaux le long des voies ferrées qui com-

mencent à sillonner l’Angleterre.

Le passage au stade opérationnel

Le génial Morse vient en Europe proposer le procédé de

codage qui le rendra célèbre, mais il essuie partout un échec

et on lui préfère le dispositif de Wheatstone ; avec ténacité il

finira par faire adopter dans son pays l’alphabet qui restera en

usage pendant un siècle et demi pour les communications

maritimes. Avec retard sur l’Europe, on inaugure en 1855 la

liaison entre Washington et Baltimore : depuis 10 ans, les

Français ont mis en service les liaisons entre la capitale et

Versailles (1842) puis Saint Germain (1845). Les compa-

gnies se sont créées et, dans notre pays, on assiste à une

dynamique croissance, simultanée sous le second Empire

avec celle des chemins de fer : la machine à vapeur et l’élec-

tricité sont bien les deux grandes innovations du 19e siècle.

Wheatstone, qui est aussi un grand esprit entrepreneur,

a créé avec Cooke l’Electric Telegraph Company et suggéré

dès 1840 l’idée de liaisons sous-marines ; mais les premiers

essais butent sur les questions d’étanchéité, de résistance

mécanique et de corrosion. Mais déjà se fait sentir le besoin

de coopération entre états et on crée le Bureau international

des administrations télégraphiques, localisé en Suisse.

A l’assaut des mers

Sur terre le succès du nouveau télégraphe électrique est

rapide et fait abandonner dès les années 1850 le télégraphe

optique de Chappe, sensible le jour à l’aléa de la météo et de

faible débit. Mais en mer, il faut, avant d’établir des liaisons

opérationnelles, surmonter quelques difficultés : l’invention

de la gutta percha va permettre de résoudre les questions

d’étanchéité et, comme il n’est pas question de renoncer au

cuivre en raison de sa forte conductivité, on structure le câble

avec des torons d’acier qui assurent rigidité et résistance méca-

nique lors de la pose ou du relevage. On arme des bâtiments

propres à embarquer des dizaines puis des centaines de km

de câbles et on tente l’aventure en 1865 d’une pose transat-

lantique, avec deux navires partis des Etats-Unis et d’Angleterre

à la rencontre l’un de l’autre ; comme pour presque toutes

les liaisons maritimes cette première tentative échoue. Mais

dès l’année suivante le Great Eastern (le plus grand navire

de l’époque qu’on a armé pour la pose de câbles) réussit et

récupère même le câble de l’année précédente : on est donc

fondé à penser que ce numéro de REE célèbre le sesquicente-

naire d’une très grande réussite technologique !

Figure 1 : Le Great Eastern. A son époque le Great Eastern était le plus grand bâtiment au monde ;

il pose en 1865 le premier câble télégraphique transatlantique entre l’Irlande et les USA, puis en 1869, entre Brest-Déolen et Saint Pierre

et Miquelon, le premier câble français.

Qu’il soit permis aussi dans ces considérations liminaires

de souligner combien tout ce domaine a été tributaire des

progrès de l’électronique depuis la fin du 19e siècle, puis de

l’informatique depuis le milieu du 20e ; il n’est pas étonnant

que la SEE, fondée aux temps de la fée électricité soit mar-rr

quée de diverses façons par la prégnance des télécommu-

nications intercontinentales : associée au prix qui honore

Edouard Branly, elle décerne avec l’IEEE le prix Alain Gla-

vieux, pour les progrès décisifs des turbocodes ; son grand

prix honore le général Gustave Ferrié, grand nom de la radio,

et c’est elle qui a eu l’honneur de recevoir en héritage la

maison d’Ampère.

Le courant continu et la télégraphie électriqueLes grandes lois physiques du courant continuet les pionniers

C’est de 1800 que date la pile de Volta, qui fait passer de

l’électrostatique à l’électrocinétique ; dès 1809 on imagine un

système 35 fils (i.e. autant que de lettres et de chiffres) qui

permettrait de communiquer à distance par un jeu d’interrup-

teurs, dès lors que l’on saurait détecter de faibles courants.

Ce sera possible après les contributions décisives d’Oers-

ted (1820 : action d’un courant sur un aimant) et d’Ampère

(1821 : actions réciproques courant-aimant) qui instituent la

boussole comme détecteur, puis après la mise au point des

lois de l’induction (1840 : Faraday) grâce auxquelles on peut

concevoir des électroaimants et construire les précieux galva-

nomètres à cadre mobile.

L’Europe des savants était alors une réalité efficace : dès

1833 Gauss et Weber réussissent une liaison expérimen-

tale entre deux bâtiments de l’université de Göttingen et

Wheatstone (l’homme du « pont », fort utile pour la mesure

des faibles courants) et dépose des brevets qui conduisent

à une liaison de 13 miles en 1838. En 1840 il propose de

transmettre des signaux le long des voies ferrées qui com-

mencent à sillonner l’Angleterre.

Le passage au stade opérationnel

Le génial Morse vient en Europe proposer le procédé de

codage qui le rendra célèbre, mais il essuie partout un échec

et on lui préfère le dispositif de Wheatstone ; avec ténacité il

finira par faire adopter dans son pays l’alphabet qui restera en

usage pendant un siècle et demi pour les communications

maritimes. Avec retard sur l’Europe, on inaugure en 1855 la

liaison entre Washington et Baltimore : depuis 10 ans, les

Français ont mis en service les liaisons entre la capitale et

Versailles (1842) puis Saint Germain (1845). Les compa-

gnies se sont créées et, dans notre pays, on assiste à une

dynamique croissance, simultanée sous le second Empire

avec celle des chemins de fer : la machine à vapeur et l’élec-

tricité sont bien les deux grandes innovations du 19e siècle.

Wheatstone, qui est aussi un grand esprit entrepreneur,

a créé avec Cooke l’Electric Telegraph Company et suggéréy

dès 1840 l’idée de liaisons sous-marines ; mais les premiers

essais butent sur les questions d’étanchéité, de résistance

mécanique et de corrosion. Mais déjà se fait sentir le besoin

de coopération entre états et on crée le Bureau international

des administrations télégraphiques, localisé en Suisse.

A l’assaut des mers

Sur terre le succès du nouveau télégraphe électrique est

rapide et fait abandonner dès les années 1850 le télégraphe

optique de Chappe, sensible le jour à l’aléa de la météo et de

faible débit. Mais en mer, il faut, avant d’établir des liaisons

opérationnelles, surmonter quelques difficultés : l’invention

de la gutta percha va permettre de résoudre les questions

d’étanchéité et, comme il n’est pas question de renoncer au

cuivre en raison de sa forte conductivité, on structure le câble

avec des torons d’acier qui assurent rigidité et résistance méca-

nique lors de la pose ou du relevage. On arme des bâtiments

propres à embarquer des dizaines puis des centaines de km

de câbles et on tente l’aventure en 1865 d’une pose transat-

lantique, avec deux navires partis des Etats-Unis et d’Angleterre

à la rencontre l’un de l’autre ; comme pour presque toutes

les liaisons maritimes cette première tentative échoue. Mais

dès l’année suivante le Great Eastern (le plus grand navire

de l’époque qu’on a armé pour la pose de câbles) réussit et

récupère même le câble de l’année précédente : on est donc

fondé à penser que ce numéro de REE célèbre le sesquicente-

naire d’une très grande réussite technologique !

Figure 1 : Le Great Eastern. A son époque le Great Eastern était le plus grand bâtiment au monde ;

il pose en 1865 le premier câble télégraphique transatlantique entrel’Irlande et les USA, puis en 1869, entre Brest-Déolen et Saint Pierre

et Miquelon, le premier câble français.

Page 24: Aperçu du numéro 2015-5 de la REE (janvier 2016)

REE N°5/2015 � 97

Vice-président Développement nucléaire ENGIE

ENTRETIEN AVEC PHILIPPE PRADEL

REE : Vous avez été directeur de la

Direction de l’énergie nucléaire du

Commissariat à l’énergie atomique.

Vous voici à présent Vice-président

Développement nucléaire chez ENGIE.

On peut y voir la volonté d’ENGIE

de renforcer sa présence dans le

domaine du nucléaire. Quelles sont

actuellement les ambitions d’ENGIE ?

Quel rôle entend-il jouer dans la

stratégie nucléaire française ?

Philippe Pradel : Votre question ap-

pelle plusieurs réponses. Permettez-moi

tout d’abord de faire un peu d’historique

et de rappeler l’engagement précoce

d’ENGIE dans le domaine du nucléaire.

Nous avons été pionnier en Europe avec

le développement, en partenariat avec

EDF, du premier réacteur à eau pres-

surisée construit en France, celui de

Chooz A, mis en service en 1965, arrêté

en 1999 et qui constitue à présent un

chantier-pilote des opérations de dé-

construction. Par la suite, nous avons

construit sept réacteurs représentant

au total une puissance de 6 000 MW et

dont certains ont été construits en par-

tenariat avec EDF : Tihange 1, Chooz B

et Tricastin. Nous étions opérateur sur

Tihange 1, dont la propriété est répartie

à 50/50 entre la France et la Belgique,

et nous avons des droits de tirage sur

Chooz B et sur la centrale du Tricastin.

Ceci est très important car nous avons

ainsi démontré notre capacité à travailler

en partenariat, de façon équilibrée, sur

de grands projets.

Aujourd’hui, nous exploitons sept réac-

teurs représentant en Belgique 6 000 MW

de puissance installée. Ces 6 000 MW

sont une composante importante du parc

de 115 GW que nous exploitons dans le

monde.

ENGIE est l’un des rares acteurs à maî-

triser l’ensemble des métiers de la filière

nucléaire (ingénierie, exploitation, main-

tenance, gestion des déchets, déman-

tèlement). Nous sommes très présents

dans les services y compris ceux de l’en-

richissement avec une participation de

5 % dans l’usine d’enrichissement GBII

inaugurée en 2010 au Tricastin. Nous

avons donc une position sur toute la

chaîne de valeur de l’énergie nucléaire,

et sommes ouverts et habitués à toute

forme de coopérations équilibrées.

Pour l’avenir, notre stratégie est de

promouvoir un mix énergétique diversifié,

équilibré et décarboné : le nucléaire joue

un rôle important au sein de cette stra-

tégie et le développement de notre parc

nucléaire est donc pour nous une ques-

tion qui reste tout à fait à l’ordre du jour.

REE : Comment choisissez-vous

les projets auxquels vous souhaitez

participer ?

P. P. : Nous sommes très sélectifs en

termes de pays et de marchés. Nous

nous intéressons aux pays où un marché

est établi, c’est à dire où il existe un mar-

ché convenablement régulé où l’on peut

passer des accords du type PPA (Power

Purchase Agreements) ou de type CfD

(Contract for Difference). Nous nous

intéressons uniquement à la technologie

des réacteurs nucléaires à eau pressuri-

sée de troisième génération, technologie

dans laquelle nous avons de l’expérience

et du savoir-faire.

Notre réponse au caractère très capi-

talistique des projets dans le domaine

du nucléaire consiste à travailler en par-

tenariat – coopération avec l’exploitant

nucléaire local ou avec des partenaires

locaux influents au niveau politique et

industriel – en recherchant des plans

de financement partagés entre fonds

propres et endettement garanti.

Nous pensons que le modèle de par-

tenariat et de risques partagés qui est

tout à fait usuel dans le domaine du pé-

trole et du gaz, s’impose également dans

celui du nucléaire. Malheureusement, ni

la France, ni l’Europe ne sont dotées à ce

jour d’instruments de financement qui

leur permettent de faire face de manière

suffisamment efficace à la concurrence

des autres acteurs, Russie, Chine, Japon

et Etats-Unis.

REE : Malgré ces difficultés,

vous parvenez cependant à être

présent dans certains grands projets.

Quels sont actuellement vos chan-

tiers principaux ?

P. P. : Le premier projet est celui mené

par NuGen – ou NuGeneration, société

de projet détenue à 60 % par Toshiba et à

40 % par ENGIE - en Grande-Bretagne qui

vise à construire, trois réacteurs du type

AP1000 sur le site de Moorside adjacent

à celui de Sellafield, le long de la mer d’Ir-

lande. Les réacteurs auront une puissance

totale de 3,6 GW et utiliseront la tech-

nologie développée par Westinghouse.

Nous avons une position d’investisseur

mais nous apportons également notre

Un pionnier de l’énergie nucléaire avec une expérience

de plus de 50 ans

ENGIE et le développement du nucléaire

L’avenir du nucléaire est dans les partenariats équilibrés

à l’instar du domaine pétrolier

Aujourd’hui, deux projets principaux :

NuGen (Grande-Bretagne) et Sinop (Turquie)

Page 25: Aperçu du numéro 2015-5 de la REE (janvier 2016)

98 ��REE N°5/2015

REE : Quels sont les atouts

qui ont été déterminants dans

le choix des autorités turques ?

REE : Nous voulions justement vous

demander où en était le dévelop-

pement de ce réacteur et comment

il se positionnait aujourd’hui sur le

marché.

REE : ENGIE n’est pas directement par-

tie prenante aux négociations en cours

sur AREVA. Elle ne peut pourtant pas

s’en désintéresser. En particulier votre

partenaire Mitsubishi Heavy Industries

a formulé son intérêt pour une prise

de participation dans la partie réacteurs

d’AREVA. Cela ne risque-t-il pas de

créer une situation très compliquée ?

REE : La loi sur la transition énergétique

et la croissance verte a été adoptée en

août dernier. Quel regard portez-vous

sur les dispositions votées, en particu-

lier sur celles relatives au nucléaire ?

savoir-faire d’opérateur. Actuellement, les

études de caractérisation du site sont en

cours et elles alimenteront d’autres tra-

vaux tels que les activités réglementaires

et commerciales ainsi que les démarches

concernant l’obtention de différents per-rr

mis et autorisations administratives. Au

terme de ces analyses et études détaillées

et après l’obtention des permis et accords

nécessaires, une décision finale d’investis-

sement pourra être prise fin 2018.

Le second est le projet de construc-

tion d’une centrale nucléaire à proximité

de la ville de Sinop, en Turquie le long de

la mer Noire. Ce projet de quatre réac-

teurs ATMEA1 développant 4 480 MW

sera réalisé en BOO (Build-Own-Ope-

rate) par un consortium associant ENGIE,

Mitsubishi Heavy Industries (MHI),

ITOCHU et la Turkish Electricity Genera-

tion Corporation (EÜAS) dans le cadre

d’un accord intergouvernemental entre la

Turquie et le Japon. Au stade actuel, les

études de faisabilité qui devraient durer

de 18 à 24 mois se poursuivent sur le site.

REE : Quels sont les atouts

qui ont été déterminants dans

le choix des autorités turques ?

P. P. : La solidité des partenaires et de

l’offre technique, le degré d’avancement

dans les procédures de certification sont

des paramètres importants. Rappelons

que les réacteurs seront du type ATMEA1,

un réacteur à eau pressurisée de généra-

tion III+ conçu selon les critères de sécu-

rité et de fiabilité les plus stricts par une

co-entreprise constituée par Mitsubishi

Heavy Industries et AREVA. Ils bénéficie-

ront du meilleur de l’expérience accumu-

lée depuis plusieurs dizaines d’années

par les deux partenaires.

REE : Nous voulions justement vous

demander où en était le dévelop-

pement de ce réacteur et comment

il se positionnait aujourd’hui sur le

marché.

P. P. : L’ATMEA1 est un réacteur de troi-

sième génération à eau pressurisée, qui

se situe au meilleur niveau de la tech-

nologie actuelle dans le domaine du nu-

cléaire (on parle parfois de 3G+ !). Avec

une puissance de 1 100 MW, le réacteur

est particulièrement bien adapté aux

réseaux de dimension moyenne qui ne

peuvent pas accueillir des réacteurs de

taille supérieure (rappelons que l’EPR a

une puissance unitaire de 1 600 MW),

en particulier ceux de la plupart des pri-

mo-accédants au domaine nucléaire.

Il bénéficie de l’expérience des deux

partenaires et en particulier de celle de

MHI dans le domaine de la prévention

des risques sismiques. Il est doté de trois

boucles de refroidissement redondantes

et d’un récupérateur de corium1. Sa

conception en fera un outil de très haut

rendement énergétique et sa durée de vie

prévisionnelle est d’emblée de 60 ans.

Le “basic design” a reçu en 2012 un

avis positif sur les options de sûreté de

la part de l’ASN (Autorité de sûreté nu-

cléaire) et l’ATMEA1 retient aujourd’hui

l’intérêt de plusieurs pays : le Vietnam,

le Brésil, sans oublier la France où nous

avions proposé la réalisation d’un réac-

teur en vallée du Rhône.

REE : ENGIE n’est pas directement par-

tie prenante aux négociations en cours

sur AREVA. Elle ne peut pourtant pas

s’en désintéresser. En particulier votre

partenaire Mitsubishi Heavy Industries

a formulé son intérêt pour une prise

de participation dans la partie réacteurs

d’AREVA. Cela ne risque-t-il pas de

créer une situation très compliquée ?

P. P. : Compte tenu du contexte que j’ai

rappelé et de la coopération qui s’est

nouée depuis 2006 entre AREVA et MHI

autour du projet ATMEA1, il est tout à fait

naturel que MHI s’intéresse au devenir

de la partie « réacteurs » d’AREVA.

REE : La loi sur la transition énergétique

et la croissance verte a été adoptée en

août dernier. Quel regard portez-vous

sur les dispositions votées, en particu-

lier sur celles relatives au nucléaire ?

P. P. : La stratégie énergétique, dans

le domaine nucléaire en particulier,

est définie au niveau national et a fait

l’objet d’un vote par le parlement. Nous

sommes heureux que les choses aient

été clarifiées et que la loi reconnaisse

un rôle important au nucléaire qui est,

1 Le corium est le magma métallique et mi-néral constitué d’éléments fondus du cœur d’un réacteur nucléaire et des minéraux qu’il peut absorber lors de son trajet.

ATMEA1 :un réacteur au meilleur niveau

de la technologie actuelle

MHI est un partenaire naturel

Philippe Pradel est diplômé

de l’École Polytechnique et de l’École

nationale supérieure des techniques

avancées (ENSTA). Il est entré au Com-

missariat à l’énergie atomique (CEA)

en 1980 pour travailler sur le réacteur

expérimental Superphénix et a rejoint la

COGEMA en 1987 pour travailler sur le

retraitement du combustible nucléaire à

l’usine de retraitement de La Hague. Il

occupe diverses fonctions de responsa-

bilités chez COGEMA puis AREVA avant

d’être nommé directeur de la Direction de

l’énergie nucléaire du CEA. Depuis 2010,

il occupe le poste de vice-président GSND

(ENGIE).

Philippe Pradel est membre de l’Académie

des technologies et chevalier de la Légion

d’honneur.

Page 26: Aperçu du numéro 2015-5 de la REE (janvier 2016)

REE N°5/2015 � 101

ENSEIGNEMENT & RECHERCHE

Sandrine Vaton Professeure, Télécom Bretagne

Etat des lieuxVous avez dit « Egalité » ?

A tteindre l’égalité entre tous les citoyens fait partie des principes affirmés dans les textes fondateurs de la France, dès la première République. L’égalité des sexes est ainsi formulée dans le préambule de la constitution

de 1946 : « La loi garantit à la femme, dans tous les domaines, des droits égaux à ceux de l’homme ».

Pourtant, force est de constater qu’en 2015 on est très loin de l’égalité entre les femmes et les hommes, en particulier dans le domaine salarial. D’après les chiffres 2013 de l’APEC et de l’INSEE, les inégalités de salaires s’élèvent à 27 % dans le privé et 18 % dans le public (en faveur des hommes). Les pensions de retraite des femmes sont de l’ordre de 30 % inférieures à celles des hommes. Les femmes cadres supérieures gagnent 14 % de moins que les hommes, l’écart étant de 5 % en début de carrière et de l’ordre de 20 % après 50 ans.

Une situation paradoxale : le rendement des diplômes dépendrait-il du genre ?

Leurs résultats en matière scolaire pourraient laisser croire que les femmes entament leur carrière avec de meilleurs atouts que les hommes. 85 % des femmes de 25 à 34 ans sont diplômées du second cycle de l’éducation secondaire contre 83 % des hommes du même âge. 48 % des femmes sont diplômées de l’enseigne-ment supérieur contre 38 % des hommes.

Bien qu’elles soient plus nombreuses à être diplômées du supérieur, les femmes accusent un retard salarial significatif sur les hommes. On pourrait en conclure que le rendement d’un diplôme du supérieur est plus faible pour une femme que pour un homme. Cette situation n’est bien sûr pas satisfaisante. On est bien loin de l’égalité que nous promettent les grands prin-cipes de la République.

Analyse des principaux facteurs d’inégalité

Pour comprendre cet apparent paradoxe il faut analyser les fac-teurs d’inégalités.

Le temps partiel, qui peut être choisi, souvent pour des raisons d’or-ganisation familiale, mais qui est également subi par un certain nombre de salariées surtout parmi les moins qualifiées, est un premier facteur d’inégalité : 80 % des salarié-e-s à temps partiel sont des femmes.

Les tâches domestiques restent l’apanage des femmes. Ces contraintes et le fait de souvent privilégier au sein du couple la carrière de l’homme ont aussi un impact négatif sur l’évolution de carrière des femmes.

La fonction exercée et le secteur d’activité sont aussi des fac-teurs d’inégalité majeurs. La notion de « salaire d’appoint » a la peau dure et les métiers traditionnellement à prédominance féminine souffrent d’évaluation discriminante [1].

Le plafond de verre (de l’anglais, glass ceiling effect) désigne le fait que les niveaux supérieurs de la hiérarchie ne sont pas acces-sibles à certaines catégories, par exemple les femmes, du fait d’un réseau de pouvoir implicite.

Ces différents facteurs contribuent à expliquer, même s’ils ne les justifient pas, les différences salariales au détriment des femmes. Il reste toutefois une différence inexpliquée de l’ordre de 9 % à com-pétences, diplômes, temps de travail et poste occupé équivalents. C’est la part de la discrimination pure dans les différences salariales.

Métiers du numérique : opportunités et choix d’orientation genrés

Revenons sur un des facteurs explicatifs identifiés ci-dessus, le secteur d’activité et le métier exercé. Certains secteurs sont pour-voyeurs d’emplois correctement rémunérés, c’est en particulier le cas du numérique : il est important d’encourager les jeunes, et en particulier les jeunes femmes, à s’orienter vers ce secteur.

Le 15 octobre 2015, a eu lieu en Bretagne la conférence « Le nu-mérique : des métiers en tous genres », à l’initiative de l’associa-tion Femmes & sciences et de l’université européenne de Bretagne (UEB), en association avec certains établissements d’enseignement supérieur et de recherche et en partenariat avec le rectorat d’aca-démie de Rennes. Lors de cette journée, plus de 600 scolaires, filles et garçons, de collèges et lycées, ont été sensibilisé-e-s aux opportunités offertes par le numérique.

Femmes et numériqueDes opportunités formidables

La place croissante des technologies de l’information dans tous les secteurs de l’économie fait du numérique un pourvoyeur d’emplois en croissance rapide, tant par le nombre que par la diversité des métiers proposés. Les

jeunes diplômés, et en particulier les jeunes femmes, y sont très attendus. Le dynamisme du secteur représente une opportu-nité d’épanouissement pour toutes et pour tous. Pourtant les femmes sont très peu nombreuses à s’orienter vers les forma-tions dans ce domaine et à y faire carrière. Cet article propose un état des lieux sur la féminisation des formations et métiers du numérique, s’interroge sur le manque d’attractivité du secteur auprès des jeunes femmes et présente la grande variété des actions mises en place pour tenter d’y remédier.

RÉSUMÉ

Page 27: Aperçu du numéro 2015-5 de la REE (janvier 2016)

102 ��REE N°5/2015

ENSEIGNEMENT & RECHERCHE

Perspectives des métiers du numérique

D’après les chiffres 2012 du Syntec numérique, la rémunération brute annuelle moyenne dans les entreprises de la fédération est de 48,3 k� (contre 33,1 k� pour l’ensemble de l’économie). 93,7 % des salariés sont en CDI (contre 69,5 % pour l’ensemble de l’économie). 68,9 % des salariés sont cadres (contre 15,6 % pour l’ensemble de l’économie).

Seules 27,3 % des salariés des entreprises du Syntec numérique sont des femmes contre 48,4 % pour l’ensemble de l’économie. Ce secteur, qui emploie majoritairement des cadres, offre des salaires plutôt confortables, mais les femmes y sont sous-représentées, en particulier dans les fonctions techniques (techniciennes, ingé-nieures). La pyramide des âges met par ailleurs en évidence un dé-séquilibre avec un fort déficit de femmes parmi les jeunes. Il y a en effet beaucoup d’hommes jeunes dans le numérique, mais pas de femmes dans les mêmes proportions. Avec des projections prenant en compte les départs en retraite dans les années à venir, le pour-centage de femmes dans le secteur devrait donc encore baisser...

Il est indispensable que les femmes participent activement à la transition numérique, qu’elles soient les actrices de ce change-ment plutôt qu’elles ne le subissent. Le numérique est une révolu-tion en profondeur de la société, qui remet en cause les modes de fonctionnement anciens, au même titre que naguère l’écriture ou l’imprimerie. Ses domaines d’intervention sont très variés : aéronau-tique, défense, télécommunications, énergie, transports, banque... La MEITO, dont la mission est de contribuer au développement économique des activités TIC en Bretagne, suscite également des programmes croisés entre numérique et agriculture, numérique et bâtiment, numérique et santé ou biotechnologies...

La numérisation de l’économie aura un impact fort sur la nature des emplois. Certains emplois vont disparaître dans les prochaines années du fait du passage à l’ère numérique. D’autres vont évoluer pour s’enrichir en TIC, et ceci est vrai dans tous les domaines de l’éco-nomie, pas uniquement dans les nouvelles technologies. Les jeunes sont encore trop peu nombreux à acquérir des compétences profes-sionnelles dans le domaine. Le nombre d’emplois de cadres à pour-voir en France dans le secteur du numérique en 2015 était de l’ordre de 35 000 et les entreprises peinent souvent à trouver suffisamment de personnes formées, par exemple en sécurité informatique.

Il est indispensable que les jeunes, et en particulier les jeunes femmes, prennent conscience de cette évolution des métiers et en tiennent compte dans leurs choix d’orientation. Accroître la repré-sentation des femmes dans le secteur serait bénéfique aux femmes elles-mêmes, mais aussi à l’industrie du numérique. D’après un communiqué de la Commission européenne publié en 2013, ac-croître la présence des femmes dans le secteur de l’économie nu-mérique de l’UE permettrait d’augmenter de neuf milliards d’euros le PIB annuel. Il est par ailleurs reconnu, notamment par l’étude Women Matter de Mc Kinsey & Company, que les organisations qui intègrent le plus de femmes aux postes d’encadrement affichent une meilleure performance organisationnelle et une plus forte ren-tabilité financière.

Des choix d’orientation genrés

Malgré les atouts du secteur, les jeunes femmes sont très peu nombreuses à s’orienter vers les sciences et technologies de l’in-formation et de la communication (STIC). Elles sont en moyenne 27 % dans les écoles d’ingénieurs, ce qui est déjà fort peu, et c’est dans les écoles de chimie, d’agriculture, agro-alimentaire ou agrono-mie qu’on les retrouve essentiellement. Au niveau des classes pré-paratoires aux grandes écoles scientifiques elles sont majoritaires en filière BCPST (biologie, chimie, physique et sciences de la Terre) avec 70 % des effectifs, mais très minoritaires dans les filières MPSI (maths-physique-sciences de l’ingénieur) et PT (physique technolo-gie) avec respectivement 28 et 11 % des effectifs.

Dans les écoles à dominante informatique ou STIC, les jeunes femmes sont rares, leur proportion atteignant rarement les 20 %. Certaines écoles, bien souvent des écoles d’informatique, n’ont que de l’ordre de 5 à 10 % de femmes parmi les étudiant-e-s. Le même phénomène peut être observé dans certaines écoles de

Le plafond de verre enfin expliqué ?

Dans un article récent, Avin et al. [2] font une analyse mathématique du mécanisme du « plafond de verre ». Pour cela ils partent des données de la base DBLP des publications scientifiques en mathématiques et infor-matique. Ils font l’hypothèse que trois conditions inter-viennent dans l’apparition d’un plafond de verre :

femmes, -

socient plus facilement avec des femmes et les hommes avec des hommes, et

les nœuds roses représentant les femmes et les nœuds bleus les hommes, et ils simulent par ordinateur son évo-

des trois conditions énoncées ci-dessus. Ils observent alors l’apparition d’un plafond de verre, les nœuds les plus connectés ayant de fortes chances d’être bleus.

--

l’on supprime l’une quelconque des trois conditions ci-dessus, alors le phénomène de plafond de verre n’appa-raît plus.

Perspectives des métiers du numérique

D’après les chiffres 2012 du Syntec numérique, la rémunération brute annuelle moyenne dans les entreprises de la fédération est de 48,3 k� (contre 33,1 k� pour l’ensemble de l’économie). 93,7% des salariés sont en CDI (contre 69,5 % pour l’ensemble de l’économie). 68,9 % des salariés sont cadres (contre 15,6 % pour l’ensemble de l’économie).

Seules 27,3 % des salariés des entreprises du Syntec numérique sont des femmes contre 48,4 % pour l’ensemble de l’économie. Ce secteur, qui emploie majoritairement des cadres, offre des salairesplutôt confortables, mais les femmes y sont sous-représentées,en particulier dans les fonctions techniques (techniciennes, ingé-nieures). La pyramide des âges met par ailleurs en évidence un dé-séquilibre avec un fort déficit de femmes parmi les jeunes. Il y a eneffet beaucoup d’hommes jeunes dans le numérique, mais pas de femmes dans les mêmes proportions. Avec des projections prenant en compte les départs en retraite dans les années à venir, le pour-rrcentage de femmes dans le secteur devrait donc encore baisser...

Il est indispensable que les femmes participent activement à la transition numérique, qu’elles soient les actrices de ce change-ment plutôt qu’elles ne le subissent. Le numérique est une révolu-tion en profondeur de la société, qui remet en cause les modes defonctionnement anciens, au même titre que naguère l’écriture ou l’imprimerie. Ses domaines d’intervention sont très variés : aéronau-tique, défense, télécommunications, énergie, transports, banque...La MEITO, dont la mission est de contribuer au développementéconomique des activités TIC en Bretagne, suscite également desprogrammes croisés entre numérique et agriculture, numérique et bâtiment, numérique et santé ou biotechnologies...

La numérisation de l’économie aura un impact fort sur la nature des emplois. Certains emplois vont disparaître dans les prochaines années du fait du passage à l’ère numérique. D’autres vont évoluer pour s’enrichir en TIC, et ceci est vrai dans tous les domaines de l’éco-nomie, pas uniquement dans les nouvelles technologies. Les jeunes sont encore trop peu nombreux à acquérir des compétences profes-sionnelles dans le domaine. Le nombre d’emplois de cadres à pour-rrvoir en France dans le secteur du numérique en 2015 était de l’ordre de 35 000 et les entreprises peinent souvent à trouver suffisamment de personnes formées, par exemple en sécurité informatique.

Il est indispensable que les jeunes, et en particulier les jeunes femmes, prennent conscience de cette évolution des métiers et en tiennent compte dans leurs choix d’orientation. Accroître la repré-sentation des femmes dans le secteur serait bénéfique aux femmes elles-mêmes, mais aussi à l’industrie du numérique. D’après un communiqué de la Commission européenne publié en 2013, ac-croître la présence des femmes dans le secteur de l’économie nu-mérique de l’UE permettrait d’augmenter de neuf milliards d’euros le PIB annuel. Il est par ailleurs reconnu, notamment par l’étude Women Matter de Mc Kinsey & Company, que les organisations quirintègrent le plus de femmes aux postes d’encadrement affichent une meilleure performance organisationnelle et une plus forte ren-tabilité financière.

Des choix d’orientation genrés

Malgré les atouts du secteur, les jeunes femmes sont très peu nombreuses à s’orienter vers les sciences et technologies de l’in-formation et de la communication (STIC). Elles sont en moyenne27 % dans les écoles d’ingénieurs, ce qui est déjà fort peu, et c’est dans les écoles de chimie, d’agriculture, agro-alimentaire ou agrono-mie qu’on les retrouve essentiellement. Au niveau des classes pré-paratoires aux grandes écoles scientifiques elles sont majoritaires en filière BCPST (biologie, chimie, physique et sciences de la Terre) avec 70 % des effectifs, mais très minoritaires dans les filières MPSI(maths-physique-sciences de l’ingénieur) et PT (physique technolo-gie) avec respectivement 28 et 11 % des effectifs.

Dans les écoles à dominante informatique ou STIC, les jeunes femmes sont rares, leur proportion atteignant rarement les 20 %.Certaines écoles, bien souvent des écoles d’informatique, n’ont que de l’ordre de 5 à 10 % de femmes parmi les étudiant-e-s.Le même phénomène peut être observé dans certaines écoles de

Le plafond de verre enfin expliqué ?

Dans un article récent, Avin et al. [2] font une analysemathématique du mécanisme du « plafond de verre ». Pour cela ils partent des données de la base DBLP des publications scientifiques en mathématiques et infor-matique. Ils font l’hypothèse que trois conditions inter-viennent dans l’apparition d’un plafond de verre :

femmes, -

socient plus facilement avec des femmes et les hommesavec des hommes, et

les nœuds roses représentant les femmes et les nœuds bleus les hommes, et ils simulent par ordinateur son évo-

des trois conditions énoncées ci-dessus. Ils observentalors l’apparition d’un plafond de verre, les nœuds les plusconnectés ayant de fortes chances d’être bleus.

--

l’on supprime l’une quelconque des trois conditions ci-dessus, alors le phénomène de plafond de verre n’appa-raît plus.

Page 28: Aperçu du numéro 2015-5 de la REE (janvier 2016)

REE N°5/2015 � 109

Sous un titre insolent, Dieu n’estplus ce qu’il était, la chronique de REE 2015-4 s’efforçait de montrer comment s’articulent, à propos de

nos origines, physique et métaphysique. Pour celle-ci, nous nous tournons vers l’avenir, tant les évolutions technologiques et les réflexionséthiques interfèrent quant aux possibilités et aux finalités de l’humanité…

Les progrès de l’informatique, stockage et traitement de l’information, irriguent de nom-breux domaines : qu’il s’agisse de l’automa-tique et de la robotique, des neuroscienceset de l’intelligence artificielle, de l’interactionhomme-machine et des techniques palliativesau handicap, le progrès permet d’améliorer la condition humaine. On va bientôt comprendreet stimuler les mécanismes, physiologiques donc matériels, de la conscience ; les neuros-ciences autorisent l’espoir de guérir des mala-dies encore invalidantes ou dégénératives.

Ce qui touche à l’intelligence et au cerveau s’inscrit dans ce que le progrès contempo-rain a de spectaculaire, mais aussi de mysté-rieux. Ainsi le prix du journal Le Monde de larecherche universitaire vient d’être décerné à Jonathan Grizou (INRIA Bordeaux) pour la miseau point d’algorithmes d’apprentissage permet-tant d’adapter les interfaces cerveau-machine à chaque patient. Le progrès met en jeu desmécanismes subtils, souvent vulgarisés sous leterme d’ondes qui garde dans le grand public son aura de mystère, voire de danger !

Les interfaces cerveau-machine qui aug-mentent l’humain pour dépasser ses limites,tel est le thème du premier ouvrage qui inspirenos propos ; sous un titre, Une puce dans la tête, qui fleure les excès du marketing, DorianNeerdael, jeune philosophe et éthicien formé à l’Université Libre de Bruxelles (ULB), explore d’une plume alerte les interrogations suscitéespar ces dispositifs qui produisent des applica-tions performantes, décisives pour améliorer lasituation de handicapés ; le tapage médiatique étouffe d’ailleurs le plus souvent, le caractèrenovateur mais limité des résultats acquis et les submerge de commentaires où l’aspect théra-peutique l’homme réparé le cède trop facile-ment au sensationnel de l’homme augmenté,voire de l’homme dépassé…

La pertinence de l’ouvrage de Dorian Neerdael et la facilité de son abord tiennent à

un sympathique équilibre entre la technicité philosophique et la complexité scientifique : elles ont d’ailleurs séduit le jury du prix « X PHI-LO » récompensant chaque année un ouvrageconfrontant science et philosophie. Face aux excès de la prospective sur la fusion cerveau-machine, notre philosophe insiste autant sur lespromesses que sur les menaces d’une quête il-limitée de performances : c’est à juste titre qu’ilen appelle à Kant ou à Diderot pour concilier esprit critique et perspective humaniste.

Comment ne pas souscrire à une conclu-sion insistant sur la différence entre augmen-

tation et amélioration et appelant à renoncer àune quête de performance illimitée qui pour-rrrait à terme menacer la pérennité de la viesur terre… Cette prudence méthodologique s’oppose aux post- et aux des trans-huma-nistes dont les analyses confinent à l’utopie ouau rêve, parfois même au délire, par exemplequand on spécule sur la transmission de pen-sée ou sur la possibilité de d’immortalité grâce à la cryogénie.

La REE, avec ses récents dossiers sur lescontributions des TIC à la santé ou à la lutte

contre la dépendance, est évidemment sen-sible à la prospective sur toutes ces questionset elle a reçu avec intérêt le nouveau cahier dela Fondation Télécom. Créée par Alcatel-Lucent, BNP Paribas et Orange et associant des parte-naires importants, cette fondation a mobiliséles spécialistes des diverses écoles de Télécom pour illustrer les recherches entreprises et ima-giner leurs développements : le thème « TIC et santé » est en effet un objectif stratégique de l’Institut Mines-Télécom auquel elles appar-rrtiennent. C’est un cahier dense, et l’on peutmesurer des retombées avérées, telles la créa-tion de startups, ainsi que les attentes socié-tales pour les prochaines décennies où les TIC joueront un rôle souvent décisif ; la plupart desdispositifs externes, mécaniques et/ou numé-riques, susceptibles d’augmenter l’humain sontenvisagés, même si les thèmes controverséscomme les puces implantées dans le corps oules modifications du génome sont hors champ de cette prospective.

Les recherches concernant l’homme répa-ré, où les conséquences du handicap, de ladépendance, du vieillissement ou de la mala-die sont partiellement ou totalement effacées,connaissent grâce au prodigieux essor destechnosciences un grand succès ; l’efficacité même de ces retombées conduit naturelle-ment à un homme augmenté, dès lors qu’elles concernent les capacités biologiques de l’es-pèce : en imaginant une « Loi de Moore » pour de tels dispositifs, on en vient naturellement à imaginer que viendra, assez vite d’ailleurs, le moment ou la machine dépassera l’humain,inaugurant l’ère du post humanisme.

Le cahier ne nous parait pas témoigner à l’égard de ces perspectives de la même rigueur éthique que Dorian Neardall ; il fait une placeparfois complaisante à la « singularité » envisa-gée en 2005 par Raymond C. Kurzweil. Sou-haitons que les capacités de réflexion philo-sophique de l’Institut, dont on a pu apprécier la pertinence (cf l’ouvrage piloté par BrigitteMunier sur La sociologie du corps à l’épreuve des nouvelles technologies), continuent d’innerss -rrver les recherches techniques. Quand les biolo-gistes s’inquiètent d’une possible dérive eugé-nique et les statisticiens des risques sociétauxdes « Big Data », il serait regrettable que s’affai-blisse une indispensable vigilance éthique. �

B. AyAA .

CHRONIQUE

L’Homme, et après… ?

Dorian Neerdael Une puce dans la tête

Les interfaces cerveau-machine qui augmentent l’humain pour dépasser ses limites

Editions FYP Collection Présence août 2014 - 160 p. - 15,50 �

D ri N rd l

Ouvrage collectif L’Homme augmenté

Notre humanité en quête de sensCahier de la Fondation Télécom

juin 2015 - 28 p.

Page 29: Aperçu du numéro 2015-5 de la REE (janvier 2016)

REE N°5/2015 � 111

LIBRES PROPOS

Gilles Bellec Ingénieur général des mines

La communication du pape François dans

l’encyclique « Laudato si’ » (« Loué sois-tu »)

a retenti au niveau mondial. Elle s’adresse à

tous les hommes de bonne volonté afin de

guider leurs actions mais sans chercher à imposer ses

solutions car :

61. L’Église n’a pas de raison de proposer une parole

définitive et elle comprend qu’elle doit écouter puis

promouvoir le débat honnête entre scientifiques, en

respectant la diversité d’opinions.

L’apocalypse nucléaire qui avait suscité

l’encyclique « Pacem in terris » n’a pas eu

lieu. Un autre risque se profile insidieuse-

ment avec le progrès : l’activité humaine

menace « l’ordre admirable » qui per-

met la vie sur Terre.

Ce risque était déjà identifié par Lamarck en 1820

dans son « Système analytique des connaissances posi-

tives de l’homme » :

L’homme, par son égoïsme trop peu clairvoyant pour

ses propres intérêts, par son penchant à jouir de tout ce

qui est à sa disposition, en un mot, par son insouciance

pour l’avenir et pour ses semblables, semble travailler à

l’anéantissement de ses moyens de conservation et à la

destruction même de sa propre espèce… On dirait qu’il

est destiné à s’exterminer lui-même après avoir rendu

le globe inhabitable.

Aujourd’hui la destruction s’étend progressivement à

l’ensemble du globe et les alertes viennent de tous les

horizons scientifiques. Le risque ne réside plus, comme

dans le passé, dans des destructions locales succes-

sives. II est devenu global.

Le diagnostic ne suscite pas le doute :

161. Les prévisions catastrophistes ne peuvent plus

être considérées avec mépris ni ironie. Nous pourrions

laisser trop de décombres, de déserts et de saletés

aux prochaines générations. Le rythme de consom-

mation, de gaspillage et de détérioration de l’environ-

nement a dépassé les possibilités de la planète, à tel

point que le style de vie actuel, parce qu’il est insou-

tenable, peut seulement conduire à des catastrophes.

Le pape invite à penser le monde comme un espace

« clos et fini ». Cette vision qui n’est pas nouvelle conduit

cependant à une révolution de la représentation du

monde aussi importante que celle de l’espace impul-

sée par Galilée ou celle de l’écoulement du temps par

Darwin. Il s’agit de prendre en compte les problèmes

nouveaux provoqués par des hommes plus nombreux,

plus riches, plus protéinés et plus mobiles.

Comme « Tout est lié », la vision du pape inclut la ques-

tion sociale :

49. Une vraie approche écologique se transforme

toujours en une approche sociale, qui doit intégrer

la justice dans les discussions sur l’environnement,

pour écouter tant la clameur de la terre que la cla-

meur des pauvres.

Pour faire partager sa vision, le pape ne vise pas le com-

promis :

194. Il ne suffit pas de concilier, en un

juste milieu, la protection de la nature

et le profit financier, ou la préservation

de l’environnement et le progrès. Sur ces

questions, les justes milieux retardent

seulement un peu l’effondrement. Il s’agit simple-

ment de redéfinir le progrès.

*

* *

Le message est puissant. « Tout est lié » : le style

répétitif est circulaire comme l’économie devrait être cir-

culaire pour sortir de la « culture du déchet ».

Pour résumer, la question des pauvres et celle de la

nature sont liées, le matérialisme individualiste créateur

de richesses détruit le monde, le partage traditionnel

chrétien ne suffit plus, la sobriété collective s’impose. Un

changement de comportement, mettant fin à l’accumula-

tion des richesses matérielles est nécessaire. Il est encou-

ragé et rendu acceptable par la valorisation des richesses

spirituelles de la vie intérieure mais aussi des richesses

de la nature, de la création humaine, de l’art, de la poésie.

Une injonction à un tel niveau questionne en profon-

deur les instruments de politique publique sous plusieurs

angles : la responsabilité, l’impatience, le partage et le

marché et enfin la diversité comme source de richesse.

Responsabilité et éloge de la sobriété et de la lenteur

Comment inciter les hommes à la responsabi-

lité vis-à-vis de l’ordre naturel ? Les moines donnent

un exemple poussé à l’extrême de « saine sobriété ».

De son côté, homo faber vise l’efficacité accrue du

Une lecture de Laudato si’

Page 30: Aperçu du numéro 2015-5 de la REE (janvier 2016)

112 ��REE N°5/2015

LIBRES PROPOS

prélèvement sur la nature par la mobilisation de la

techno-science, l’usage d’équipements performants et

l’accumulation de richesse technique.

Sans oublier – ni le surestimer – le potentiel du…

22… modèle circulaire de production qui assure

des ressources pour tous comme pour les généra-

tions futures et qui suppose de limiter au maximum

l’utilisation des ressources non renouvelables, d’en

modérer la consommation, de maximiser l’efficacité

de leur exploitation, de les réutiliser et de les recycler.

Comment évoluer vers une société plus riche et plus

sobre ? Riche en capital accumulé par dynamisme indi-

viduel, sobre en consommation par nécessité collective

et policée pour respecter l’environnement.

Le philosophe Hans Jonas développe dans une

phrase très abstraite le principe de la responsabilité :

« L’action a lieu dans un contexte où tout emploi à

grande échelle d’une capacité engendre, en dépit de

l’intention droite des agents, une série d’effets liée étroi-

tement aux effets « bénéfiques » immédiats et intention-

nés, série qui aboutit, au terme d’un processus cumu-

latif à des conséquences néfastes dépassant parfois de

loin le but recherché ».

En remplaçant le mot action par les mots transport,

tourisme, agriculture ou le mot pêche, le sens s’éclaire.

La question de la responsabilité humaine dans un

monde clos est alors posée.

La démographie mérite une attention particulière car

les prélèvements sur la nature dépendent du nombre

de convives à la table de la consommation. Rien n’em-

pêche alors de substituer dans la phrase évoquée le mot

action par paternité. Le pape balaye l’objection : « La

croissance démographique est pleinement compatible

avec un développement intégral et solidaire ».

Dans d’autres occasions, le pape développe le

concept de paternité responsable mais limité au contexte

familial et social, sans référence au caractère clos et fini

du monde. Pourtant quand on associe autant « la cla-

meur des pauvres et de la terre », la tension entre l'équi-

libre de l'ordre naturel et l'accès aux ressources pour des

populations plus nombreuses ne peut être niée.

Dans un système clos, toute consommation a une

contrepartie. La concurrence entre la Terre et les hu-

mains s’impose. Une dynamique est lancée. Au cours

du XXe siècle, la population humaine a été multipliée par

7 et le nombre des grands animaux sauvages ou des

poissons a été divisé par 10 ou 100 selon les espèces et

les scientifiques parlent de 6e extinction. Le genre homo

s’accroît au détriment de la nature. Et un peuplement

plus nombreux tend à éloigner les hommes de la nature,

ce qui, pour le pape, rend la pauvreté plus dure encore.

L’avenir devra inévitablement établir un équilibre entre la

sobriété contrainte et l’artificialisation accrue des modes

de vie.

Pour illustrer l’origine commune des problèmes, le

pape invente un mot espagnol volontairement non tra-

duit : « la rapidacion ». Ce concept polysémique peut

inclure l’éloignement du rythme naturel de la vie pour

des hommes soumis à l’accélération des changements,

à la vitesse et aux cadences dans les usines non robo-

tisées du tiers monde, comme le sort réservé aux ani-

maux d’élevage à la vie artificielle et écourtée.

Responsabilité vis-à-vis du déroulement du temps, l’immédiateté et le marché

Le bon usage du marché est interpellé :

190. L’environnement fait partie de ces biens que les

mécanismes du marché ne sont pas en mesure de

défendre ou de promouvoir de façon adéquate.

La critique du marché par le pape concerne davan-

tage les dysfonctionnements du marché (spéculation,

court-termisme, absence de prise en compte des exter-

nalités comme les déchets) que le marché lui-même.

Cette critique du pape peut être rapprochée de celle

qu’il adopte sur la techno-science quand celle-ci prétend

avoir réponse à tout. Il ne faut pas diviniser le marché

aujourd’hui, comme on le faisait de l’industrie au XIXe

siècle, quand Saint Simon écrivait en 1830 : « L’objet de

l’industrie est l’exploitation du globe... Par elle, l’homme

participe aux manifestations successives de la divinité

et continue ainsi l’œuvre de la création. De ce point de

vue, l’industrie devient le culte ».

La première critique des marchés concerne « l’immé-

diateté » au détriment du long terme, car :

197. Nous avons besoin d’une politique aux vues

larges qui suive une approche globale.

et, encore plus grave :

160. Ce qui est en jeu vis-à-vis des générations

futures, c’est notre propre dignité… parce que cela

met en crise le sens de notre propre passage sur

cette terre.

Le pape aurait aussi pu évoquer la politique monétaire

ou financière avec le taux d’intérêt ou d’actualisation mais

il ne le fait pas. Dans la relation entre développement et

prélèvement sur la nature par la mobilisation de la

techno-science, l’usage d’équipements performants et

l’accumulation de richesse technique.

Sans oublier – ni le surestimer – le potentiel du…

22… modèle circulaire de production qui assure

des ressources pour tous comme pour les généra-

tions futures et qui suppose de limiter au maximum

l’utilisation des ressources non renouvelables, d’en

modérer la consommation, de maximiser l’efficacité

de leur exploitation, de les réutiliser et de les recycler.

Comment évoluer vers une société plus riche et plus

sobre ? Riche en capital accumulé par dynamisme indi-

viduel, sobre en consommation par nécessité collective

et policée pour respecter l’environnement.

Le philosophe Hans Jonas développe dans une

phrase très abstraite le principe de la responsabilité :

« L’action a lieu dans un contexte où tout emploi à

grande échelle d’une capacité engendre, en dépit de

l’intention droite des agents, une série d’effets liée étroi-ii

tement aux effets « bénéfiques » immédiats et intention-

nés, série qui aboutit, au terme d’un processus cumu-

latif à des conséquences néfastes dépassant parfois de

loin le but recherché ».

En remplaçant le mot action par les mots transport,

tourisme, agriculture ou le mot pêche, le sens s’éclaire.

La question de la responsabilité humaine dans un

monde clos est alors posée.

La démographie mérite une attention particulière car

les prélèvements sur la nature dépendent du nombre

de convives à la table de la consommation. Rien n’em-

pêche alors de substituer dans la phrase évoquée le mot

action par paternité. Le pape balaye l’objection : « La

croissance démographique est pleinement compatible

avec un développement intégral et solidaire ».

Dans d’autres occasions, le pape développe le

concept de paternité responsable mais limité au contexte

familial et social, sans référence au caractère clos et fini

du monde. Pourtant quand on associe autant « la cla-

meur des pauvres et de la terre », la tension entre l'équi-

libre de l'ordre naturel et l'accès aux ressources pour des

populations plus nombreuses ne peut être niée.

Dans un système clos, toute consommation a une

contrepartie. La concurrence entre la Terre et les hu-

mains s’impose. Une dynamique est lancée. Au cours

du XXe siècle, la population humaine a été multipliée par

7 et le nombre des grands animaux sauvages ou des

poissons a été divisé par 10 ou 100 selon les espèces et

les scientifiques parlent de 6e extinction. Le genre homo

s’accroît au détriment de la nature. Et un peuplement

plus nombreux tend à éloigner les hommes de la nature,

ce qui, pour le pape, rend la pauvreté plus dure encore.

L’avenir devra inévitablement établir un équilibre entre la

sobriété contrainte et l’artificialisation accrue des modes

de vie.

Pour illustrer l’origine commune des problèmes, le

pape invente un mot espagnol volontairement non tra-

duit : « la rapidacion ». Ce concept polysémique peut

inclure l’éloignement du rythme naturel de la vie pour

des hommes soumis à l’accélération des changements,

à la vitesse et aux cadences dans les usines non robo-

tisées du tiers monde, comme le sort réservé aux ani-

maux d’élevage à la vie artificielle et écourtée.

Responsabilité vis-à-vis du déroulement du temps, l’immédiateté et le marché

Le bon usage du marché est interpellé :

190. L’environnement fait partie de ces biens que les

mécanismes du marché ne sont pas en mesure de

défendre ou de promouvoir de façon adéquate.

La critique du marché par le pape concerne davan-

tage les dysfonctionnements du marché (spéculation,

court-termisme, absence de prise en compte des exter-rr

nalités comme les déchets) que le marché lui-même.

Cette critique du pape peut être rapprochée de celle

qu’il adopte sur la techno-science quand celle-ci prétend

avoir réponse à tout. Il ne faut pas diviniser le marché

aujourd’hui, comme on le faisait de l’industrie au XIXe

siècle, quand Saint Simon écrivait en 1830 : « L’objet de

l’industrie est l’exploitation du globe... Par elle, l’homme

participe aux manifestations successives de la divinité

et continue ainsi l’œuvre de la création. De ce point de

vue, l’industrie devient le culte ».

La première critique des marchés concerne « l’immé-

diateté » au détriment du long terme, car :

197. Nous avons besoin d’une politique aux vues

larges qui suive une approche globale.

et, encore plus grave :

160. Ce qui est en jeu vis-à-vis des générations

futures, c’est notre propre dignité… parce que cela

met en crise le sens de notre propre passage sur

cette terre.

Le pape aurait aussi pu évoquer la politique monétaire

ou financière avec le taux d’intérêt ou d’actualisation mais

il ne le fait pas. Dans la relation entre développement et

Page 31: Aperçu du numéro 2015-5 de la REE (janvier 2016)

124 ��REE N°5/2015

Impression : Jouve - 53100 Mayenne Dépôt légal : janvier 2016

Edition/Administration : SEE - 17, rue de l’Amiral Hamelin - 75783 Paris cedex 16Tél. : 01 5690 3709 - Fax : 01 5690 3719Site Web : www.see.asso.fr

Directeur de la publication :François Gerin

Comité de rédaction : Bernard Ayrault, Alain Brenac,Patrice Collet, André Deschamps, Jean-Pierre Hauet,Jacques Horvilleu

Rédaction : Alain

Partenariats PreMellyha Bahous - T

Régie publicitaicyril.monod@rev

Promotion et aboctobre, décembreAurélie Bazot - TélPrix de l’abonnemFrance & UE : 120Tarif spécial adhérVente au numéro : France & UE : 28 � - Etranger : 30 �

Conception & réalisation graphiqueJC. Malaterre - Tél. : 01 7946 1470

Impression : Jouve - 53100 Mayenne.Siège social : 11 Bd de Sébastopol - 75027 Paris cedex 1Tél. : 01 4476 5440

CPPAP : 1017 G 82069

Copyright : Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des présentes pages publiées faite sans l’autori-sation de l’éditeur, est illicite et constitue une contrefaçon. Toutefois les copiespeuvent être utilisées après autorisation obtenue auprès du CFC - 20 rue des Grands Augustins, 75006 Paris (Tél. : 01 4404 4770) auquel la SEE a donné mandat pour la représenter auprès des utilisateurs (loi du 11 mars 1957, art. 40& 41 et Code Pénal art. 425).

La revue REE est lue par plus de 10 000 ingénieurs et cadres de l’industrie,dirigeants d’entreprises, directeurs des ressources humaines, formateurs...Profitez de ce lectorat ciblé et de qualité pour publier vos annonces (em-plois, stages, manifestations...).

Répertoire des annonceursREE Abonnement 2016 ...................................................................... C 2Schneider Electric ............................................................................. p. 3ERTS 2016 .......................................................................................... p. 5GENERAL CABLE ........................................................................... p. 883EI Abonnement 2016 .................................................................. p. 100REE Archives ................................................................................ p. 110SEE Adhésion 2016 ........................................................................ p. 116CIGRÉ.................................................................................................. C 3Microwave & RF.................................................................................. C4

Prochains Grands DossiersDossier 1 : Le démantèlement des centrales nucléairesDossier 2 : Les avions plus électriques

Une publication de la

Entre science et vie sociétale,

les éléments du futur

� ommunication�

Conférences nationales et internationales Journées d’études thématiques Conférences-DébatCongrès internationaux, en partenariat ou non, avec d’autressociétés scientifiques

La SEE contribue à l’organisation ������������������ ���������������� ������������ �������������� ���������� et ses Groupes régionaux

Grades Senior et Émerite SEE Prix : Brillouin-Glavieux, Général Ferrié, André Blanc-Lapierre...Médailles : Ampère, Blondel...

La SEE récompense les contributeurs éminents au progrès des sciences et technologies dans ses domaines

Revue de l’Électricité et de l’Électronique (REE) Revue 3EI Monographies Publications électroniques : SEE Actualités

La SEE favorise le partage du savoir, et contribue aux débats sur des problèmes de société en éditant des revues ����� �������� ��������� ��� ������

La SEE fédère un vaste réseau d’experts universitaires et industriels en faveur des ������������� �������� � �������������

La SEE, société savante française fondée en 1883, forte de 3 000 membres, couvre les secteurs de l’Électricité, de l’Électronique et des Technologies de l’Information et de la Communication. Elle a pour vocation

de favoriser et de promouvoir le progrès dans les do-maines : Énergie, Télécom, Signal, Composants, Auto-matique, Informatique.

SOCIÉTÉ DE L’ÉLECTRICITÉ, DE L’ÉLECTRONIQUE ET DES TECHNOLOGIES DE L’INFORMATION ET DE LA COMMUNICATION

d f i t d

17, rue de l’Amiral Hamelin - 75783 Paris cedex 16 Tél. : 01 56 90 37 09/17 - Fax : 01 56 90 37 19

www.see.asso.fr

r, Marc Leconte

Brenac, Aurélie Bazot - Tél. : 01 5690 3717

sse & Annonces :Tél. : 01 5690 3711

re : FFE - Cyril Monod - Tél. : 01 5336 3787 ue-ree.fr

bonnements : 5 numéros : mars, mai, juillet,e. . : 01 5690 3717 - www.see.asso.fr/ree

ment 2016 :� - Etranger (hors UE) : 140 �

rent SEE : France & UE : 60 � - Etranger : 70 �

6 CLUBS TECHNIQUES� Automatique, Informatique et Systèmes� Ingénierie des Systèmes d’Information et de Co� Électronique� Radar, Sonar et Systèmes Radioélectriques� Électrotechnique� Systèmes électriques

12 GROUPES RÉGIONAUX

La SEE contribue à l’organisat������������������ �������������������� �������������� �et ses Groupes régionaux

r

n

eT

rvu

bel

m0rent SEE : France & UE : 60 g

o

t��

et ses Groupes régionaux

Vous voulez... Vous abonner à la REE ? Acheter un numéro ? Cliquer ICI Ou bien téléphoner au 01 56 90 37 04