de octobre 2013 hors-série un regard sur les laboratoires en ...des erreurs d’évaluation lourdes...

19
Hors-série 2013 octobre 2013 ENVIRONNEMENT Les tourbières, réservoirs de biodiversité www.dr8.cnrs.fr α Un regard sur les laboratoires en Centre Limousin Poitou-Charentes le magazine de la délégaon CNRS Centre Limousin Poitou-Charentes > Dossier spécial MATHéMATiqueS bioLogie Le lymphocyte B, une usine à fabriquer des ancorps ENVIRONNEMENT Nos intérieurs ne manquent pas d’air !

Upload: others

Post on 27-Mar-2021

0 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

Chaos, une aventure mathém

atique

AurélienAlvarez

Chaos(http://www.chaos-math.org) est un

filmmathématique

consti-

tué de neuf chapitres de treize minutes chacun. Il s’agit d’unfilm

tout public

autour des systèmes dynamiques, de l’effet papillonet de la théorie du

chaos.

Tout commeDimensions, ce film

est diffusé sous une licence Creative Com-

mons et a été produit en collaboration avec Étienne Ghys et Jos Leys. Ce film

est disponible gratuitement sur internet depuis janvier 2013 et ce texte est en

quelque sorte une présentationde son

synopsis. D’autres traductions sont en-

core encours de préparation

mais, d’ores et déjà, ontrouve le film

enversion

française, anglaise, espagnole, italienne, portugaise et néerlandaise, accompagné

d’un large choix de sous-titres. Ce projet n’aurait pu voir le jour sans l’aide d’un

grand nombre de personnes que je n’oublie pas de remercier une fois encore.

« Tout s’écoule, tout est mouvement. » Ainsi commence le premier chapitre

de Chaos, reprenant l’une des idées principales de la philosophie d’Héraclite

d’Éphèsequi vécut à la fin

duVI e

siècle av. J.-C. L’être est éternellement en

devenir, les choses n’ont pas de consistance et tout se meut sans cesse : tout

devient tout, tout est tout. La Science peut-elle nous aider à prédire l’avenir ?

Voilà une questionqui ne date pas d’aujourd’hui et que l’on

peut voir comme

un fil conducteur de ce film.

L’idée dudéterminisme fut, semble-t-il, esquissée pour la première fois par

le baron d’Holbach(1723-1789) avec ces mots :

1

Hors-série2013

octobre 2013

e n v i r o n n e m e n t

Les tourbières, réservoirs de

biodiversité

www.dr8.cnrs.fr

α Un regard sur les laboratoires en Centre Limousin Poitou-Charentes

le magazine de la délégation CNRS Centre Limousin Poitou-Charentes

> Dossier spécialMATHéMATiqueS

b i o L o g i e

Le lymphocyte B,

une usine à fabriquer

des anticorps

e n v i r o n n e m e n t

Nos intérieurs ne manquent

pas d’air !

Page 2: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

Chaos, une aventure mathématique

Aurélien Alvarez

Chaos (http://www.chaos-math.org) est un film mathématique consti-tué de neuf chapitres de treize minutes chacun. Il s’agit d’un film tout publicautour des systèmes dynamiques, de l’effet papillon et de la théorie du chaos.Tout comme Dimensions, ce film est diffusé sous une licence Creative Com-mons et a été produit en collaboration avec Étienne Ghys et Jos Leys. Ce filmest disponible gratuitement sur internet depuis janvier 2013 et ce texte est enquelque sorte une présentation de son synopsis. D’autres traductions sont en-core en cours de préparation mais, d’ores et déjà, on trouve le film en versionfrançaise, anglaise, espagnole, italienne, portugaise et néerlandaise, accompagnéd’un large choix de sous-titres. Ce projet n’aurait pu voir le jour sans l’aide d’ungrand nombre de personnes que je n’oublie pas de remercier une fois encore.

« Tout s’écoule, tout est mouvement. » Ainsi commence le premier chapitrede Chaos, reprenant l’une des idées principales de la philosophie d’Héraclited’Éphèse qui vécut à la fin du VIe siècle av. J.-C. L’être est éternellement endevenir, les choses n’ont pas de consistance et tout se meut sans cesse : toutdevient tout, tout est tout. La Science peut-elle nous aider à prédire l’avenir ?Voilà une question qui ne date pas d’aujourd’hui et que l’on peut voir commeun fil conducteur de ce film.

L’idée du déterminisme fut, semble-t-il, esquissée pour la première fois parle baron d’Holbach (1723-1789) avec ces mots :

1

d o S S i e R > 1 2 - 2 1

Spécial MATHéMATIQUES

Vive les mathématiques ! ou vivre les mathématiques !

Elles sont partout, elles nous côtoient et pourtant nous n’y prêtons guère attention. Elles nous simplifient la vie alors que dans notre prime jeunesse, elles nous ont parfois mené la vie dure. Heureusement, certains les aiment, les défendent, illustrent leur utilité et surtout nous apprennent à les comprendre et les apprécier.

Les mathématiques sous leurs multiples formes sont inextricablement liées à l’histoire des civilisations, elles régissent notre présent et le futur ne peut se conquérir sans elles.

C’est donc tout naturellement que ce numéro hors-série de Microscoop consacre son dossier spécial aux Mathématiques et s’associe ainsi à l’année 2013 « Mathématiques de la planète Terre », opération par-rainée par l’UNESCO.

Comme chaque année, le mois d’octobre est marqué par la Fête de la Science. Il s’agit d’un moment privilé-gié, où personnels des laboratoires et grand public se rencontrent et échangent sur la Science et les travaux qui constituent l’actualité de la recherche. Ces jour-nées sont devenues un rendez-vous incontournable pour ses acteurs et ses visiteurs.

Je tiens à remercier l’ensemble des personnels des laboratoires de notre circonscription Centre Limousin Poitou-Charentes pour leur investissement dans l’organisation de cet évènement et ne doute pas que cette 22è édition, grâce à leur contribution, rencontrera le même succès auprès du public que lors des éditions précédentes.

Patrice SouLLieDélégué régional

Age

nda

environnementLes tourbières, réservoirs de biodiversité > 4Nos intérieurs ne manquent pas d’air > 6Tension ! Explosion ? > 8Mission en Antarctique > 10

MathématiquesQuand les volcans coincent la bulle > 12éviter que les petits ruisseaux ne deviennent de grandes rivières > 13Statistiques et énergies renouvelables > 14Le climat et ses aléas > 15L’imagerie mathématique au secours des monuments dégradés > 16Penser global, agir local... > 17De l’équation à la guérison > 21

biologieLe lymphocyte B, une usine à fabriquer des anticorps > 24Un moteur « six cylindres » sous le capot d’un bolide microbien > 26

ChimieL’informatique moléculaire, dans la course aux nouvelles molécules thérapeutiques > 28

HistoireLa santé des femmes à la Renaissance > 30Aux origines du Pacifisme ? Contester la croisade au Moyen Âge > 32Les perles en verre, de grandes voyageuses de petite taille > 34

CNRS Centre Limousin Poitou-Charentes3E, Avenue de la Recherche Scientifique45071 ORLÉANS CEDEX 2Tél. : 02 38 25 52 01 - Fax : 02 38 69 70 31www.dr8.cnrs.frE-mail : [email protected]

ISSN 1247-844X imprimeur - PREVOST OFFSET - Impression sur papier 100 % recyclé Cycloprint.

directeur de la publicationPatrice SoullieResponsable de la publicationPatricia MadrièresSecrétaire de la publicationFlorence RoyerCréation graphiqueLinda Jeuffrault

ont participé à ce numéro : Martin Aurell, Nicolas Azzopardi, Guy Barles, Nils Berglund, Maïtine Bergougnioux, Pascal Bonnet, Marc Boudvillain, Jérôme Casas, Gilles Chalumeau, Stéphane Chevrier, Véronique Daële, Mouna El Mekki, Richard Emilion, Bernard Gratuze, Philippe Grillot, Frédéric Lagarde, James Lankton, Anne Laurent, Olivier Lourdais, Carine Lucas, Sten Madec, Simona Mancini, Marie-Laure Masquillier, Anne Mychak, Elisabeth Nau, Gilles Paintaud, Concetta Pennuto, Constantin Pion, Claire Ramboz, Laurent Robin, Pauline rouaud, Alexis Saintamand, Frédéric Savoie, Christelle Suppo, David Ternant.

Hors-série 2013octobre 2013

Colloques

L’oHAdA à 20 ansL’Organisation pour l’Harmonisation en Afrique

du Droit des Affaires célèbre les 20 ans de son

traité fondateur lors d’un colloque international,

en présence de Juriscope.

8 au 17 octobre 2013 < ouagadougou

burkina Faso www.juriscope.org

Journées plénières uSTV - gdR VeRReS

Réunion des acteurs des mondes académique,

industriel et artistique sur les problématiques du

verre.

14 au 15 nov. 2013 > Limoges,

Centre européen de la Céramique

www.unilim.fr/spcts

38èmes journées du groupe

Francophone d’Humidimétrie et

Transferts en Milieux Poreux

Les matériaux argileux, des sols aux géomatériaux.

18 au 21 nov. 2013 > Poitiers

http://ic2mp.labo.univ-poitiers.fr

6ème RiPTRencontres internationales Projection

Thermique

11 au 13 déc. 2013 > Limoges

www.unilim.fr/ript

CFA 201412ème Congrès Français d’Acoustique

22 au 25 avril 2014 > Poitiers

http://cfa2014.conference.univ-poitiers.fr

gtrv 2013Congrés annuel du groupe thématique de

recherche sur la vectorisation

2 au 4 déc. 2013 > orléans

www.gtrv.fr

2èmes Rencontres de la recherche

en santé dans le grand ouest

Rassemblement des acteurs de la recherche du

Grand Ouest toutes tutelles confondues autour

des problématiques relative à la santé humaine.

3 déc. 2013 > Nantes

www.rencontres-go-inserm.fr

Manifestations

Les fondamentales, Le forum du CNRS dédié aux nouvelles frontières

de la science (échanges, conférences, débats).

14 et 16 nov. 2013 > Paris,

la Sorbonne, entrée libre sur inscription

www.cnrs.fr/lesfondamentales

23èmes rencontres« Sciences et Citoyens »Rendez-vous annuel de réflexion, d’échange

et de dialogue entre jeunes et chercheurs.

18 au 21 nov. 2013 > Poitiers

www.cnrs.fr/sciencesetcitoyens

Chaos, une aventure mathém

atique

AurélienAlvarez

Chaos(http://www.chaos-math.org) est un

filmmathématique

consti-

tué de neuf chapitres de treize minutes chacun. Il s’agit d’unfilm

tout public

autour des systèmes dynamiques, de l’effet papillonet de la théorie du

chaos.

Tout commeDimensions, ce film

est diffusé sous une licence Creative Com-

mons et a été produit en collaboration avec Étienne Ghys et Jos Leys. Ce film

est disponible gratuitement sur internet depuis janvier 2013 et ce texte est en

quelque sorte une présentationde son

synopsis. D’autres traductions sont en-

core encours de préparation

mais, d’ores et déjà, ontrouve le film

enversion

française, anglaise, espagnole, italienne, portugaise et néerlandaise, accompagné

d’un large choix de sous-titres. Ce projet n’aurait pu voir le jour sans l’aide d’un

grand nombre de personnes que je n’oublie pas de remercier une fois encore.

« Tout s’écoule, tout est mouvement. » Ainsi commence le premier chapitre

de Chaos, reprenant l’une des idées principales de la philosophie d’Héraclite

d’Éphèsequi vécut à la fin

duVI e

siècle av. J.-C. L’être est éternellement en

devenir, les choses n’ont pas de consistance et tout se meut sans cesse : tout

devient tout, tout est tout. La Science peut-elle nous aider à prédire l’avenir ?

Voilà une questionqui ne date pas d’aujourd’hui et que l’on

peut voir comme

un fil conducteur de ce film.

L’idée dudéterminisme fut, semble-t-il, esquissée pour la première fois par

le baron d’Holbach(1723-1789) avec ces mots :

1

Hors-série2013

octobre 2013

E N V I R O N N E M E N T

Les tourbières, réservoirs de

biodiversité

www.dr8.cnrs.fr

α Un regard sur les laboratoires en Centre Limousin Poitou-Charentes

le magazine de la délégation CNRS Centre Limousin Poitou-Charentes

> Dossier spécialMATHÉMATIQUES

B I O L O G I E

Le lymphocyte B,

une usine à fabriquer

des anticorps

E N V I R O N N E M E N T

Nos intérieurs ne manquent

pas d’air !

> 1 0

> 8 > 3 0

> 2 4

> 6

> 4

> 1 2> 2 6

> 3 4

> 2 8> 3 2

Page 3: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

© O

livie

r LO

URD

AIS

< CE

BC

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

4 5

Environnement Environnement

Les landes et les tourbières sont des milieux en forte régression à l’échelle Européenne et de nombreuses actions de gestions et de restauration sont entreprises. Cependant, elles prennent rarement en considération les ectothermes (vertébrés et invertébrés) que ce soit pour les phases de diagnostics écologiques ou pour le suivi de l’impact des modes de gestion sur ces milieux. Pourtant, ces organismes présentent une grande sensibilité aux conditions climatiques et à la structure de l’habitat et de faibles possibili-tés de déplacement. Les invertébrés consti-tuent la plus grande partie de la biodiver-sité et peuvent apporter des informations essentielles sur l’état de ces milieux.

Le recensement de 350 espècesDans le cadre du Plan Loire Grandeur Nature*, le CEBC avec ses partenaires, ont étudié les reptiles et arthropodes des landes et tourbières situées en tête de bassin. L’ob-jectif principal du projet était de décrire et comprendre la structure des communautés et de replacer les résultats obtenus dans le contexte de la gestion et de la restauration des milieux. Le programme s’est articulé autour de 3 axes : - Réaliser un inventaire quantitatif et spatia-lisé des communautés d’araignées et de carabes dans les sites tourbeux du Limousin

(Plateau de Millevaches)- Déterminer l’influence des caractéris-tiques de l’environnement sur la structure de ces communautés, et cela à différentes échelles spatiales- Déduire des recommandations et des pistes de gestion et de conservation des sites tourbeux en LimousinLes araignées et carabes de 30 sites tour-beux (zone d’étude de 30 km sur 45 km) ont fait l’objet d’analyses selon trois échelles spatiales imbriquées: le point de capture, le site, le paysage environnant. Des sessions d’échantillonnages spécifiques ont permis de mieux cerner les exigences écologiques des quelques 350 espèces.

«...de véritables reliques glaciaires.»

une grande valeur patrimonialeAvec 256 espèces d’araignées et 101 espèces de carabes recensées, les tourbières consti-tuent de véritables réservoirs de biodiver-sité. Ainsi, de nombreuses espèces considé-rées comme rares sur le plan national, sont parfois abondantes dans les sites étudiés et certaines sont spécifiquement associées

aux tourbières et zones humides. Les tour-bières du Limousin apparaissent comme des refuges stratégiques pour un cortège d’espèces rares, dont certaines peuvent être considérées comme de véritables reliques glaciaires.

De façon inattendue, des sites de faible superficie ou présentant des états de dégra-dation avancés sont cependant favorables à des espèces rares. La définition de la valeur patrimoniale de ces sites sur la base d’espèces végétales ou animales mieux connues aurait pourtant conduit à leur évic-tion de la liste de sites régionaux présen-tant un intérêt conservatoire. L’intégration d’une plus grande diversité de taxons dans la définition de la valeur patrimoniale des sites paraît donc nécessaire pour éviter des erreurs d’évaluation lourdes de conséquences.

Des facteurs locaux (surface et qualité de la tourbière) mais aussi régionaux (structure du paysage, morcèlement des habitats, barrières forestières autour des sites) conditionnent la qualité des

communautés d’arthropodes et la persis-tance d’espèces reliques. Ainsi, plus une tourbière est « active » et plus la propor-tion d’espèces spécialistes est importante. La composition des communautés est aussi dépendante du paysage et de la surface forestière en périphérie des sites étudiés. Plus les tourbières sont morcelées et plon-gées dans une matrice forestière (planta-tions de résineux essentiellement), moins les communautés d’arthropodes sont riches en espèces spécialistes.

entretenir et restaurer les sitesLa qualité des milieux tourbeux est un des facteurs déterminant des communautés qu’ils hébergent. Cette qualité des sites est en étroite relation avec la dynamique naturelle de la végétation et avec les activi-tés humaines. La restauration par pâturage permet de réactiver de façon remarquable ces espaces instables. Il s’avère également que la structure du paysage est importante et que les plantations forestières peuvent constituer des barrières pour certaines espèces.

De telles contraintes affectent les échanges populationnels et augmentent les risques d’extinctions locales en empêchant la libre migration et la colonisation des sites vacants.

La gestion de ces milieux naturels remar-quables doit passer à la fois par la restau-ration des sites (pâturage notamment) et par le contrôle de l’occupation de l’espace à l’échelle du paysage alentour. La restauration des relations écologiques et fonctionnelles entre les différents sites tourbeux semble essentielle pour la dynamique des commu-nautés qu’ils hébergent. A l’heure actuelle, les mesures de gestions et de conservation de ces habitats visent principalement la réhabilitation des sites et prennent peu en compte la gestion des paysages. Les résul-tats obtenus montrent la nécessité de déve-lopper une approche « globale » intégrant la politique d’occupation de l’espace de la région étudiée. En particulier, une matrice forestière dense et continue (plantations de résineux) autour de certains sites pose un problème pour les espèces spécialistes.

Enfin, ces travaux suggèrent que la gestion des milieux patrimoniaux doit intégrer, non seulement la restauration des groupements végétaux qui les définissent, mais aussi la

structure de la végétation pour offrir une

diversité de microhabitats et microclimats. Le maintien ou l’augmentation de l’hétéro-généité structurale de la végétation dans les sites gérés devrait être bénéfique à une large gamme d’espèces et aussi offrir des zones « tampons » face aux aléas climatiques. Cela nécessite une diversification des modes de gestions appliqués à la restauration des landes et tourbières.

olivier LouRdAiS < CebC [email protected]

Frédéric LAgARde < Le CHAMP deSPoSSibLeS [email protected]

http://www.cebc.cnrs.fr

* Ce travail a été soutenu financièrement par le “Programme opérationnel plurirégional Loire FEDER” (# PRESAGE 30810), l’établissement Public Loire & le Parc Naturel Régional de Millevaches en Limousin. Piloté par le CEBC et l’Association Le champ des Possibles, ce programme a été mené en collaboration avec le laboratoire Environnement, Ville, Sociétés (UMR 5600) et le Parc Naturel Régional de Millevaches en Limousin.

Les tourbières, réservoirs de biodiversité

dolomedes fimbriatus, une pisauridae caractéristique des zones humides.

Le haut bassin de la Loire présente une forte spécificité écologique avec une grande diversité de landes et de tourbières. La réduction drastique de leur surface et leur forte fragmentation constituent une menace pour la biodiversité de ces milieux.

Plus de 23000 araignées et 10000 carabes ont été capturés et identifiés au niveau spécifique afin de caractériser les communautés des tourbières limousines et de comprendre les relations entre les conditions de l’environnement à différentes échelles spatiales et la structure des communautés.

un inventaire détaillé a été remis aux gestionnaires régionaux. Il présente l’écologie et les statuts des principales espèces inventoriées ainsi qu’un diagnostic de la qualité de chacun des sites étudiés. Les chercheurs ont proposé que plusieurs espèces soient intégrées dans une liste rouge régionale des espèces menacées et entrent dans la Stra-tégie de Création des Aires Protégées du Limousin. Elles ont toutes été retenues pour la liste rouge régionale qui nourrit elle-même la liste rouge au niveau national.

© O

livie

r LOU

RDAI

S <

CEBC

Page 4: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

© V

éron

ique

DAË

LE <

ICAR

E CN

RS

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

6 7

Environnement Environnement

Des études menées ces dernières années, ont montré que dans des bâtiments confi-nés, les concentrations des polluants primaires pouvaient être largement supé-rieures à celles enregistrées à l’extérieur. Cette problématique prend encore plus d’importance en considérant le rapport espace-temps puisque nous passons 80 à 90 % de notre temps dans des environnements clos (logements, lieux de travail, écoles, commerces, etc). La qualité de l’air intérieur s’impose ainsi comme une préoccupation sanitaire majeure pour les populations et pour les pouvoirs publics.

des origines et des conséquences multiplesLes sources de pollution intérieure sont très diverses, en nature et en intensité : les matériaux de construction, les pein-tures, les colles, les moquettes, les isolants, l’ameublement, les produits ménagers, les désodorisants (bougies parfumées, encens, parfums d’intérieur), les cosmétiques, les appareils à combustion (chaudières, chauffe-eau), les biocontaminants (acariens, animaux domestiques, moisissures, …). La présence et l’émission de ces polluants sont aussi fortement influencées par le mode de vie des occupants (ex. tabagisme), la température et l’humidité ambiantes ainsi que par le taux de renouvellement d’air

(VMC, ouverture des fenêtres, …).Les effets sur la santé sont variables selon les individus, la durée d’exposition, la concen-tration et le type de polluant. Ils vont du simple inconfort ou gêne olfactive, aux irri-tations (respiratoires, de la peau, des yeux, du système digestif), aux maux de têtes, aux allergies et asthmes, jusqu’au cancer pour des expositions élevées (souvent profes-sionnelles).

une règlementation en coursQuels sont ces polluants d’origine chimiques que nous rencontrons dans l’air intérieur ? On les appelle les composés organiques volatils (COV). Comme leur nom l’indique, ils sont volatils et se propagent donc ainsi aisément en contaminant l’air des espaces clos. Certains d’entre eux sont d’ores et déjà réglementés comme le formaldéhyde et le benzène.

« Des solutions simples peuvent être adoptées...»

Dans ce contexte, la France a mis en place différents moyens :- la création en 2001 de l’Observatoire de la

Qualité de l’Air Intérieur (OQAI),- l’établissement de Valeurs Guides de

qualité d’Air Intérieur (VGAI) par l’ANSES (Agence nationale de la sécurité sanitaire

de l’alimentation de l’environnement et du travail) basées sur des critères sanitaires,

- la mise en œuvre d’actions dans le Plan National Santé Environnement (PNSE I et II) et de lois dans les Grenelle l’environne-ment.

Dans le 2ème PNSE (2009-2013), une des mesures phares vise à « mettre en place un étiquetage sanitaire des produits de construction, de décoration ainsi que des produits les plus émetteurs de substances dans l’air intérieur des bâtiments, et rendre obligatoire l’utilisation des produits et matériaux les moins émissifs dans les écoles et crèches ». De même, conformément à la loi Grenelle 2, la surveillance de la qualité de l’air dans les Etablissements Recevant du Public (ERP), tels que les établissements scolaires, va être progressivement rendue obligatoire de 2015 à 2023.

Des solutions simples peuvent être adop-tées en réduisant au maximum la pollution à la source en faisant le choix de produits à faibles émissions et en ayant une bonne stratégie d’aération (en fonction du bâti-ment et de l’environnement extérieur). De nombreuses questions restent aujourd’hui encore posées dans un contexte de grandes diversités de polluants et de sources, de multiples espaces clos et en tenant compte

Nos intérieurs ne manquent pas d’air !

L’union européenne a fait de 2013 l’année de l’air. La pollution atmosphérique est en effet un problème d’environnement majeur impactant directement notre qualité de vie. C’est particulièrement le cas avec la qualité de l’air intérieur.

de l’évolution des techniques de construc-tion visant une meilleure performance éner-gétique des bâtiments (cf. constructions BBC, Bâtiment Basse Consommation).

Le projet Formul’airLe formaldéhyde (HCHO) est l’un des polluants les plus importants et significatifs « des atmosphères » intérieures. Les taux d’exposition en milieu domestique, même s’ils sont plus faibles qu’en milieu profes-sionnel, ont un effet sur la santé respi-ratoire, comme de nombreux polluants. Le formaldéhyde est classé depuis 2004 comme produit cancérogène pour l’homme. Le Haut Conseil de la Santé Publique a intro-duit une valeur cible (10 µg/m3) à atteindre en 2023 (30 µg/m3 en 2015) dans les ERP.

Il est émis directement par des surfaces, source primaire, ou produit lors de la dégradation chimique d’autres composés organiques volatils présents dans le milieu (solvants, produits de nettoyage, égale-ment les surfaces), source secondaire. Cette deuxième source pourrait être dominante dans certaines situations où les concen-trations en COV insaturés sont non négli-geables comme l’indique les études des processus chimiques dans les conditions atmosphériques. Or, à ce jour, il n’existe que très peu de données sur la caractéri-

sation de ces sources secondaires de HCHO dont la quantification est donc un élément important à prendre en considération pour la réglementation concernant sa réduction.

En effet, la réglementation imposant une baisse importante de la concentration en formaldéhyde, ce dernier commence à être supprimé des processus de fabrication (source primaire). Mais, on peut se deman-der comment on pourra respecter la valeur cible réglementaire de 10 µg/m3 si elle est déjà atteinte à partir des sources secon-daires.

C’est l’objectif de Formul’air (FORmaldé-hyde et siMUlations dans l’AIR : détermina-tion des sources secondaires de formaldé-hyde), le programme de recherche financé par la Région Centre et piloté à l’Institut de Combustion Aérothermique Réactivité et Environnement (ICARE – UPR 3021), en partenariat avec Lig’Air (réseau de surveil-lance de la qualité de l’air en Région Centre).

Il permettra de caractériser les sources secondaires du formaldéhyde de l’air inté-rieur en combinant, des mesures de terrain, des expériences en laboratoire (à l’aide de la grande chambre atmosphérique HELIOS) et de la modélisation. Les lieux ciblés pour les études de terrain sont des salles de classe ou de cours dans des établissements

scolaires de la Région Centre : une école élémentaire, un lycée et des bâtiments universitaires. Les résultats pourront être directement intégrés dans les différents plans et programmes nationaux et régio-naux (PNSE, PRSE, …) afin de suggérer et mettre en place les mesures coercitives pour réduire les niveaux de formaldéhyde en air intérieur et satisfaire ainsi la valeur cible à l’horizon de 2023.

L’identification des processus et détermi-nants qui conditionnent la formation secon-daire de HCHO en air intérieur, peut être également valorisée auprès des industriels dans le but de réduire, voire d’éliminer, les COVs responsables de cette formation, dans leurs procédés de fabrication.

Véronique dAËLe < iCARe [email protected]

http://www.icare.cnrs-orleans.fr

© ICARE C

NRS

© Ministère de l’écologie, du développement durable et de l’énergie.

Page 5: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

8

Environnement

9

Environnement

expliquent pourquoi 1000 m3 d’eau liquide métastable peuvent libérer en une milli-seconde autant d’énergie qu’un séisme de magnitude 5.

une théorie pour prédire l’explo-sivité A partir des années 1920, la Théorie Ciné-tique de la Nucleation (CNT) a été élabo-rée pour prédire de façon quantitative la nucléation homogène de vapeur au sein des liquides métastables. Cette théorie a été validée expérimentalement pour de nombreux liquides, mais elle n’avait pu être vérifiée pour l’eau tensile au-delà de -300 bar, faute de données expérimentales adéquates.

« ...savoir anticiper le comportement de l’eau

saturée en gaz... »Utilisant des microvolumes d’eau liquide piégée dans du quartz, des géologues de l’Institut des Sciences de la Terre d’Or-léans (ISTO – UMR 7327 CNRS/Université d’Orléans, BRGM), un statisticien du Grou-pement de Recherche Eau, Sol, Environ-nement (GRESE – EA 4330, Université de Limoges) et des physiciens spécialistes de l’eau tensile du Laboratoire de la Matière Condensée et Nanostructures (LPMCN aujourd’hui Institut Lumière Matière – UMR 5306 UCB Lyon 1 / CNRS) ont collaboré pour explorer le domaine de l’eau tensile entre -175 et -1400 bar. En interprétant leurs mesures de durée de vie de l’eau métas-table avec la CNT, ils ont montré que la nucléation de vapeur dans de l’eau tensile est un processus homogène : elle s’effec-tue au sein du liquide par sa désintégration à l’échelle d’une centaine de molécules et non à cause de l’effet des parois ou de la présence d’impuretés. Environ 1013 de ces nanogermes d’eau vapeur se forment par m3 et par seconde au sein du liquide métas-table lors de la rupture. Le fait que l’eau

tensile en micro-inclusions se fracture pour un taux de nucléation constant, implique que le comportement de l’eau liquide dans des pores de volume compris entre 0,1 et 0,001mm3 est quasi spinodal dans le vaste domaine PT métastable exploré.

en perspective, le stockage de Co2Limiter les émissions atmosphériques de CO2, principal gaz à effet de serre, est une nécessité si l’on veut freiner le réchauffe-ment de la planète. Le stockage géologique est un des moyens envisagés pour atteindre cet objectif. Les aquifères souterrains sont identifiés comme les sites les plus fiables où piéger ce gaz industriel. En préalable au stockage, il convient cependant de savoir anticiper le comportement de l’eau saturée en gaz si des changements, même transi-toires, se produisent dans les paramètres physiques du réservoir profond. Un miné-ral contenant de multiples lacunes de taille micronique remplies d’eau constitue un bon analogue pour étudier le comportement de l’eau stockée dans les réservoirs rocheux.

En améliorant la compréhension du comportement métastable de l’eau piégée, en permettant de modéliser quantitative-ment ce comportement, les chercheurs d’Orléans, de Limoges et de Lyon ont franchi une étape majeure vers la sécurisation des sites de stockage, en améliorant les critères de choix de ces sites. Il reste maintenant à étendre la méthodologie qu’ils ont déve-loppée à l’étude de l’eau saturée en gaz. En effet, les gaz dissouts dans l’eau sont appe-lés à jouer un rôle croissant dans les sociétés post-industrielles de ce début de XXIè siècle, que ce soit dans l’environnement comme on l’a vu ou dans le domaine de l’énergie, avec la montée en puissance de l’hydrogène. Le comportement métastable des solutions n’a pas fini de préoccuper les scientifiques !

Claire RAMboz < iSTo [email protected]

Mouna eL Mekki < iNSTiTuT LuMièRe MATièRe [email protected]

www.isto.cnrs-orleans.fr

L’eau est une substance des plus banales et constitue en même temps un matériau des plus extraordinaires. C’est la seconde molé-cule la plus abondante dans l’Univers, un composé essentiel des étoiles à l’état solide. A l’état liquide, elle demeure indispensable au développement des espèces vivantes et sa présence est le critère premier qui oriente les recherches de vie extraterrestre.

Au XXIè siècle, les fondements scientifiques qui se cachent derrière le comportement de l’eau restent mal compris, voire ignorés non seulement du grand public mais aussi d’une partie de la communauté scientifique qui la manipule quotidiennement.

Les recherches sur la physique de l’eau offrent de surprenants contrastes. D’un côté, une association internationale met à disposition des scientifiques et des ingé-nieurs sur calculateur de poche les proprié-tés de l’eau dans tous ses états jusqu’à 1000°C et 10 000 bar. De l’autre, il persiste des domaines de recherche sur l’eau très spécialisés dans lesquels un petit nombre de chercheurs échangent et s’affrontent au niveau mondial : tel est le domaine confidentiel de la physique de l’eau liquide métastable.

une frontière de la Science depuis… 1662 !C’est Huygens qui communiqua en 1662 à la Royal Society de Londres la première observation référencée d’eau sous tension. Il avait obtenu des colonnes suspendues de mercure ou d’eau dans des tubes en verre, ce qui impliquait que ces liquides existent à pression négative. Cependant, cette expé-rience ne put être interprétée à l’époque car le baromètre venait à peine d’être inventé 20 ans plus tôt et le concept de tension de vapeur ne l’était pas encore. Ce n’est qu’en 1850 que Berthelot mesura une pression de -50 bar dans de l’eau en tubes scellés chauf-fée jusqu’à 28°C puis refroidie.

Dans ces mêmes années, les minéralogistes découvraient de leur côté, grâce au micros-cope, que les minéraux des roches piègent de nombreux fluides en micro-inclusions (essentiellement de l’eau mais aussi du gaz carbonique sous pression…). Quand Brewer invente vers 1850 un prototype de platine pour chauffer à volume constant l’eau piégée dans les lacunes intracristallines, il ignore qu’elles sont des analogues de taille inframillimétrique des tubes de Berthelot et qu’en conséquence, elles sont des objets privilégiés pour observer facilement et de façon répétitive, l’eau tensile. Il faudra

attendre Zheng (1991) pour que des pres-sions de – 1400 bar soient mesurées sur des inclusions d’eau pure. Celles-ci détiennent encore à ce jour le record des pressions négatives mesurées sur l’eau liquide en laboratoire (-1800 bar).

Comprendre pour maîtriserA l’ère industrielle, l’homme n’a cessé de diversifier ses activités techniques, d’ex-plorer de nouveaux espaces de la planète. Il découvre alors que l’eau tensile est partout, y compris dans le milieu naturel. Elle provoque des explosions lors du lami-nage des aciers, elle détruit les hélices de bateaux, elle est responsable des acci-dents de décompression lors des plongées. Comprendre l’eau métastable est un défi aux multiples enjeux, technologiques et biologiques.

L’eau tensile particulièrement explosiveTout liquide métastable a une durée de vie limitée. La nucléation de vapeur dans ce liquide est inéluctable et sera d’autant plus explosive qu’elle libèrera une énergie plus grande en un temps plus court. Or, l’eau liquide a une énergie de vaporisation élevée et, on l’a vu, la capacité de résister à des tractions extrêmes. Ces propriétés

Tension ! explosion ?

© L

aure

nt P

ERD

EREA

U <

ISTO

Nucléation de vapeur au sein d’eau liquide métastable piégée dans un cristal de quartz.Images prises sur enregistrements video numériques.4 secondes séparent la 1ère image et la 7ème.

Au XXIè siècle, les fondements scientifiques qui se cachent derrière le comportement de l’eau restent mal compris, voire ignorés non seulement du grand public mais aussi d’une partie de la communauté scienti-fique qui la manipule quotidiennement.

© T

hink

stoc

Page 6: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

© G

illes CHALU

MEAU

< LPC2E

© Gilles CHALUMEAU < LPC2E

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

10 11

Environnement Environnement

Le passage de la pression atmosphérique du niveau de la mer à celle de la haute montagne en moins de 4 heures est éprou-vant. La seconde, c’est d’être seuls et isolés dans un désert immense, blanc, dépourvu de toute vie végétale et animale : Concordia est sur une calotte de glace de plus de 3 km d’épaisseur et à plus de 1000 km des côtes. Mais l’acclimatation se fait rapidement. Les travaux d’installation doivent être lancés. Après vérification de l’état du matériel arrivé 4 ans auparavant, l’ensemble du radar est assemblé et monté. Le travail s’est réalisé dans ces conditions extrêmes et éprou-vantes, 8 à 10 heures par jour en extérieur avec les mêmes risques physiques qu’au sommet du Mont Blanc. 24 antennes ont été posées avec 6 haubans pour chacune. Au total, 56 poteaux métalliques de 2 mètres ont été enfoncés d’1.80 m dans la glace pour maintenir ces haubans. A cet ensemble s’est ajouté le système d’alimentation des

antennes soit un chemin de câbles d’envi-ron 600 mètres parcourant les deux réseaux et faisant la liaison entre eux. A raison d’un pieux en bois tous les 3 mètres, ce 200 pieux qui ont été fiché dans « le sol ».

« ...2 jours de canicule sans vent à -18°C... »

Au tout début de la campagne, fin novembre, la température était plus souvent aux alentours de -45°C/ -50°C avec un vent de quelques mètres par seconde. La température ressentie avoisinait les -60°C. Combiné avec la faible pression, tout effort physique devait être mesuré et réfléchi pour éviter l’essoufflement, la perte de force musculaire. Heureusement, mi-décembre 2 jours de canicule sans vent à -18°C ont réjoui « les habitants » de la base. A ces conditions exceptionnelles, un autre phéno-mène est déroutant pour ceux habitués aux

moyennes latitudes, c’est la présence du soleil 24 heures sur 24…

Mais malgré toutes ces contraintes envi-ronnementales et leur impact sur les orga-nismes humains, la mission a été remplie. L’objectif a été atteint : le radar SuperDARN a été assemblé, complètement monté et opérationnel dans les délais impartis à l’équipe technique franco-italienne. La performance doit cependant beaucoup au travail préparatoire réalisé en amont et aux moyens logistiques de l’IPEV. A partir de la fin du mois de janvier, les conditions météo se sont rapidement dégradées rendant les moyens de transports plus aléatoires. L’avion de retour a ramené les mécaniciens du LPC2E vers leurs terres orléanaises plus hospitalières, via un petit détour par la base australienne de Casey puis l’Australie.

gilles CHALuMeAu < [email protected]

Stéphane CHeVRieR < [email protected]

Frédéric SAVoie < [email protected]

http://lpce.cnrs-orleans.fr

Avant l’Antarctique et la Base Concordia, il y a eu… Orléans. Entre octobre 2005 et mars 2010, le prototype d’antennes radar a été développé sur le campus CNRS dans des conditions climatiques et environnemen-tales que l’on qualifiera de « normales ». Cette phase de conception et de test avait pour objectif de valider le modèle de montage, d’installation et d’érection des antennes avec le matériel disponible à Concordia. Les équipes techniques et scientifiques de l’époque s’étaient fixé quelques contraintes : minimiser le nombre de pièces à assembler, optimiser et tester les procédures de montage (manipulation avec gants), minimiser les efforts physiques compte tenu des conditions extrêmes, choisir des matériaux résistants à cet envi-ronnement et enfin transporter l’ensemble en containers.

Le radar, c’est tout d’abord un réseau prin-cipal de 16 antennes émettrices, puis un réseau interférométrique de 4 antennes et enfin un container abritant l’électronique et l’informatique du système. En grandeur : les antennes mesurent chacune 17,40 m. Elles sont espacées les unes des autres de 15,50 m. Le réseau principal s’étend sur une longueur de 300 m et 70 m pour le réseau interférométrique, distant du principal de 90 m. L’ensemble a donc une emprise au sol d’environ 3 hectares.

une super logistique...Tout matériel lourd destiné à Concordia transite par bateau, l’Astrolabe, depuis le port de Hobart en Tasmanie jusqu’à la station française Dumont D’Urville (DDU) en Terre Adélie. 5 à 6 jours au minimum suffisent, lorsque la météo est clémente et uniquement d’octobre à janvier. Ensuite le matériel est acheminé par le « Raid », un convoi de tracteurs à chenilles, jusqu’au Dôme C. Dans les meilleures conditions possibles, une dizaine de jours sont néces-saires.

Mais le délai d’acheminement total est beaucoup plus long, de l’ordre de 12 à 18 mois. En effet la base de DDU est installée sur l’île des Pétrels, à 5 km du continent. Elle est accessible par bateau uniquement durant l’été austral, à la fonte des glaces. Il faut attendre l’hiver, que la banquise se soit reformée, pour transborder le matériel de l’île sur le continent avec des traineaux. Là, il faut patienter de nouveau jusqu’à l’été austral suivant pour charger le Raid et atteindre la base de Concordia. Toute cette logistique tant pour le matériel que le personnel est assurée par l’Ins-titut Paul Emile Victor, institut pour la recherche en territoires polaires.

…pour une super missionDu 15 novembre 2012 au 7 février 2013, six personnes se sont démenées pour le

montage et le démarrage de ce radar : trois mécaniciens français du LPC2E et trois élec-troniciens et informaticiens italiens du PNRA (Programma Nazionale Ricerche in Antar-tide), leurs homologues du CNRS et IPEV en Italie. Tout le trajet s’est fait en avion depuis Paris, via Honk-Kong, Christchurh, base Mario Zuchelli et Concordia. Le voyage aller n’aura duré finalement que 4 jours dont 2 jours d’arrêt obligatoire à Christchurh.

La première chose que l’on ressent en arri-vant à Concordia, c’est un essoufflement.

Trois mécaniciens du Laboratoire de Physique et de Chimie de l’Environnement et de l’Espace (LPC2E CNRS/Université d’Orléans) sont partis trois mois au bout du monde. Leur mission : installer les antennes du radar ionosphérique SuperDARN.

Mission en Antarctique

Convection ionosphériqueOutre son rayonnement électromagnétique dont une partie est responsable de l’ionisation de la haute atmosphère terrestre appelée l’ionosphère, le Soleil émet également en permanence un flux particulaire constitué essentiellement d’électrons et de protons, appelé plasma du vent solaire. Ce dernier entraîne avec lui les lignes de champ magnétique du Soleil dans l’espace inter-planétaire. En amont de la Terre, le vent solaire est ralenti au travers d’un choc et dévié tout autour de l’obstacle créé par le champ magnétique terrestre, appelée la magnétosphère. Cette interaction complexe permet un transfert de mouvement depuis le vent solaire vers l’environne-ment ionisé terrestre, engendrant un transport perpendiculaire au champ magnétique du plasma dans les régions polaires de la magnétosphère et de l’ionosphère. SuperDARN est un réseau international de radars trans-horizon qui fournit des observations continues de la convection du plasma ionosphérique grâce à sa couverture globale des régions de haute latitude Nord et Sud. La variabilité de cette convection permet de suivre le degré d’inte-raction de l’environnement terrestre avec le vent solaire.Aurélie MARCHAudoN, responsable du projet SuperDARN en [email protected]

Quelques valeurs de ConcordiaLatitude: 75°06’01’’ SudLongitude: 123°19’27’’ EstAltitude: 3233mDécalage horaire: Tu+8 heuresDistance à la côte: 1150 kmDistance au pôle: 1650 kmPression: 630 hPa, comme dans les Alpes à 3800 mètresTempérature: de -25°C à -40°C en été de -50°C à -84°C en hiverVapeur d’eau: 1000 à 2000 fois moins qu’en EuropePersonnel : jusqu’à 80 personnes en campagne d’été et une petite quinzaine durant l’hivernage.

© G

illes

CH

ALU

MEA

U <

LPC

2E

Page 7: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

(*) les poches de gaz se forment à partir de petites bulles de gaz, comme la pluie se forme par coalescence à partir de gouttelettes.

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013

12 13

Mathématiques Mathématiques α

Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

Les éruptions volcaniques sont classées en deux catégories: les effusives et les érup-tives. Les premières se caractérisent par l’émission séparée de magma et de gaz, le magma formant un dôme ou une coulée de lave, le gaz étant doucement dispersé dans l’atmosphère. Les secondes, au contraire, se distinguent par la fragmentation du magma et la propulsion brutale dans l’atmosphère de gaz pressurisés et de morceaux de lave. La plupart des volcans produisent des érup-tions du même type. Toutefois, il y a des exemples (comme la Soufrière de Mont-serrat, Caraïbes) où les deux types d’érup-tion se manifestent. Ce phénomène ne peut donc pas seulement s’expliquer par la chimie du magma contenu dans le volcan. D’autres facteurs doivent entrer en jeu.

La communauté de géophysique estime que la classe d’une éruption est liée à la façon

dont les bulles des gaz, contenues dans le magma et nucléés en profondeur, gros-sissent et coalescent* pendant la remon-tée du conduit. Il est supposé que si cette coalescence des bulles permet de construire un chemin vers la surface à travers lequel le gaz peut s’échapper, l’éruption serait du type effusif ; alors que si ce chemin ne se forme pas, le magma dans le conduit arrive en surface sursaturé par le gaz resté empri-sonné et une éruption explosive en suit. La chimie du magma, la présence de bulles de gaz en son sein et la façon dont ces bulles se comportent jouent un rôle déter-minant dans le type d’éruption.

Modélisation mathématiqueCes dernières années, des géophysiciens et des mathématiciens ont uni leurs connais-sances pour écrire un modèle mathé-matique qui puisse décrire la croissance des bulles par décompression, diffusion et coalescence. La complexité du proces-sus physique les a amenés tout d’abord à étudier la seule croissance par décompres-sion et diffusion en partant du modèle de référence dans la communauté géophy-sique qui date des années 80 et qui a été repris ces dernières années. Il décrit, par un système d’équations non- linéaires, la croissance d’une seule bulle représenta-tive en considérant que toutes les bulles évoluent de la même façon. Une analyse mathématique et numérique du modèle a permis sa simplification et la définition de taux de croissance en volume et masse de la bulle. Ceci a ensuite porté à la description statistique/cinétique de l’évolution d’un ensemble de bulles grossissant par décom-

pression, diffusion et coalescence par une équation aux dérivées partielles dont l’inconnue est la fonction distribution des bulles définie sur des variables non stan-dard (la masse et le volume).La prise en compte de la coalescence a demandé plus de réflexion avec tout d’abord la compréhension du mécanisme physique qui régit la coalescence des bulles. Par rapport aux travaux connus sur la coalescence des particules, les bulles dans le conduit volcanique n’ont pas une position spatiale ni une vitesse relative, mais peuvent coalescer seulement grâce au rapprochement de leur parois. La déter-mination d’un taux de coalescence physi-quement adapté à cette situation a abouti à l’écriture d’un modèle de coalescence multi-dimensionnelle, posant ainsi d’inté-

Les mathématiques s’avèrent être bien souvent un moyen d’investigation dans des domaines ou des lieux inaccessibles à l’homme et aux machines. Leur contribution à la recherche de solutions à des problèmes mondiaux comme les catastrophes naturelles, les changements climatiques, le développement durable ou la santé, est primordiale. Des laboratoires de la circonscription, par les travaux interdisciplinaires auxquels ils participent, apportent un grand nombre d’éléments de réponse.

Quand les volcans coincent la bulle… La compréhension des mécanismes éruptifs est à la base de la prévention des risques liés aux volcans ainsi que de l’étude de la construction de la croûte terrestre.

Dossier spécial

Page 8: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

1514

Mathématiques Mathématiques α

15

ressantes questions mathématiques.Le modèle mathématique incluant la crois-sance et coalescence des bulles est mainte-nant mis à l’épreuve. Les premières compa-raisons avec les résultats expérimentaux sont tout à fait satisfaisantes et demandent la réalisation de nombreuses expériences pour une validation plus complète.

Ce travail inter-disciplinaire montre que la mise en commun des différentes cultures et formations scientifiques permet non seule-ment d’avancer dans la compréhension de phénomènes naturels qui nous entourent, mais aussi de faire évoluer la théorie mathé-matique.

Simona MANCiNi < MAPMo [email protected]

La demande croissante en énergie et la prise de conscience écologique a redonné plus d’importance aux éner-gies dites renouvelables : énergie d’ori-gine solaire, éolienne, hydraulique, thermique ou végétale. La part de ces énergies dans le parc énergétique reste cependant en deçà des objec-tifs annoncés, pour plusieurs raisons : choix politiques, rentabilité, difficultés technologiques, mais surtout caractère hautement aléatoire et intermittent des ressources .

des ressources et énergies aléa-toires et intermittentesLe domaine des énergies renouvelables est un champ d’application intéressant pour la théorie des probabilités et les méthodes statistiques. Pour un lieu et un jour donnés, le rayonnement solaire sous ciel clair ou rayonnement extra-terrestre (extraterrastral solar radiation), suit une courbe connue. Ce rayonnement est rendu très aléatoire par le passage des nuages, les conditions météorologiques et la réflexion du rayonnement des objets environnants, c’est le rayonnement solaire global. L’indice de clarté (clearness index) kt est le quotient

Statistiques et énergies renouvelablesLe domaine des énergies renouvelables, où les ressources sont très aléatoires et intermittentes, est un champ d’application intéressant pour la théorie des probabilités et les méthodes statistiques.

Le constat était que, afin d’aménager au mieux les terrains pour prévenir des inon-dations, il est nécessaire de savoir mieux modéliser le ruissellement. En effet, les logiciels utilisés actuellement au niveau décisionnel ne donnent pas entière satis-faction, car, en particulier, les prévisions

fournies peuvent être assez éloignées de la réalité. Le but de la collaboration avec l’unité de recherche Science du Sol (INRA Val de Loire Orléans) a donc été de modé-liser plus précisément le ruissellement de l’eau sur une surface agricole, sans prendre en compte l’érosion dans un premier temps.

La modélisation du ruissellementLe ruissellement entre dans la catégorie des écoulements de faible profondeur, puisque les hauteurs d’eau sont très faibles (quelques millimètres) par rapport aux dimen-sions horizontales considérées (supé-rieures à 10 mètres). Les équations qui régissent de tels écou-lements sont les équa-tions de Saint-Venant, équations qui relient entre elles la hauteur d’eau et la vitesse de

l’écoulement, en fonction des différents paramètres physiques comme la pente ou les frottements à la surface du sol.

Outre les difficultés liées aux mesures de certains paramètres, il est en général impos-sible de trouver une solution exacte à ces équations. Aussi, le travail des mathémati-ciens consiste à développer des méthodes numériques les résolvant de manière appro-chée. C’est ainsi qu’a été développé le logi-ciel FullSWOF, reposant sur des méthodes numériques adaptées et efficaces.

La prise en compte des sillons sans les représenterLorsque l’on cherche à simuler le ruisselle-ment dans un champ de plusieurs hectares, il est impossible de prendre une résolution suffisamment grande pour représenter chaque sillon. Cela supposerait de carto-graphier le champ avec une résolution de quelques centimètres, ce qui est quasi inat-teignable au niveau de la mesure, mais qui, de toutes façons, serait trop coûteux du point de vue numérique.

Avec le logiciel FullSWOF, il a été possible de prendre en compte les sillons agricoles sans

éviter que les petits ruisseaux ne deviennent de grandes rivièresLes inondations et les coulées boueuses peuvent avoir un impact important sur les habitations et les voies de circulations. Mieux savoir les modéliser pourrait permettre d’installer des aménagements, tels que des bandes enherbées, afin de limiter les conséquences des événements à venir.

les représenter explicitement. Pour cela, un terme de type « frottement » qui ralen-tit l’eau de la même façon que les sillons, a été ajouté. Ce frottement est fonction de la taille des sillons via la quantité d’eau qui peut être stockée dans un sillon.Après avoir développé le logiciel pour le ruissellement, les mathématiciens s’intéressent à la modé-lisation de l’érosion des sols. Ce phénomène complexe demande d’étudier simultané-ment les particules mises en suspension,

transportées et déposées. Il sera nécessaire de modéliser chaque partie du phénomène comme par exemple l’impact des gouttes de pluie sur l’érosion.

Carine LuCAS < MAPMo [email protected]

Mesures sur des sillons réalisées en laboratoire. Topographie représentant les sillons. Topographie plane à laquelle on ajoute un frottement pour tenir compte de l’existence de sillons.

Explosion d’une bulle de gaz formée à partir de millions de bulles plus petites.

Page 9: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

1716

Mathématiques Mathématiques α

17

L’imagerie mathématique au secours des monuments dégradésLes moyens d’imagerie actuels permettent d’ausculter l’intérieur des pierres mise en œuvre dans la construc-tion de monuments historiques. Les techniques d’analyse mathématique extraient ensuite des images obte-nues des informations sur la structure des matériaux altérés au fil du temps.

La protection du patrimoineLes monuments historiques subissent l’action de leur environnement et sont dégradés, voire fortement endommagés. Ces ouvrages sont des parties intégrantes de notre patrimoine et constituent des œuvres d’art irremplaçables qu’il convient de protéger, d’entretenir et de réparer. C’est pourquoi une communauté variée (archi-tectes, restaurateurs, géologues, physi-ciens, mathématiciens) met en commun ses

efforts pour préserver ce patrimoine. L’ob-jectif est d’obtenir une description à toutes les échelles des processus de diffusion de l’eau dans les réseaux poreux des pierres utilisées pour la construction des monu-ments historiques. L’analyse s’est focalisée sur une pierre sédimentaire, le tuffeau, utilisée dans de

nombreux monuments historiques le long de la vallée de la Loire. Ces pierres extrê-mement poreuses (40 à 50% de vide) sont composées principalement de calcite (40 à 70%) et de silice (20 à 60%) sous forme de quartz (grains) et d’opale (sphérules).

dix glaciations majeures, entrecoupées à intervalles assez réguliers, de périodes plus clémentes, environ tous les 90 000 ans. Selon la théorie proposée par James Croll au 19ème siècle et développée par Milu-tin Milankovitch dans la première moitié du 20ème siècle, la périodicité serait due à des variations des paramètres de l’orbite terrestre, en particulier son excentricité, qui influencent l’insolation moyenne. Toutefois les variations d’insolation semblent trop faibles pour expliquer les transitions entre glaciations et périodes de climat tempéré.

Au début des années 1980, deux groupes de chercheurs ont proposé indépendam-ment que les transitions étaient facilitées par l’effet d’un bruit. Ce phénomène, appelé résonance stochastique, peut s’illustrer à l’aide d’un exemple très simple : supposons que l’évolution de la température moyenne soit régie par une équation différentielle, admettant deux valeurs stables qui corres-

pondent aux périodes de glaciation et de climat tempéré. On peut visualiser la dyna-mique de la température en l’assimilant à la position d’une bille dans un potentiel à deux puits. La profondeur des puits varie périodiquement sous l’effet des paramètres orbitaux, mais sans permettre de transition entre régimes climatiques.

En ajoutant un terme de bruit dans l’équa-tion différentielle, on s’aperçoit que les tran-sitions entre puits de potentiel deviennent possibles. La distribution de probabilité des temps de transition dépend des paramètres du système : amplitude et fréquence de forçage périodique et intensité du bruit. Pour une amplitude de forçage nulle, les temps de transition sont distribués de manière exponentielle. A mesure que l’am-plitude de forçage augmente, les transitions deviennent de plus en plus régulières.Le calcul de la loi des temps de transition, même pour ce modèle relativement simple,

est un problème mathématiquement non trivial. Il peut néanmoins être résolu, pour des intensités faibles du bruit, à l’aide d’ou-tils d’analyse stochastique. On obtient une distribution exponentielle modulée pério-diquement, la modulation étant liée à la loi dite de Gumbel.

Il existe de nombreux autres exemples de transitions critiques dans le système clima-tique, affectant par exemple la circulation thermohaline Nord-Atlantique (le Gulf Stream), la banquise Antarctique, ou la désertification. Une meilleure compréhen-sion de l’effet d’un bruit sur ces transitions aidera à mieux prédire les variations clima-tiques futures.

Nils beRgLuNd < MAPMo [email protected]

Position d’une bille dans un potentiel à 2 puits.

Le climat et ses aléasL’évolution du climat de la Terre est difficile à prédire en raison du nombre gigantesque de variables impli-quées. Même les modèles numériques les plus sophistiqués représentent l’atmosphère, les océans et les continents de manière forcement discrétisée, en spécifiant des valeurs de la température, la pression, la vitesse du vent, etc, moyennées sur des volumes de plusieurs kilomètres cube.

Au lieu d’ignorer simplement les erreurs d’approximation, il peut être préférable de simuler leur effet par un terme aléatoire qu’on appelle un bruit. Il existe plusieurs modèles mathématiques de bruit, le mieux connu étant le bruit blanc gaussien. Mais il y en a de nombreux autres : bruits corrélés, processus de Levy,… Choisir un bruit appro-prié est un problème difficile de modélisa-

tion. En première approximation, on retient souvent le bruit blanc, plus facile à contrôler mathématiquement.L’effet le plus dramatique du bruit est de produire des transitions entre des états qui seraient stables en son absence. Or des transitions relativement abruptes entre régimes climatiques stables ont eu lieu par le passé, comme le révèlent les données

paléoclimatiques obtenues par l’étude de différents indicateurs (appelés proxies) tels que les carottes glacières et des dépôts sur les fonds marins. Ces transitions sont-elles dues à l’effet du bruit ?

L’exemple le plus connu de transition clima-tique est celui des glaciations. Pendant le dernier million d’années, la Terre a connu

du rayonnement global par le rayonnement extra-terrestre.Si est appelée séquence, une suite d’obser-vations entre deux instants, on observe le caractère intermittent des séquences : chutes et pics se succèdent. L’énergie induite par une séquence, qui est l’intégrale de la séquence, est donc elle aussi aléa-toire et intermittente. Concernant l’énergie éolienne, chacun a eu l’occasion d’obser-ver que la direction du vent et son module sont aléatoires et intermittents. Il en est de même pour l’énergie hydrolienne. La maîtrise des énergies renouvelables néces-site donc l’utilisation des techniques de probabilités et de statistiques.

La classification de séquences Regrouper en un nombre fini de classes homogènes, des séquences observées pendant un même intervalle de temps, permet d’établir des séquences types et

permet aussi de faciliter la modélisation et la prédic-tion sur cet intervalle pour les séquences d’une même classe. Cela est d’autant plus intéressant que l’on ne change pas de classe pendant plusieurs jour-nées consécutives.

Certaines méthodes de classification utilisent une

notion de distance entre séquences, distance qu’on est amené à choisir. D’autres partent d’une analyse en composantes prin-cipales (ACP) des séquences. Enfin on peut aussi ne s’intéresser qu’aux valeurs prises par les séquences et classifier leurs histo-grammes par une estimation de mélanges de lois de Dirichlet. La convergence (consis-tence) de la classification, quand le nombre de tranches de l’histogramme augmente, se démontre à l’aide du théorème des martin-gales et d’un théorème sur les processus de Dirichlet.

L’intérêt de la modélisation Décrire les courbes observées à l’aide de modèles probabilistes est une tâche très délicate mais elle présente plusieurs inté-rêts comme évidemment la prédiction de l’énergie dont on pourrait disposer entre deux instants. Un deuxième intérêt, moins

connu, est qu’un modèle adéquat améliore considérablement la conception des conver-tisseurs (panneaux solaires, éoliennes, ...).

Par exemple, à partir d’un modèle proba-biliste, on peut simuler par ordinateur de nombreuses séquences de vents pour régler les composantes électroniques des éoliennes grâce à un programme d’optimi-sation. Le processus du module du vent a été modélisé par des séries temporelles et par le Mouvement Brownien Multifraction-naire, un processus plus irrégulier que le Mouvement Brownien. L’index de clarté de séquences courtes a été modélisé par une EDS (équation différentielle stochastique) et celui d’une séquence journalière par une EDS en milieu aléatoire [9], où le milieu qui représente l’aléa due à l’environnement est modélisé par une chaîne de Markov à temps continu. Enfin des modèles de séries spatio-temporelles ont été utilisés pour prédire, à partir de quelques points de mesure, le rayonnement solaire au voisinage de ces points. Cela permet d’établir une carto-graphie du rayonnement solaire sans avoir besoin d’effectuer des mesures en tout point.

Richard eMiLioN < MAPMo [email protected]

Page 10: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

1918

Mathématiques Mathématiques α

19

Penser global – Agir local, la théorie du contrôle en écologie et agronomieGérer les écosystèmes naturels et agronomiques au plus près, afin de préserver les services écosystémiques et de promouvoir une agriculture durable, implique le développement et l’utilisation de nouveaux outils mathématiques capables de représenter une réalité complexe.

Les processus écologiques sont dynamiques dans le temps et l’espace. Les contrôler implique par conséquent des perturba-tions temporelles ou spatiales. Les études sur le contrôle temporel des populations, par application de pesticides contre des insectes, champignons ou mauvaises herbes, ou par augmentation de la quantité de nourriture pour les oiseaux en hiver par exemple, sont légions. L’étude du contrôle spatial des populations est par contre très récente, les premiers travaux datant des années 90.

un contrôle judicieux et parcimo-nieuxOn distingue le contrôle intrinsèque, comme celui des prédateurs sur les proies, du contrôle forcé lorsque l’homme intervient, par exemple en favorisant l’établissement de pollinisateurs en établissant des bandes

enherbées le long des champs comme lieux de nourriture et d’abris privilégiés. L’idée même d’utiliser le contrôle spatial consiste à déterminer les conditions spatiales menant à un contrôle efficace sur l’ensemble d’une surface : les caractéristiques idéales de l’em-placement du contrôle sont déterminées en se basant sur les phénomènes de diffusion. Selon la valeur des paramètres, le contrôle peut finalement se propager sur l’ensemble de l’espace, tout comme un tapis qui se déroulerait de lui-même.Penser spatialement conduit donc à utiliser le contrôle, quel qu’il soit, de manière judi-cieuse et parcimonieuse, ce qui est souhai-table écologiquement et économiquement. Un domaine d’applications écologiques qui connaît des avancées majeures est l’éta-

blissement de réserves marines, combiné à l’allocation de zones de pêche spatiale-ment ajustées. Les travaux les plus récents démontrent qu’il est possible, en définissant des zones de protection totale et des zones de capture, d’augmenter non seulement les stocks de poissons, qui ont tendance à aller de manière privilégiée dans les zones de refuges, mais également les tonnages pêchés, dès lors où les zones de pêche sont contigües.

Vers une boîte à outils mathéma-tiques L’étude du contrôle temporel des rava-geurs par la lutte biologique – l’utilisation d’ennemis naturels tels que les coccinelles contre les pucerons- en utilisant la théorie du contrôle optimal est récente. Des équa-tions différentielles à « impulsions » sont généralement utilisées, car elles prennent en compte la continuité temporelle du contrôle par les prédateurs ainsi que la nature discontinue des mesures appliquées, tels que les lâchers. Il reste passablement des travaux en mathématiques appliquées à développer sur les systèmes hybrides avant que ces équations fassent partie d’une boîte à outils facilement utilisable par les biolo-gistes et les agronomes.

« ...aucune des études conduites à ce jour n’a considéré le contrôle

spatial... » Dans l’exemple de la lutte contre la mineuse du marronnier, le contrôle de cet insecte a

Dans ce contexte, il s’agit de déterminer par analyse d’images 3D, à l’échelle du micro-mètre, les modifications minéralogiques et structurales du tuffeau dues à des phéno-mènes d’altération. Les mathématiciens disposent d’images de micro tomographie X obtenues par l’Institut des Sciences de la Terre d’Orléans (ISTO – UMR 7327 CNRS/Université d’Orléans/BRGM), pour identi-fier la forme et la structure 3D des phases poreuses et solides. Une difficulté particu-lière toutefois : les images présentent des contours et des régions mal définies du fait de la porosité de la roche. La structure microporeuse du tuffeau se traduit par des éléments de texture qu’il convient d’analy-ser et de restaurer. Le but final de l’étude est d’identifier le milieu et de le recons-truire en 3D. Le domaine ainsi reconstitué servira de fondation à une modélisation physico-chimique des transferts hydriques dans le matériau. Dans la perspective de la modélisation des transferts de fluide et de

masse dans le réseau poreux du matériau, la connaissance de la structure, la morpho-logie et la minéralogie des pierres est une étape primordiale. Cet objectif peut être atteint en procédant à l’analyse des images tridimensionnelles obtenues par micro-tomographie X.

un modèle mathématique de décomposition d’image Les images de micro-tomographie X sont des images en niveaux de gris, présen-tant plusieurs régions correspondant aux différentes phases de la pierre. L’analyse d’images de milieux aussi complexes néces-site des méthodes qui préservent au maxi-mum l’information originale. Le modèle mathématique utilisé décom-pose les images en différentes compo-santes (calques) qui appartiennent chacune à des espaces mathématiques différents, « ciblant » donc des caractéristiques diffé-rentes de l’image. Plus précisément, l’image est décomposée en un calque qui capte la dynamique générale (remédiant ainsi aux éventuels problèmes d’éclairage), une partie captant les contours (ou les macro-textures) et une composante isolant le bruit et/ou les micro-textures. Le modèle four-nit ainsi une méthode de débruitage non

destructive et des informations morpholo-giques sur la structure de la roche. A cela s’ajoute le réglage de différentes échelles via des paramètres. De cet ensemble naît une description précise du vide à l’intérieur de la pierre, en 3D.

L’objectif est de comprendre et prédire l’in-fluence de la structure d’un milieu poreux désordonné sur l’écoulement d’un fluide imprégnant le matériau. La reconstitution précise du milieu 3D va permettre d’uti-liser des modèles de transfert hydrique pour décrire complètement le phénomène d’érosion de la pierre. C’est un travail sur le long terme qui va mobiliser physiciens et mathématiciens

Maïtine beRgouNiouX < MAPMo [email protected]

http://www.univ-orleans.fr/MAPMO

Page 11: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

2120

Mathématiques Mathématiques α

21

Les anticorps monoclonaux sont utilisés depuis 1995 pour le traitement d’affections graves telles que les maladies inflamma-toires chroniques et les cancers. Ils font partie des « biomédicaments » car ils sont produits par des cellules en culture et non par synthèse chimique

un traitement, plusieurs réponses Bien que les anticorps monoclonaux aient toutes les caractéristiques des anticorps que notre organisme développe pour se protéger des infections, et bien que leur cible dans l’organisme soit parfaitement connue, tous les patients ne réagissent pas de la même façon au traitement : certains subissent des effets indésirables, d’autres sont confrontés à une inefficacité thérapeu-tique. Il est donc nécessaire de comprendre quelles sont les causes de cette variabilité de réponse et d’étudier comment personna-liser la posologie pour chaque patient. C’est le sujet de recherche de l’ équipe 1 du Laboratoire Génétique, Immunothérapie, Chimie et Cancer (GICC – UMR 7292 CNRS/Université François-Rabelais de Tours)*.

De l’équation à la guérison

été optimisé par le ramassage de feuilles ; une fréquence et un effort de collecte suffi-sant peuvent apparemment venir à bout de ce problème, pour l’instant sans solutions. Néanmoins, aucune des études conduites à ce jour n’a considéré le contrôle spatial, alors que bien des systèmes de produc-tion agricole sont spatialement structurés. Les bandes enherbées en sont un exemple et la recherche n’est pas encore à même de donner des indications fiables sur le contrôle attendu en fonction de la largeur de la bande ou son emplacement.

L’agroforesterie, un exemple de structuration spatiale Marier arbres et champs est une ancienne façon de concevoir l’agriculture qui revient en force, de part les multiples avantages induits - protection des sols et des bassins versants, puits de carbone, biodiversité plus élevée, rendements mixtes meilleurs. Les zones entre les arbres au sein d’une rangée ne sont généralement pas exploi-tées et leur gestion peut favoriser toute une faune d’axillaires. Les coccinelles, carabes, et autres syrphes apprécient le pied et la couronne des arbres comme lieux de repos,

de ponte ou encore d’appoint nutrition-nel. Si l’on désire privilégier leurs services dans la parcelle (un des nombreux services écosystémiques), il faut alors s’intéres-ser à la conduite de ces espaces (enher-bage, débroussaillage etc.) mais aussi aux mouvements de ces insectes tout en tenant compte de l’interaction des proies et préda-teurs, sous forme de mortalité et natalité.

Ces équations de réaction-diffusion relati-vement complexes, notamment utilisées dans des modèles de morphogénèse par A. Turing, peuvent aboutir à un contrôle spatial

intrinsèque dans un espace homogène ou hétérogène. Penser global en faisant travail-ler le contrôle pour nous, en n’intervenant que de manière locale à des endroits précis et en laissant le système opérer par la suite sur l’ensemble de la parcelle est souhai-table écologiquement et économiquement. Prenons l’exemple d’une espèce invasive que l’on veut contrôler. Si les moyens de contrôle sont limités, alors mieux vaut concentrer localement le contrôle sur une zone que d’agir partout. Si on positionne la zone de contrôle de manière adéquate, on arrive à éliminer l’envahisseur sur la totalité du domaine.

La lutte biologique nécessite un soin parti-culier et un suivi très régulier ; optimiser le choix des lieux de perturbation respecte l’écosystème et minimise les coûts. C’est le but des recherches actuelles à l’Institut de Recherche sur la Biologie de l’Insecte (IRBI – UMR 7261 CNRS/Université François Rabe-lais) avec le Laboratoire de Mathématiques et de Physique Théorique (LMPT – UMR 7350 CNRS/Université François Rabelais) car il faut urgemment passer d’une agricul-ture intensive en entrants chimiques à une agriculture écologiquement intensive, gour-mande en savoir. Le contrôle spatial peut y contribuer pleinement.

Christelle SuPPo < iRbi [email protected]

Sten MAdeC < [email protected]

guy bARLeS < [email protected]

Jérôme CASAS < [email protected]

http://irbi.univ-tours.fr/http://www.lmpt.univ-tours.fr/

L’efficacité thérapeutique des anticorps monoclonaux n’est plus à démontrer. La modélisation mathématique permet d’en optimiser l’efficacité et d’en limiter les effets indésirables.

( ) ( )( ) 0

( ) h(t) = densité d'organismes au temps t'( ) ( ) 1 , \ r = taux de croissance

, K = capacité d'accueil = amplitude de prélèvement 0 0 T = temps entre

h th t rh t t TK

h jT h jT j

h h

ρρ

+

+ −

= − ∈ = ∈

= >

� �

2 contrôles successifs

Contrôle d’une populationL’évolution temporelle de l’organisme et le contrôle appliqué par l’homme peuvent être modélisés par l’équation différentielle suivante :

On démontre que la densité diminue et tends à disparaître si 1rTeρ < . Cela veut dire que si r et ρ sont fixés, il faut augmenter la fréquence d’application du contrôle pour contrôler la population de l’organisme invasif, ce qui équivaut à diminuer l’intervalle entre deux traitements, T.

Page 12: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

2322

Mathématiques Mathématiques α

23

Vers une personnalisation des traitementsLes sources potentielles de variabilité de réponse sont très nombreuses : poids, sexe, facteurs génétiques, gravité de la maladie, médicaments associés, etc. Seule la modéli-sation mathématique permet d’étudier tous ces facteurs individuels de façon simulta-née et de quantifier leurs effets respectifs. Les modèles utilisés « dissèquent » la rela-tion entre dose administrée et réponse du patient. Ils différencient la relation entre dose et concentration sanguine, décrite par des modèles pharmacocinétiques (« PK ») et la relation entre concentration sanguine et réponse, décrite par des modèles phar-macocinétiques-pharmacodynamiques (« PK-PD »). Une fois construit, le modèle peut être utilisé pour simuler la réponse attendue chez les patients avec diffé-rentes posologies et donc pour concevoir des études cliniques améliorant l’effica-cité thérapeutique et diminuant les effets indésirables de ces médicaments indispen-sables.

dans le cas du cancer colorectal…Le cetuximab est un anticorps monoclonal anticancéreux qui se fixe sur l’EGFR, un récepteur agissant sur la croissance des tissus. Il inhibe ou détruit les cellules qui l’expriment à leur surface. Dans le cancer colorectal, la dose de cetuximab est ajustée à la surface corporelle, une mesure prenant en compte à la fois le poids et la taille des patients.

« L’adaptation individuelle de la posologie s’avère

donc très prometteuse. »Malgré cet ajustement, il persiste une grande variabilité de réponse au traite-ment. L’approche des chercheurs cliniciens, biologistes et biométriciens du GICC a tout d’abord consisté à décrire la pharmacoci-nétique du cetuximab chez chacun des 96 patients inclus dans une étude clinique. Ils ont montré que cet anticorps est éliminé de l’organisme à la fois par un mécanisme non spécifique, commun aux anticorps,

et par un mécanisme spécifique, lié à la quantité d’EGFR. Il a ensuite été observé que les patients ayant une capacité d’éli-mination globale supérieure à la médiane (donc les concentrations de cetuximab les plus faibles) avaient un risque de progres-sion de la maladie plus important que les autres patients. Par ailleurs, les chercheurs ont observé que dès le 14ème jour (juste avant la 3ème injection du biomédicament), la concentration de cetuximab permet-tait de prédire la survie sans progression des patients, c’est-à-dire le temps pendant lequel un patient traité ne présentera pas de rechute de sa maladie. L’adaptation indi-viduelle de la posologie s’avère donc très prometteuse.

… de la polyarthrite rhumatoïdeCe rhumatisme inflammatoire chronique est tout à la fois douloureux et invalidant. Le TNF-α, un médiateur de l’inflammation impliqué dans cette maladie, est bloqué par l’infliximab. Cet anticorps monoclonal a bouleversé le traitement de cette affec-tion. Son efficacité est en partie détermi-née par ses concentrations sanguines car

elle augmente avec elles. La recherche de facteurs expliquant la variabilité des concentrations est donc indispensable. Trois de ces facteurs ont été identifiés par le labo-ratoire :

- la vitesse d’élimination de l’infliximab par l’organisme augmente avec l’inflammation. Les patients dont la maladie est très active auront donc des concentrations plus faibles que les autres patients et le traitement sera moins efficace chez eux. Ils bénéficieraient de doses plus fortes.- l’infliximab étant une protéine étrangère à l’organisme, certains patients peuvent s’im-muniser contre elle. Cette immunisation est associée à une élimination beaucoup plus rapide de l’anticorps et entraîne une perte de son efficacité.

- l’association de traitements anti-inflam-matoires, comme le méthotrexate, entraîne une diminution de l’inflammation, donc une diminution de l’élimination de l’infliximab et une augmentation de ses concentrations.La quantification de l’influence de ces trois facteurs permettra de définir la posologie optimale pour chaque patient.

… ou du lymphome malinLe rituximab, autre anticorps monoclonal, se fixe sur le CD20, une protéine exprimée à la surface des lymphocytes B. En ciblant les cellules des lymphomes malins, il provoque leur destruction par le système immuni-taire, et a révolutionné le traitement de cette maladie. La dose de rituximab admi-nistrée pour traiter les lymphomes est de 375 mg par unité de surface corporelle. Le traitement comporte une phase d’induction (visant à réduire la maladie), durant laquelle les patients reçoivent 6 ou 8 injections toutes les 3 semaines, puis une phase de maintenance, avec une dose tous les 2 ou 3 mois. Toutefois, aucune étude n’a démontré que cette dose était optimale.

A l’aide des informations disponibles dans la littérature, les chercheurs ont construit un modèle mathématique pour détermi-ner la dose optimale de rituximab dans les lymphomes. Ce modèle quantifie la rela-tion entre les concentrations sanguines de rituximab, décrites à l’aide d’un modèle PK, et l’efficacité, décrite par la survie sans progression. D’après le modèle, la dose d’induction de 375 mg/m2 est correcte. En revanche, la dose de maintenance optimale

serait de 1500 mg/m2 car elle permettrait d’augmenter d’environ 10% la survie sans progression à 2 ans.

L’équipe poursuit actuellement son étude des sources de variabilité de réponse aux anticorps thérapeutiques en recherchant notamment l’influence des facteurs géné-tiques individuels. Par ailleurs, ses cher-cheurs étudient, grâce à la modélisation PK-PD, quelle concentration d’anticorps doit être « ciblée » selon la maladie et son stade et donc comment optimiser la person-nalisation de la dose administrée à chaque patient.

gilles PAiNTAud < giCC [email protected]

David ternAnt < giCC [email protected]

Nicolas AzzoPARdi < giCC [email protected]

http://gicc.cnrs.univ-tours.fr

*Ces travaux ont partiellement été financés par le LabEx MAbImprove. Les génotypages et les mesures de concentrations d’anticorps monoclonaux ont été réalisées sur la plateforme du CePiBAc, cofinancé par l’Union Européenne. L’Europe s’engage en région Centre avec le Fonds Régional Européen de Développement (FEDER).

Survie sans progression avec dose de mainte-nance à 375 mg/m2 (bleu clair) et à 1500 mg/m2

(bleu foncé), décrite à l’aide d’une fonction exponentielle négative qui suppose l’indé-pendance de survenue des rechutes entre elles (équation 1). Selon le modèle, le taux de rechute (λ) est d’autant plus important que les concentrations de rituximab sont faibles (équation 2). La moyenne mobile des concen-trations (Cm) prend en compte la persistance de l’effet anti-tumoral du rituximab après élimination de celui-ci (équation 3).

Variabilité pharmacocinétique du cetuximab dans le cancer colorectal métastatique.

(A) : La PK est décrite à l’aide d’un modèle à deux compartiments. La capacité globale d’éli-mination est constituée de l’élimination non spécifique (k10) et de l’élimination spécifique (k0), liée à l’EGFR.

(B) : Les patients ayant une capacité d’élimination globale plus élevée (bleu) présentent des concentrations plus faibles.

(C) : Les patients ayant une capacité d’élimination globale supérieure à la médiane (bleu) avaient un risque de progression de la maladie plus élevé que les autres patients.

(D) : Dès le 14ème jour, la concen-tration de cetuximab permettait de prédire la capacité globale d’élimination, donc le temps pendant lequel un patient traité ne présentera pas de rechute.

Page 13: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

24

Biologie

25

Biologie

de mieux s’adapter aux antigènes, et ainsi de combattre plus efficacement les patho-gènes qui menacent notre organisme.

Maîtriser les dangersCes mécanismes permettent donc d’obtenir une réponse immunitaire optimale, mais constituent pour les généticiens un phéno-mène particulièrement intrigant. Alors que notre génome est normalement réputé très stable, une cellule unique très particulière, le lymphocyte B, s’est arrogé le droit de le muter afin d’optimiser les anticorps qu’elle produit grâce à une succession de cassures de l’ADN et de mutations.

« ...ces mécanismes se doivent d’être contrôlés de façon très stricte... »

Phénomène dangereux, potentiellement cancérogène (les lymphocytes B sont d’ail-leurs malheureusement à l’origine de beau-coup de lymphomes et de leucémies), ces mécanismes se doivent d’être contrôlés de façon très stricte dans le temps (pendant la réponse à l’antigène) et dans l’espace (de façon strictement limitée aux gènes d’im-munoglobulines). Cette régulation est assu-rée par des séquences particulières d’ADN réparties tout au long du segment de chro-mosome qui code les anticorps.

Le Laboratoire de Contrôle de la Réponse Immune B et des Lymphoproliférations (CRIBL - UMR 7276 CNRS/Université de Limoges, CHU de Limoges) s’intéresse en particulier à l’une de ces régions, nommée « région régulatrice localisée en 3’ du locus IgH » (ou 3’RR). Elle est principalement connue pour réguler la synthèse des chaînes

lourdes d’anticorps, pour s’assurer qu’elles ne soient exprimées que dans les lympho-cytes B, et uniquement lors d’une réponse immunitaire. Outre son rôle essentiel dans la coordination de l’expression des gènes codant les anticorps, la 3’RR possède également un côté délétère. En effet, les phénomènes de cassures et mutations se produisant dans l’ADN des lymphocytes B font du locus IgH une zone critique de trans-locations, c’est-à-dire d’échange de frag-ments entre les chromosomes. Lorsqu’un gène est déplacé au locus IgH, son expres-sion est activée par la 3’RR. Or, certains gènes appelés oncogènes, lorsqu’ils sont dérégulés, rendent la cellule cancéreuse. Ainsi de nombreuses études, dont celles du CRIBL, ont montré le rôle de la 3’RR dans le développement de lymphomes. des mécanismes mis en évidenceL’objectif du laboratoire est de déterminer comment la 3’RR contrôle les mécanismes qui permettent aux lymphocytes B de casser leur ADN uniquement au niveau du locus IgH, tout en maintenant l’intégrité du reste de leur génome. Cette ambition s’est concrétisée en 2010 avec la création au laboratoire de modèles murins ne conte-nant plus la 3’RR dans leur génome.

Cette technique de délétion génétique permet de mettre en évidence le rôle d’un élément dans des processus physiolo-giques : s’ils sont altérés, il peut alors en être déduit que la région supprimée joue un rôle crucial dans ces phénomènes. Compa-rativement à des souris normales (présen-tant toujours la 3’RR dans leur génome),

l’étude des gènes codant les anticorps dans les souris 3’RR déficientes permet de déter-miner les mécanismes qu’elle contrôle. Les premiers travaux sur ces modèles ont déjà montré que la 3’RR n’est pas importante lors des réarrangements VDJ (mécanisme visant à former la partie variable de l’anti-corps) mais est essentielle dans le choix de la partie constante de l’anticorps. Récem-ment, les chercheurs ont démontré un rôle de la 3’RR dans l’hypermutation somatique, le mécanisme introduisant les mutations dans les gènes des parties variables : elle constitue l’interrupteur ON/OFF de ce mécanisme qui participe ô combien à la diversité de la réponse immunitaire. Elle assure le ciblage précis de la protéine appe-lée AID, responsable des mutations dans la partie variable.

La mise en évidence d’une telle coopération entre la 3’RR et la protéine AID est une avan-cée majeure dans la compréhension des remaniements géniques se produisant dans les gènes des anticorps, et potentiellement à l’origine de la cancérisation d’un lympho-cyte B. A plus long terme, la meilleure compréhension des événements aboutis-sant au développement d’un lymphome est nécessaire pour l’émergence de nouvelles perspectives thérapeutiques.

Pauline rouAuD < CRibL [email protected]

Alexis SAiNTAMANd < CRibL [email protected]

Les anticorps sont des molécules complexes en forme de « Y » contenant une partie variable et une constante. Le partie variable, située au bout du Y permet à l’anticorps de reconnaître l’antigène, tandis que la partie constante permet le recrutement des autres éléments du système immunitaire.

Alors qu’il n’existe que cinq types de parties constantes différentes, la partie variable de chaque anticorps doit être capable d’identi-fier un seul antigène, d’où la nécessité pour l’organisme de générer une grande quantité d’anticorps possédant des parties variables différentes.

des anticorps par millionsLe rôle des lymphocytes B est donc de synthétiser des anticorps spécifiques des antigènes à la surface des pathogènes. Comme toutes les protéines, les chaînes qui forment les anticorps sont codées par des gènes. Dans le cas des chaînes lourdes, la portion de chro-mosome contenant les gènes est appelée locus IgH. Le problème est de détermi-ner comment, à partir d’un génome unique, commun à toutes les cellules du corps, les lymphocytes B vont réus-sir à se diversifier pour créer

des dizaines de millions d’anticorps diffé-rents, capable de lutter contre les dizaines de millions de pathogènes que rencon-trera l’individu au cours de sa vie. Afin de produire cette grande diversité d’anticorps, les lymphocytes B vont devoir remanier leur gène et assembler comme des Légos® trois types de segments d’ADN dits V, D et J. Chez l’homme, on dénombre 152 segments V, 20 segments D et 4 segments J. La cellule va couper son ADN, afin de conserver un seul gène de chaque segment. Les segments sont choisis de manière aléatoire, ce qui autorise un grand nombre de combinai-sons possibles (on parle de diversité combi-natoire), mais bien loin des centaines de milliers nécessaires. Les anticorps ainsi obtenus sont malgré tout de mauvaise qualité, et ne se lient que faiblement aux antigènes. Pour bien remplir leur rôle, ils ont besoin d’être améliorés, modifiés, optimisés… Cette optimisation indispensable nécessite un processus appelé « hypermutation soma-tique », qui correspond à une accumulation de mutations dans l’ADN codant les parties variables des anticorps, pour leur permettre

Tout au long de la vie, notre organisme subit les attaques d’éléments pathogènes, tels que microbes, virus, parasites... Pour y faire face, il possède un ensemble d’organes, de tissus et de cellules spécialisés dans la protection contre ces attaques : c’est le rôle du système immunitaire. Ce système complexe doit être capable de s’adapter pour éliminer rapidement et spécifiquement l’ensemble des pathogènes que rencontre quoti-diennement l’organisme. Pour cela, il dispose entre autre des lymphocytes B, des cellules de la famille des globules blancs capables de produire des anticorps, également appelés immunoglobulines.

© C

RIBL

CN

RS Le lymphocyte B, une usine à fabriquer des anticorps

Rôle de la 3’RR dans l’expression des anticorps Rôle de la 3’RR dans le développement de lymphome

Page 14: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

© T

hink

stoc

Les synthèses d’ARN (transcription) et de protéine (traduction) constituent les deux étapes principales de l’expression des gènes.Lorsque l’ARN néo-synthétisé n’est pas protégé par le ribosome (ou par d’autres biomolécules), l’ARN hélicase Rho peut s’y fixer et l’utiliser comme « piste » de déplacement ATP-dépendant. Rho déplace alors les obstacles se trouvant sur son chemin, dont l’ARN polymérase, ce qui provoque la terminaison de l’expression génique. Ce mécanisme central de régulation contribue à diverses fonctions physiologiques chez la bactérie, importantes pour son métabolisme de base et son adaptation aux variations et stress environnementaux.

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

26 27

Biologie Biologie

La cellule est une entité dynamique qui, pour fonctionner correctement, doit coor-donner dans l’espace et dans le temps de nombreux évènements et transactions moléculaires. Une dérégulation de cette coordination spatio-temporelle peut être à l’origine de maladies mais peut aussi consti-tuer la base de stratégies thérapeutiques efficaces. C’est le cas, lorsqu’on provoque volontairement et spécifiquement cette dérégulation chez un organisme pathogène.

des moteurs moléculairesPour assurer et orchestrer ses fonctions, la cellule dispose de « nano-engins » capables de fabriquer, transporter, remodeler ou détruire les nombreuses molécules et assemblages moléculaires complexes qui la composent. Il existe notamment des enzymes appelés « moteurs » molécu-laires (ou protéines moteurs) qui peuvent générer un couple ou une force (jusqu’à quelques dizaines de pico-Newtons) à partir d’un « carburant » cellulaire. Par exemple, l’enzyme « F1F0-ATP synthase » exploite le principe des piles et batteries (différence de potentiels électrochimiques au travers une membrane, ici la membrane cellulaire) pour alimenter la rotation de ses compo-sants assurant la synthèse d’une molécule essentielle à la vie, l’ATP (Adénosine-5’-Tri-Phosphate). L’ATP est lui-même un carbu-

rant cellulaire majeur. Lorsqu’il est hydro-lysé, il libère une énergie conséquente (~65 kJ/mole) qui est convertie en mouvements nanoscopiques par de nombreux moteurs moléculaires. C’est un peu comme la combustion d’essence dont l’énergie libérée (~4200 kJ/mole) est transformée en travail « physique » par un moteur thermique.

«...moteurs moléculaires appelés "hélicases".»

Le Centre de Biophysique Moléculaire (CBM, CNRS-Orléans) étudie une famille spécifique de moteurs moléculaires appe-lés « hélicases ». Ces dernières remanient l’organisation structurale de nombreux assemblages intracellulaires contenant des acides nucléiques. Il existe naturellement deux sortes d’acides nucléiques : l’ADN qui constitue nos gènes et l’ARN qui est produit à partir de ces gènes et impliqué dans de nombreux processus cellulaires essentiels.

On distingue ADN hélicases et ARN héli-cases suivant leur spécificité (ou préférence) pour l’ADN ou l’ARN. Les hélicases peuvent, par exemple, séparer les deux brins de la double hélice d’ADN lors de sa réplication (précédant la division cellulaire) ou encore, comme dans le cas de l’ARN hélicase Rho qui nous intéresse, interrompre la biosynthèse

d’ARN et ponctuer le processus complexe d’expression des gènes.

un objet biologique intrigantL’hélicase Rho est impliqué dans divers processus importants de l’expression et de la protection des génomes bactériens. Bien qu’ayant été abondamment étudiée, de nombreux aspects essentiels, liés à ses fonctions et à son mécanisme d’action, restent mal compris. C’est l’un des très rares exemples d’ARN hélicases organisées en anneau hexamèrique, une configura-tion habituellement réservée aux ADN hélicases. Ces dernières doivent séparer les deux brins d’ADN suivant un principe ressemblant à une fermeture éclair, en parcourant de grandes longueurs d’ADN (plusieurs milliers de paires de bases) sans s’en décrocher. Cette propriété est assurée

Le facteur Rho est un « nano-engin » biologique crucial pour l’expression et la protection des génomes bac-tériens. Cible d’un antibiotique naturel, la bicyclomycine, son mécanisme de fonctionnement est l’objet de toutes les attentions.

par l’emprisonnement et le coulissement d’un des brins d’ADN au centre de l’anneau hélicase (tandis que l’autre brin reste exclu à l’extérieur), un mécanisme communé-ment admis, y compris pour Rho. Pourtant, les chercheurs du CBM ont montré que Rho n’était pas capable de séparer plus de 60 à 80 paires de bases d’ARN avant de s’en déta-cher. Une explication probable est que l’an-neau Rho subit des ouvertures transitoires pendant son déplacement le long de l’ARN, permettant à ce dernier de « s’échapper ». Rho reste néanmoins supérieur à la plupart des ARN hélicases (capables de n’ouvrir que quelques paires de bases d’ARN) et démo-lit ses cibles physiologiques (complexe de transcription, doubles hélices d’ARN/ADN appelées « R-loops ») avec une grande effi-cacité.

un bolide moléculaireUne marque distinctive de Rho est la présence de six sites d’hydrolyse de l’ATP au sein de son anneau hexamèrique. S’il est admis que tous les sites participent au cycle de fonctionnement élémentaire du moteur Rho, il n’est pas clair de quelle façon ils opèrent ni avec quel rendement énergé-tique. Des études structurales suggèrent que ces six « cylindres » fonctionnent l’un après l’autre et de manière ordon-née (comme dans un moteur thermique), conduisant collectivement à un mouvement de déplacement régulier de un nucléotide d’ARN -ou de séparation d’une paire de base- par molécule d’ATP hydrolysé (ce qui

correspondrait à un rende-ment d’environ 10%). Des études biochi-miques menées au CBM suggèrent au contraire un mouvement irrégulier constitué de « sauts » de sept nucléotides requérant 60 à 70% de l’énergie libérée par l’hydrolyse d’ATP. Il est probable que seules des analyses sophistiquées, à l’échelle de la molécule unique, permettront de trancher ces questions. Un partenariat a été initié dans ce sens avec des physiciens du Centre de Biochimie Structurale de Montpellier. Les premiers tests sont encore insuffisamment résolutifs mais ont en revanche permis d’évaluer la vitesse de déplacement de Rho à environ deux fois celle du complexe de transcription. Rho est donc un véritable bolide moléculaire qui engage une course avec un autre nano-engin (le complexe de transcription) car il doit le « caramboler » (et le détruire) avant que lui-même ne quitte la « piste » ARN (en s’en détachant).

bien des questions en suspensRho n’est pas présent chez l’homme, les animaux ou les plantes mais, d’après une étude menée au CBM, il est codé par 92% des génomes bactériens référencés et a été détecté expérimentalement chez des espèces représentatives des grandes familles (phyla) de bactéries. S’il n’est pas sûr que Rho soit essentiel pour toutes ces bactéries, nombre d’entre elles (dont beau-coup d’entérobactéries pathogènes) sont sensibles à la bicyclomycine. Cet antibio-tique naturel, isolé de bactéries du sol Japo-nais, se fixe à Rho et l’empêche d’hydroly-ser l’ATP. Chez ~5% d’espèces provenant d’écosystèmes variés, Rho contient des mutations lui conférant une résistance à la bicyclomycine. Cette résistance est souvent liée à une moins bonne interaction (baisse

d’affinité) entre la bicyclomycine et le facteur Rho muté. Dans certains cas, le changement paraît plus profond et concerner directement le méca-nisme d’action de Rho. Chez Mycobacte-rium tuberculosis, par exemple, Rho semble être capable de démolir le complexe de transcription sans requérir l’hydrolyse d’ATP.

Utilise-t-il une source d’énergie alternative dans ce cas ? Les fonctions biologiques et de moteur moléculaire de Rho ont-elles été dissociées chez cette espèce ? Telles sont les questions auxquelles l’équipe du CBM cherche maintenant des réponses. Celles-ci seront utiles pour comprendre le fonction-nement des ARN hélicases et des moteurs moléculaires en général mais également pour rechercher des alternatives à la bicy-clomycine. Les propriétés pharmacolo-giques de cette dernière ne sont malheu-reusement pas optimales et son usage est limité au domaine vétérinaire. Mieux comprendre la « mécanique » du moteur Rho devrait faciliter la mise au point d’anti-biotiques synthétiques capables de dérégu-ler la physiologie bactérienne encore plus efficacement et sans danger pour l’homme.

Marc boudViLLAiN < CbM [email protected]

http://cbm.cnrs-orleans.fr

Un moteur « six-cylindres » sous le capot d’un bolide microbien

Page 15: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

28 29

Chimie Chimie

La découverte de nouvelles molé-cules bioactivesLes étapes de recherche pharmaceutique comprennent deux phases successives, une phase initiale de conception de médi-cament (Early Discovery) suivie par le déve-loppement clinique (Clinical Development).

Dans l’industrie pharmaceutique, seuls 3% des projets de recherche en moyenne réussissent à délivrer un médicament sur le marché. Parmi les raisons de ces échecs, l’ef-ficacité clinique reste le plus gros obstacle à franchir. Cependant le taux de succès pendant la phase initiale est de 70% grâce aux nouvelles technologies notamment la chémoinformatique, la chimie computa-tionnelle ou les approches de SBDD (Struc-ture-Based Drug Design). La chémoinforma-tique utilise des moyens informatiques pour résoudre des problèmes relatifs à la chimie. Dans la découverte de nouvelles molécules bioactives, elle est utilisée principalement dans la prédiction de propriétés molécu-laires physiques, chimiques ou biologiques et dans la manipulation de grandes bases de données de molécules. Il est possible d’imaginer presque 1 milliard de molécules « drug-like » à partir de 13 atomes lourds (C, N, O, F, S) mais à ce jour 70 millions de molé-cules de toutes tailles ont été synthétisées.

« ...une discipline essen-tielle à la conception de

médicaments... » Il paraît évident que l’espace chimique découvert à ce jour ne couvre pas l’es-pace thérapeutique disponible. Plus de 11 millions de données biologiques ont été aujourd’hui publiées dans ChEMBL pour un peu plus de 1 million de molécules. Les outils de chémoinformatique facilitent l’identifica-tion de composés outils (tool compounds)

modulant la fonction d’une protéine afin de mieux dénouer les mécanismes biolo-giques et les voies de signalisation. En plus de l’identification de nouvelles structures moléculaires, ils permettent de prédire les activités biologiques de nouvelles molé-cules afin de limiter les effets secondaires rencontrés chez les patients.

quelques succèsL’informatique moléculaire est une disci-pline essentielle à la conception de médica-ments et elle participe aujourd’hui systéma-tiquement aux projets de recherche phar-maceutique. Un des premiers médicaments conçus à partir d’une approche SBDD est le zanamivir. Cette molécule interagie avec la protéine Neuraminidase impliquée dans le développement du virus de la grippe. Le losartan est un antagoniste des récep-teurs de l’angiotensine II, approuvé pour le traitement de l’hyperten-sion. Il a été conçu à partir des techniques de LBDD. D’autres médicaments comme le zolmi-triptan contre la migraine, l’amprenavir contre l’infec-tion par le VIH, le dorzola-mide pour le traitement anti-glaucomateux ont été conçus à partir de logiciels de modélisation moléculaire. Les différents outils disponibles en informatique moléculaire aident à concevoir et sélectionner les meilleures molécules bioactives pour les valider sur des tests biologiques. Et comme Neils Bohr (1885-1962, prix Nobel de Physique) disait « Prediction is very difficult, especially about the future ».

Depuis septembre 2012, la nouvelle équipe de Bioinformatique Structurale et Chémoin-formatique de l’ICOA qui développe ses activités autour de l’informatique molécu-laire, vient renforcer les groupes de biochi-mie et de chimie organique et analytique dans la conception de nouvelles molécules à visées thérapeutiques. La stratégie actuelle d’ « Open Innovation » mise en place par les biotechs et les entreprises pharmaceu-tiques a permis de créer plusieurs collabo-rations de recherche public-privé dans le domaine de l’informatique moléculaire. Ces opérations « gagnant-gagnant » permettent de travailler ensemble pour accélérer la découverte de nouveaux candidats médica-ments.

Pascal boNNeT < iCoA [email protected]

http://www.icoa.fr

Plusieurs définitions de l’informatique moléculaire existent. Dans le contexte de la recherche pharmaceutique, elle utilise différentes méthodes informatiques afin d’analyser, de comprendre et de prédire des propriétés physiques, chimiques ou biolo-giques de petites ou grosses molécules. Elle regroupe donc plusieurs disciplines comme la bioinformatique structurale, la chémoinformatique, la modélisation molé-culaire, la visualisation moléculaire, etc. Elle s’appuie sur un ensemble d’outils infor-matiques aidant les chimistes médicinaux et informaticiens (ou computationnels), les bioinformaticiens, les biologistes et les biochimistes à mieux concevoir des molé-cules d’intérêt thérapeutique. L’ensemble de ces outils est très utilisé aujourd’hui en recherche de molécules bioactives, que ce soit dans les entreprises pharmaceutiques ou dans les laboratoires académiques. Une synergie scientifique et technologique permet une recherche rationnelle efficace dans la conception et le développement de nouvelles entités moléculaires grâce notamment à une accumulation exponen-tielle de données expérimentales, des ordi-nateurs de plus en plus performants et à de nouveaux logiciels toujours mieux adaptés aux besoins de la recherche appliquée.

L’étude de systèmes moléculaires complexesLa première simulation d’une protéine (BPTI) remonte à 1977, celle-ci contenait environ 400 atomes et était étudiée isolée pendant 9 picosecondes (1ps=10-12s). Trente trois ans plus tard, une dynamique moléculaire de la même protéine a été simulée pendant 1 milliseconde et compor-tait plus de 5000 atomes permettant de mieux comprendre la fonction de cette protéine dans un milieu proche du milieu biologique. Il est aujourd’hui possible d’étu-dier des systèmes moléculaires complexes contenant des millions d’atomes pendant des temps de simulations se rapprochant des phénomènes biologiques réels. En recherche pharmaceutique, ces outils faci-litent la compréhension et la prédiction de l’interaction dynamique d’une ou de plusieurs petites molécules (ligand) avec des cibles biologiques. Il est possible d’obtenir, l’interaction d’un ligand dans un site actif d’une protéine, comme avec les méthodes d’ancrage moléculaire (docking), et aussi de comprendre le procédé physique favorisant ce ligand à se lier dynamiquement à ce site.

Avec des puissances de calculs encore plus performantes, il serait envisageable d’utili-

ser ces outils dans une approche polyphar-macologique, d’étudier plusieurs milliers de molécules interagissant avec plusieurs centaines de protéines et ainsi de sélec-tionner uniquement les meilleurs ligands. Cette approche probablement réalisable dans quelques années offrirait des horizons entièrement nouveaux en favorisant l’iden-tification rapide de nouvelles molécules actives et sélectives et ainsi d’accélérer la phase initiale de recherche de médica-ments.

L’équipe de Bioinformatique Structurale et Chémoinformatique de l’Institut de Chimie Organique et Analytique (ICOA, UMR 7311 CNRS/Université d’Orléans) développe et exploite les outils d’informatique moléculaire pour accélérer la conception de nouveaux candidats médicaments dans plusieurs domaines thérapeutiques.

Wordle de mots clés utilisés en infor-matique moléculaire appliquée à la recherche pharmaceutique

L’informatique moléculaire, dans la course aux nouveaux candidats médicaments

Superposition de structures cristal-

lographiques de protéines

kinases.

Illustrationsde la Chémioinformatique

Page 16: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

Moschion, De morbis muliebribus, dans Gynaecio-rum hoc est De mulierum tum aliis, tum grauidarum, parientium et puerperarum affectibus et morbis, Basileae, per Thomam Guarinum, 1566, p. 2.

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

30 31

Histoire Histoire

Dans la lettre de dédicace de la première édition des Gynaeciorum libri (Bâle 1566), qui inclut, entre autre, le Trotula, l’éditeur Hans Kaspar Wolf s’interroge sur l’utilité du recueil : pourquoi encore écrire sur les femmes, alors qu’on le fait depuis l’Antiquité ? C’est justement la longue histoire et l’inté-rêt que suscite la médecine des femmes qui justifie de poursuivre l’œuvre.

L’utérus et les maux des femmes L’utérus, continue Wolf, exerce plusieurs fonctions et est à l’origine de maladies extrêmement cruelles, qui bouleversent l’ordre habituel des thérapies. De là vient, d’après Wolf, l’idée hippocratique que l’uté-rus est la cause des maladies des femmes : « uteros morborum in mulieribus causam existere ». Quand, en 1586-1588, le médecin bâlois Caspar Bauhin réédite les Gynaeciorum libri à Bâle, le recueil s’enrichit de nombreuses œuvres de la Renaissance, telles que le traité sur l’engendrement de Jacob Rueff, la traduction latine du traité sur la génération d’Ambroise Paré et le traité sur les membres du corps des femmes de Felix Platter, avec la réimpression des images anatomiques d’An-dré Vésale. Dans cette édition des Gynae-ciorum libri, la pathologie s’accompagne de

l’anatomie et de la chirurgie : le traité sur la génération de

l’homme d’Ambroise Paré offre un riche éventail de représentations et descrip-tions des manœuvres et des instruments chirurgicaux nécessaires en cas d’accouche-ment dystocique (difficile).

«...salutaire pour les femmes et convenable

à la conservation et à la propagation du genre

humain.»Le portrait du médecin des femmes C’est dans l’esprit de sauver la vie des femmes souffrantes que le médecin Israel Spach trace le portrait du médecin des femmes dans la préface de la troisième édition des Gynaeciorum libri, publiée en 1597 à Strasbourg. D’après Spach, les mala-dies les plus cruelles et difficiles à soigner sont les maladies des femmes : tumeurs, môles, inflammations, cancers. Le médecin doit saisir l’origine de ces maux et connaître les problèmes qui se présentent pendant la grossesse. Des femmes n’arrivent pas à rete-nir le fœtus dans leur ventre tout le temps nécessaire à sa maturation et doivent l’ex-pulser, en se rendant ainsi odieuses à leur époux. Les douleurs atroces et effrayantes de l’accouchement mettent en danger la vie du bébé et de la femme. Un fœtus mort peut enfin rester trop longtemps dans le ventre de la mère ou la femme être enceinte d’un

monstre ; les menstruations peuvent être irrégulières ou la femme stérile.

Que les médecins interviennent dans des cas pareils, ce n’est pas seulement utile et glorieux, mais salutaire pour les femmes et convenable à la conservation et à la propa-gation du genre humain. C’est pour ces raisons que des médecins, continue Spach, ont consacré leur intelligence à l’étude des maladies des femmes. Ces médecins ont suivi la leçon hippocratique, en sachant que l’erreur consiste à ne pas comprendre la cause des souffrances des femmes et à soigner les patientes comme si elles étaient des hommes.

Le contexte historique ci-dessus esquissé et les sources décrites dans cet article solli-citent, aujourd’hui encore, le monde scien-tifique. Le Centre d’Etudes Supérieures de la Renaissance (CESR – UMR 7323 CNRS/Université François Rabelais de Tours) contri-bue aux études sur l’histoire de la santé des femmes en s’appuyant sur son patrimoine de livres anciens et sur la présence de cher-cheurs spécialisés en histoire des sciences. La recherche sur la relation entre les conte-nus des traités médicaux et les dossiers des patientes permet de mettre en valeur l’émergence de compétences spécifiques et professionnelles dans la gynécologie et l’obstétrique de la Renaissance.

Concetta PeNNuTo < CeSR [email protected]

http://cesr.univ-tours.fr

des ouvrages de référenceLe mâle est caractérisé par un corps compact à la manière d’une étoffe serrée, dit Hippocrate dans le traité Des Glandes, alors que le corps de la femme est lâche, spongieux, comme une laine. A l’origine des maladies du corps féminin humide et mou se situe un organe uniquement fémi-nin, l’utérus (matrice), considéré comme la cause des maladies des femmes : « La matrice est la cause de toutes les maladies [des femmes] ; car, de quelque façon qu’elle se déplace hors de sa position naturelle, soit qu’elle vienne en avant, soit qu’elle se retire, elle rend malade » (Hippocrate, Des lieux dans l’homme).

Ce sont ces caractéristiques du corps fémi-nin, sa souplesse et la présence de l’uté-rus, qui incitent le médecin hippocratique à adopter un regard particulier sur la santé des femmes par rapport à celle des hommes et, surtout, le responsabilisent durant la consultation. Si, dit Hippocrate dans Mala-dies des femmes, d’un côté de nombreuses femmes ne parlent pas par pudeur ou

ne reconnaissent pas la source de leurs souffrances, de l’autre côté les médecins commettent la faute de ne pas se rensei-gner correctement et de traiter la maladie féminine « comme s’il s’agissait d’une mala-die masculine ».

Peu connu au Moyen Âge, Des maladies des femmes devient entièrement lisible à la Renaissance. Mieux vaut toutefois rappeler que l’intérêt des médecins pour la santé des femmes ne disparaît pas au Moyen Age, connoté par un savoir plutôt galénique, puisque Galien avait traité du corps fémi-nin dans plusieurs œuvres d’anatomie et de physiologie. Un ouvrage comme celui connu sous le nom de Trotula atteste bien des compétences des médecins du Moyen Âge pour les problèmes de stérilité, mens-truations, prolapsus de la matrice, ulcères, accouchements.

L’utilité du recueil de gynécologie Gynaeciorum libri A partir de la deuxième moitié du XVIe siècle, un groupe de médecins décide de se vouer à la santé des femmes. Le premier pas consiste en la création d’un recueil, connu sous le nom de Gynaeciorum libri, dans lequel le médecin des femmes trouve

les textes les plus utiles pour soigner les patientes atteintes d’une maladie féminine ou en situation de grossesse et accouche-ment difficiles. De fait, à la base du recueil demeure l’idée d’offrir la collection la plus riche possible de textes gynécologiques de l’Antiquité jusqu’à l’époque moderne. Dans cette perspective, le recueil est publié à trois reprises et, à chaque fois, il est enrichi de nouveaux textes. Une stratégie éditoriale précise semble se dessiner : la création d’un savoir caractérisé par des compétences spécifiques, dont l’histoire confirme l’utilité et l’intérêt scientifique.

Depuis l’Antiquité, les médecins se sont intéressés à la santé des femmes, comme l’attestent plusieurs ouvrages de la Collection Hippocratique. L’enseignement d’Hippocrate permettra aux

médecins de la Renaissance de mieux comprendre la cause des souffrances des femmes.

Felix Platter, de mulierum partibus generationi dicatis, dans gynaecio-rum siue de Mulierum affectibus Commentarii (Tomus i), Basileae, per Conradum Waldkirch, 1586, figura II.

La santé des femmesà la Renaissance

Jacob Rueff, De conceptu et generatione hominis, dans Gynaeciorum siue de Mulie-rum affectibus Commenta-rii (Tomus I), Basileae, per Conradum Waldkirch, 1586, p. 372.

Page 17: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

© T

hink

stoc

Le Château de Montfort, forteresse datant des croisades au nord d’Israël.

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

32 33

Histoire Histoire

« Le Christ n’a pas versé son sang pour acquérir Jérusalem, mais les âmes qu’il faut sauver ! » Inattaquable, l’aphorisme appartient à Adam, abbé du monastère cistercien de Perseigne, dans le Perche. Il découle d’une expérience dramatique. En 1202, Adam part avec quelques cheva-liers champenois pour la croisade. Or, la plupart d’entre eux y perdent la vie ou la liberté. Revenu au pays, dans le silence du cloître où il prie et des champs qu’il laboure, Adam réfléchit à la disparition inutile de ses compagnons. Jérusalem a été conquise par Saladin en 1187, et depuis les croisés peinent à la reprendre. Leurs défaites à répétition sont la mère de tous les doutes. Elles instillent dans le cœur de bien des Occidentaux l’amertume d’une question lancinante. Dieu veut-il vraiment la croi-sade ? N’est-elle pas plutôt due à l’orgueil et à la cupidité, à une soif de conquêtes incom-patible avec l’enseignement des Évangiles qui conseillent de « tendre la joue droite, si on vous frappe sur la gauche » ?

du sacrifice à l’absolutionLa croisade est un pèlerinage en armes. Elle engage ses participants dans un combat pour mettre Jérusalem, but ultime de leur voyage, sous domination chrétienne. La ville

est sainte. Lieu de la crucifixion de Jésus, elle recèle le Saint-Sépulcre d’où il est ressus-cité. Au Mont des Oliviers tout proche, il est monté au ciel lors de son Ascension. C’est là qu’il doit revenir pour la Parousie, son second avènement, et instaurer un millé-naire de paix et de prospérité. Cette pers-pective eschatologique encourage les croi-sés au départ. Ils souhaitent, en effet, hâter le retour du Christ ou du moins faire péni-tence et mourir dans les lieux mêmes où il s’est incarné. Des foules enthousiastes de chevaliers et de fantassins prennent ainsi le chemin de la Terre sainte. Elles combattent l’Islam et elles créent des royaumes latins au Proche-Orient, qui résistent tout au long des XIIe et XIIIe siècles. Leur guerre les sanc-tifie parce que les multiples sacrifices et privations qu’elle comporte effacent leurs péchés.

Les Templiers, des moines soldatsSi la croisade jouit d’une large acceptation, il s’est toujours trouvé des esprits forts pour la contester. Contrairement à l’idée reçue, la société médiévale accepte le débat. Ses intellectuels érigent même la scolastique, où tout argument est opposé de façon dialectique à son contraire, en méthode par excellence. Ils soumettent également le

Nouveau Testament à une exégèse serrée. Or, le Christ a bien interdit la violence au chef des apôtres, qui voulait pourtant le défendre des gardiens du Temple venus l’arrêter en vue de sa crucifixion : « Pierre, remets ton épée dans le fourreau : celui qui tue par le fer périra par le fer ! », lui avait-il dit.

Archidiacre d’Oxford, Gautier Map (†1209) commente cette phrase pour critiquer les Templiers, c’est-à-dire des moines soldats, oxymoron au regard du droit canonique qui interdit de tout temps aux religieux la souillure du sang versé : « À Jérusalem, Pierre a appris à chercher la paix par la voie de la patience ; je ne sais pas qui a appris aux Templiers à repousser la violence par la violence. Ils prennent le fer et ils périssent par le fer […], alors que le Christ refusa de commander des légions d’anges quand Pierre frappa son coup. » Gautier conclut sur le recul face à Saladin des royaumes latins de Terre sainte, même défendus par les ordres militaires. Il remarque, en contre-partie, que « les apôtres avaient gagné Damas, Alexandrie et une grande partie du monde par la parole et non pas par le glaive qui depuis a tout perdu ».

Contrairement à ce qu’on pourrait penser, les croisades n’ont pas fait l’unanimité à leur époque. Cette « guerre juste » n’aurait pas suscité le consensus général que l’on s’accordait jusqu’à présent à recon-naître autour d’elle. un combat pour la conversion

Le christianisme ne saurait se répandre que par la prédication. Fondés à la fin du XIIe siècle, les Franciscains et les Domi-nicains prêchent partout la conversion. Certains d’entre eux apprennent l’arabe pour s’adresser aux musulmans. François d’Assise lui-même rencontre, en 1219, le sultan d’égypte auquel il propose le baptême. Al-Kâmil l’écoute avec attention et respect. S’il n’est pas convaincu, il demande à François de prier pour lui afin de trouver la vraie foi. Dans le sillage de son fondateur, le franciscain anglais Roger Bacon (1220-1292) préconise un dialogue sincère avec les musulmans. Il sait qu’ils « conservent dans leur religion beaucoup de paroles des évangiles » et qu’ils tiennent le Christ pour l’un « des plus grands prophètes, né de la Vierge Marie sans intervention d’homme, mais par le seul souffle du Saint-Esprit ». Sur ces bases, une entente est possible. Mais la croisade risque, selon Bacon, de tout gâcher : « Mener la guerre contre les sarrasins ne sert à rien […]. Les incroyants ne se convertissent pas pour autant. Au contraire, ils sont tués et envoyés en enfer. Les survivants et leurs enfants développent davantage de haine contre la foi chrétienne, dont ils s’éloignent à jamais. Ils sont encore plus déterminés à nuire aux chrétiens. C’est pourquoi, un peu partout, nous avons rendu

impossible la conversion des sarrasins. » La condamnation de la croisade est sans appel.

Le prêche plutôt que la guerreContemporain de Roger Bacon et proche des Franciscains, Raimond Lulle (1232-1316) préfère, comme lui, la mission aux armes. Il fonde même une école de langues à Majorque, son île natale, où des frères étudient l’arabe.

« ...le martyre, au détri-ment de la croisade. »

Il adresse une prière fort pacifiste au Christ : « Seigneur, la Terre sainte ne doit être conquise autrement que de la façon dont vous et vos apôtres l’avez conquise : amour, prières, versement de larmes et effusion de son propre sang. Seigneur, le Saint-Sépulcre et la Terre sainte d’outremer se laissent mieux prendre par la prédication que par la force des armes. Que les saints cheva-liers deviennent auparavant religieux, qu’ils se dotent du signe de la croix et qu’ils se laissent remplir de la grâce du Saint-Esprit afin de prêcher la vérité de votre Passion aux infidèles. Qu’ils versent, par votre

amour, toutes les larmes de leurs yeux et tout le sang de leur corps, ainsi que vous l’avez fait par amour envers eux. »

Autour de 1300, nombreux sont les Fran-ciscains qui préconisent la prédication en terre d’Islam, et s’il le faut le martyre, au détriment de la croisade. Ils ont le vent en poupe. Ce n’est pas du tout désormais le cas des Templiers, dont l’opinion publique ne comprend plus la raison d’être au lende-main de la chute de Saint-Jean d’Acre (1291). Les calomnies que diffuse Philippe le Bel, roi de France, à leur encontre leur valent la dissolution et, pour certains, le bûcher. La croisade n’a jamais fait l’unani-mité parmi les chrétiens.

Martin AuReLL < CeSCM [email protected]

http://cescm.labo.univ-poitiers.fr

Siège de Jérusalem par l’armée de Godefroi de Bouillon.Cliché CNRS-IRHT, Bibliothèques d’Amiens Métropole, Ms 483, f. 54v

Aux origines du Pacifisme ? contester la croisade au Moyen Âge

Page 18: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

© D

’apr

ès «

La

Suis

se d

u Pa

léol

ithiq

ue à

l’au

be d

u M

oyen

-Age

, VI,

Le h

aut

Moy

en Â

ge, 3

30 »

, des

sin

Beno

ît CL

ARyS

, cop

yrig

ht b

y Ar

chéo

logi

e Su

isse

. Évocation d’une inhumation à l’époque mérovingienne. Les tombes mérovingiennes sont richement dotées d’éléments de parure en verre : perles, éléments de décors de boucles, bijoux en cloisonné

Un regard sur les laboratoires en Centre Limousin Poitou-Charentes - Hors-Série 2013Microscoop, le magazine de la délégation CNRS Centre Limousin Poitou-Charentes - Hors-Série 2013

34 35

Histoire Histoire

Les premiers objets en verre ou l’art d’imiter la natureComme la céramique, la faïence, ou le métal, le verre est un matériau issu des arts du feu. Il a probablement été inventé au cours du 3ème millénaire avant notre ère, mais sa production en grande quantité n’est attestée qu’à partir du milieu du 2nd millé-naire avant notre ère, en Mésopotamie et en égypte.

Les perles et les éléments de décor sont parmi les premiers objets produits à partir de cette nouvelle matière. Dès le début de son épopée, le verre a servi à remplacer et imiter d’autres matériaux plus rares, plus précieux ou plus difficiles à travailler. En effet, par rapport aux gemmes, au corail ou à l’ambre qui sont seulement taillés ou polis (plus ou moins facilement selon leur dureté), le verre est coloré, moulé, étiré, tourné, mais aussi façonné à volonté. Une palette infinie de polychromies et de formes peut ainsi être obtenue en associant des verres de différentes couleurs.L’ingéniosité des artisans verriers a même permis à ce matériau d’imiter l’or ou l’argent. Ce n’est qu’au cours de l’antiquité que cette matière sera aussi appréciée pour sa transparence et sera utilisée en architec-ture comme vitrage.

Les traditions verrières diffèrent par l’utili-sation de recettes et de matières premières différentes, selon les aires de productions et les époques (Proche et Moyen Orient, Asie du Sud et du Sud Est, Monde Médi-terranéen… ). L’analyse de la composition du verre permet donc d’identifier sa prove-nance et ainsi d’étudier son cheminement.

«...la perle est aussi un objet magique.»

La perle : à la fois élément de parure, symbole protecteur et objet d’échangeObjet de parure de forme et d’aspect variés, la perle est aussi un objet magique. En tant qu’amulette, elle protège du mauvais sort ou des aléas des voyages, et guérit même certaines affections. Suivant les peuples et les époques, certaines couleurs sont consi-dérées comme bénéfiques ou néfastes. La perle est aussi utilisée pour confec-tionner des vêtements ou des ornements spécifiques, insignes de pouvoirs tempo-rels ou magiques, et être ainsi associée à certains rituels. Dès le second millénaire avant notre ère, les perles fabriquées au Proche et Moyen-Orient arrivent en Europe occidentale, où elles servent de monnaie d’échange avec les populations locales,

contre du minerai d’étain et divers autres produits. La plus ancienne épave connue contenant des jarres pleines de perles de verre est un bateau chypriote ou levantin daté du 14ème siècle avant notre ère. Elle a été retrouvée au large de la Turquie (Ulu Burum). Une autre épave, pleine de perles de verre, et datée du 16ème siècle de notre ère, était immergée au large du Sultanat de Brunei. Des cargaisons de perles ont aussi été extraites des épaves des vaisseaux de La Pérouse (La Boussole et l’Astrolabe, 18ème siècle). De tous temps et sur tous les continents, les perles ont donc été utili-sées comme cadeaux ou comme objets de troc.

des milliers de petites perles découvertesdans des tombes mérovingiennesLes inhumations ont toujours constitué une source importante de renseignements pour connaître la vie quoti-dienne des populations. Dans de nombreuses civili-sations, le défunt est en effet

Des résultats d’analyse obtenus sur des perles en verre retrouvées dans des tombes d’époque mérovin-gienne témoignent de l’existence d’un commerce à longue distance entre l’Océan Indien et le Monde Méditerranéen, entre la fin du 5ème et le début du 6ème siècle de notre ère. Ils apportent de nouveaux élé-ments sur les échanges internationaux et illustrent la précocité de la mondialisation des échanges via les différentes routes de la soie.

inhumé avec ses vêtements et un matériel funéraire varié, symboles de son activité et de son statut social. Les tombes mérovin-giennes sont à ce titre richement dotées, et sont une source d’enseignement sur les pratiques artisanales et commerciales de ces populations. Les éléments de parure et plus spécialement ceux en verre y sont particulièrement bien représentés : on les retrouve sous forme de perles, d’éléments de décors de boucles de ceinture et de bijoux en cloisonné.

Des fouilles récentes de tombes mérovin-giennes en Dordogne, Charente, Bretagne, mais aussi en Belgique (Wallonie) ont mis en évidence la présence en très grands nombre de minuscules petites perles en verre étiré (jusqu’à plus de 4000 à Saint-Laurent-des-Hommes, en Dordogne). La typologie de ces petites perles, le plus souvent mono-chromes (proches en taille des perles de rocaille) est très différente de celle de la production perlière mérovingienne tradi-tionnelle, plutôt constituée de perles poly-chromes de taille plus importante.

L’analyse, à la fin de l’année 2012, des minuscules perles en verre (1 à 2 mm de diamètre) de la nécropole de Saint-Laurent-des-Hommes a révélé bien des surprises. La plupart des objets en verre de l’époque mérovingienne sont en effet soit produits à partir de verre brut provenant du Proche Orient, soit à partir du recyclage de verre antique (lui aussi originaire du Proche-Orient). Mis à part quelques recettes de coloration originales, ils présentent donc la même composition de base que les verres de l’Antiquité. Les petites perles ont une composition totalement différente de celles des verres produits à cette époque dans le monde méditerranéen. Elles sont fabri-quées à partir d’un verre riche en alumine, semblable à celui produit durant cette période en Asie du Sud (Inde et Sri Lanka). Leur typologie est elle aussi identique à celles des perles retrouvées par milliers le long des côtes de l’Océan Indien. Ces minus-cules perles ne peuvent donc que provenir de cette région.

des produits exotiques acheminés par les routes de la soieCette provenance lointaine, inédite pour

des perles en verre, est en parfait accord avec les résultats obtenus, pour cette époque, par d’autres équipes de recherche sur les gemmes (grenats), les textiles (soie) ou les épices. Les

voies commerciales maritimes entre les mondes méditerranéen et indien

sont décrites dans de nombreux textes, dont le Périple de la mer Erythrée (manus-crit anonyme du 1er siècle) ou la Topogra-

phie chrétienne (Cosmas Indicopleus-tès, 6ème siècle). Ces perles faisaient

donc probablement partie des cargaisons de produits qui arri-

vaient d’Orient et d’Extrême Orient via la mer Rouge ou le golfe arabo-persique et les comptoirs commerciaux du Proche-Orient.

Les recherches en cours au Centre Ernest-Babelon de l’Institut de Recherche sur les Archéomatériaux* ont permis de loca-liser ce type de perles dans des fouilles anciennes de tombes mérovingiennes situées de la Belgique au Nord de l’Espagne. Toutes ces sépultures sont datées entre la fin du 5ème siècle et le milieu du 6ème siècle. Au cours de la seconde moitié du 6ème siècle, ce type de perle semble disparaître. Il faudra attendre le 7ème siècle pour que d’autres perles asiatiques, d’une typologie très diffé-rente, fassent leur apparition en Europe du Nord (Danemark, Suède, Allemagne). Celles-ci arrivent probablement par les voies commerciales qui empruntent les fleuves russes et les routes terrestres de la soie. Là encore, d’autres objets, comme la statue de Bouddha de l’île suédoise d’Helgö (7ème siècle) ou des cauris, témoignent de la persistance de cette mondialisation des échanges.

bernard gRATuze< iRAMAT [email protected]

Constantin PioN < CReA-Patrimoine uLb,bruxelles James LANkToN < institute of ArchaeologyuCL, qataravec Torben SODE, Conservateur au Danemark et de nombreux archéologues (SRA, INRAP, Archéosphère, Hadès …)

*UMR 5060 CNRS, Université tech. Belfort-Montbeliard, Université Bordeaux 3, Université d’Orléans, Ministère de la Culture et de la Communication, CEA, INRAP.

Plaque-boucle mérovingienne cloisonnée (cuivre doré et verre) de la nécropole de Saint-Laurent-des-Hommes. (Dordogne, fouille INRAP, Christian Scuiller, Dominique Poulain).

Page 19: de octobre 2013 Hors-série Un regard sur les laboratoires en ...des erreurs d’évaluation lourdes de conséquences. Des facteurs locaux (surface et qualité de la tourbière) mais

GD 2014 - 20ème conférence internationale sur les décharges électriques et leurs applications

6-11 juillet 2014Orléans - France

2014

Orléans

Délégation Centre Limousin Poitou-Charentes

www.dr8.cnrs.fr

Con

cept

ion

grap

hiqu

e : L

inda

Jeu

ffrau

lt - C

NR

S C

omD

CLP

C

Plus d’info : http://gd2014.sciencesconf.org/