bulletin de l'afia · afia,(72):70–73,2011. [4]v.bessonanda.berger. toinitiateacorpo-rate...

58
Bulletin N o 93 Association française pour l’Intelligence Artificielle AFIA Juillet 2016 N o 93 1

Upload: others

Post on 02-Sep-2020

2 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Bulletin No 93Association française pour l’Intelligence Artificielle

AFIA

Juillet 2016 No 93 1

Page 2: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

PRÉSENTATION DU BULLETINLe Bulletin de l’Association française pour l’Intelligence Artificielle vise à fournir un cadre de dis-cussions et d’échanges au sein de la communauté universitaire et industrielle. Ainsi, toutes lescontributions, pour peu qu’elles aient un intérêt général pour l’ensemble des lecteurs, sont les bien-venues. En particulier, les annonces, les comptes rendus de conférences, les notes de lecture etles articles de débat sont très recherchés. Le Bulletin de l’AFIA publie également des dossiers plussubstantiels sur différents thèmes liés à l’IA. Le comité de rédaction se réserve le droit de ne paspublier des contributions qu’il jugerait contraire à l’esprit du bulletin ou à sa politique éditoriale.En outre, les articles signés, de même que les contributions aux débats, reflètent le point de vuede leurs auteurs et n’engagent qu’eux-mêmes.

Édito

Nous avons souhaité consacrer ce numéro aux industriels qui utilisent ou font de la recherche etdéveloppement en intelligence artificielle. Avec 500 milliards d’euros d’investissements privés et publicsdans le monde en 2015, le secteur est en plein essort.

Entre la culture du secret et le dépôt de brevet, la valorisation de travaux de recherche académiques,et les transferts de plus en plus fréquents entre privé et public, l’IA dans l’industrie est plus que jamaisun secteur porteur d’avenir pour la jeunesse et pour la France.

Des acteurs industriels majeurs du domaine nous donnent un aperçu des thématiques actuellementopérationnelles ou en cours d’exploration dans leurs établissements, ainsi que leurs objectifs à moyen etlong terme. Les relations entre l’AFIA et le monde de l’industrie à travers le Collège Industriel de l’AFIAse renforcent tous les jours. Nous invitons tous les industriels qui utilisent l’IA à participer au CollègeIndustriel de l’AFIA.

Vous trouverez dans les pages suivantes plusieurs contributions qui mettent en lumière des syner-gies qui apparaissent entre Intelligence artificielle et industrie à différents niveaux : mobilité, énergie,télécommunications, services, informatique...

Bonne lecture à tous !

Olivier AMIRédacteur

2 No 93 Juillet 2016

Page 3: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

SOMMAIREDU BULLETIN DE L’AFIA

4 Dossier « Les Industriels et l’AFIA »Le retour des industriels au sein de l’AFIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5Ardans : Knowledge Consulting and Software Solutions . . . . . . . . . . . . . . . . . . . . . . . 8Areva et l’Intelligence Artificielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Berger-Levrault : Un fournisseur institutionnel et l’IA . . . . . . . . . . . . . . . . . . . . . . . . 12Dassault Aviation : Construction Aéronautique . . . . . . . . . . . . . . . . . . . . . . . . . . . 15IBM et l’Intelligence Artificielle - La France et au delà . . . . . . . . . . . . . . . . . . . . . . . 18Implexe : Cabinet de conseil en Ingénierie des connaissances . . . . . . . . . . . . . . . . . . . . 21Huawei : Technologies de l’information et des télécommunications . . . . . . . . . . . . . . . . . 23Mondeca : Ingénierie de la connaissance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25PlaySharp : l’Intelligence Artificielle au service du sport . . . . . . . . . . . . . . . . . . . . . . . 27Search Foresight : l’Intelligence Artificielle au service du référencement des sites Web . . . . . . . 28Thales et l’intelligence artificielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30L’Intelligence Artificielle chez Veolia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

38 Compte-rendu de journées, événements et conférencesAtelier sur l’Intelligence Artificielle et la Santé . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38Les 12es Journées Francophones de Programmation par Contraintes . . . . . . . . . . . . . . . . 39Les 27es Journées Francophones d’Ingénierie des Connaissances . . . . . . . . . . . . . . . . . . 41Workshop on Ontology, Reasoning, Knowledge and Semantic Web . . . . . . . . . . . . . . . . . 43

46 Prix AFIAPrix IC 2016 - Utilisation d’ontologies pour la quête de vérité : une étude expérimentale . . . . . 46Prix JFPC 2016 (ex-aequo) : Le meta-problème des langages Mal’tsev conservatifs . . . . . . . . 48Prix JFPC 2016 (ex-aequo) : Programmation par contraintes stochastiques pour le General

Game Playing avec informations incomplètes . . . . . . . . . . . . . . . . . . . . . . . . . 51Prix WORKS-web: Utilisation d’ontologies pour la construction et la vérification de cohérence

des cas d’usage détectés par le véhicule autonome . . . . . . . . . . . . . . . . . . . . . . 53

55 Thèses et HDR du trimestreThèses de Doctorat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55Habilitations à Diriger les Recherches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

Juillet 2016 No 93 3

Page 4: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Dossier« Les Industriels et l’AFIA »

Dossier réalisé par

Bruno PATINDirection de la prospective / Systèmes Avions FutursDassault [email protected]

Page 5: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Le retour des industriels au sein de l’AFIADepuis plusieurs années, l’AFIA cherchait à réintégrer en son sein des industriels du domaine de l’IA

ou utilisant l’IA. Le Conseil d’Administration avait intégré depuis deux ans un industriel afin de menercette tâche à travers la création d’une part d’un groupe de travail application et d’autre part la mise enplace d’un Collège spécifique appelé Collège Industriel. Les premiers résultats commencent maintenant àémerger notamment par l’animation d’une journée dédiée, FIIA (pour Forum Industriel de l’IntelligenceArtificielle), la mise en place d’une première feuille de route spécifique de ceux-ci ainsi que des premierséchanges avec le Collège Formation. Le propos de ce dossier est de préciser le contour du CollègeIndustriel, de donner quelques conclusions de la journée FIIA qui préfigurent une première ébauche de lafeuille de route évoquée.

Le Collège Industriel a été créé le 14 avril 2016 lors de la journée FIIA. Sa création a suivi la signatured’un accord spécifique par les présidents des cinq entreprises, membres fondateurs du Collège, ainsique par l’association représentée par son président. Ce texte définit ses objectifs et ses ambitions enplus de mettre en place une règle du jeu. Au sens du Collège Industriel, l’Intelligence Artificielle est unregroupement de techniques, de technologies qui doivent participer à l’ambition de la création d’une IA.Ces techniques et technologies, comme les agents autonomes ou bien la programmation logique, sontissues des domaines thématiques de l’association. Le diamant vintage AFIA fait le tour de ces domaines.

Figure 1.1 – Les domaines thématiques de l’AFIA

Les objectifs du collège sont multiples mais tous destinés à améliorer les relations entre les mondesacadémiques et industriels. La liste suivante en précise quelques-uns. Il s’agit de :

- mettre en contact les Sociétés entre elles et avec les autres collèges : le premier objet est de favoriserl’émergence d’une communauté rassemblant les académiques comme les industriels et intéressée parles problématiques de l’IA. Le but est de permettre de valoriser au plus vite les technologies issuesdu monde de la recherche mais aussi de proposer des défis aux laboratoires proches des besoins desindustriels ;

- permettre aux Sociétés Partenaires de faire connaître leurs besoins en recrutement et permettre à lacommunauté académique de valoriser leurs formations auprès des Sociétés Partenaires : cet objectifest majeur. Les industriels expriment l’absence de formations en IA correspondant à leurs attentes.Cela participera de plus à l’effet de communauté à travers le partage des compétences ;

Juillet 2016 No 93 5

Page 6: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

- permettre des actions de lobbying au niveau français auprès de la Direction Générale des Entreprises,des pôles de compétitivité, de l’Agence Nationale de la Recherche et tout autre organisme et, auniveau Européen, auprès d’organismes comme la Commission Européenne : si le collège s’adosse àl’association, il n’en reste pas moins qu’il est aussi l’opportunité de regrouper des forces plus impor-tantes afin de promouvoir des thématiques ou bien des axes de recherche auprès des autorités. Ceteffort a aussi pour objet de profiter à la communauté académique à travers la coordination qui se meten place au sein du conseil d’administration ;

- créer et maintenir un document de définitions, un dictionnaire, dont l’objet sera de donner un voca-bulaire partagé sur l’Intelligence Artificielle aux Sociétés Partenaires : les premières discussions ayanteu lieu entre les membres industriels montrent à quel point le lexique et son interprétation diffèrent enfonction des interlocuteurs. Le collège, en commençant par définir les domaines thématiques, mettraen place un dictionnaire afin de s’entendre au mieux sur la signification ou les significations des motsclefs que l’on peut utiliser dans la communauté ;

- créer et maintenir une feuille de route de l’activité Intelligence Artificielle, en matière industrielleet de recherche et développement, cohérente avec celles qui existent aussi bien au niveau nationalqu’européen : afin de faire communauté, il est nécessaire de s’entendre sur ses objectifs. La feuille deroute créée ne sera pas unique mais elle présentera le point de vue du collège et donc des industriels quien sont membres sur ce qu’il est nécessaire de franchir comme obstacles liés à l’intelligence artificielle.A terme la version finale de cette feuille sera confrontée au point de vue des académiques ;

- proposer au conseil d’administration de l’AFIA des actions intéressant les membres du Collège Industriel(réalisation d’un état de l’art sur un domaine technologique donné, organiser une conférence sur unthème scientifique via les Collèges Thématiques de l’AFIA, ...) : là encore la volonté de créer unecommunauté s’affiche. Le collège voit cela comme un objectif y participant à travers la réunionde personnes autour de la réalisation d’un évènement ou l’écriture d’un document. Les réunions, lesdiscussions qui ne manqueront pas d’avoir lieu afin de mettre en place ces éléments concrets amènerontdes personnes d’horizons divers à partager et échanger des informations et donc à aller plus loin qu’unesimple action de réseautage.

A partir de la synthèse de la journée FIIA, quelques éléments d’une feuille de route des industrielspour l’IA ont été mis en place. Cette vision demeure partielle et s’étoffera grâce aux travaux du Collège.Le principe de la journée était pour chacun des orateurs de donner une vision de ses besoins futurs enIA. Ces quelques éléments sont fournis sous la forme du tableau suivant dont les numéros de colonne serapportent aux entreprises ayant contribué à la journée.

Domaine de recherche en IA 1 2 3 4 5 6 7 8 9 10 11 12 13 TOTAgents et Systèmes Multi-Agents • • • 3Apprentissage Automatique • • • • • • 6Extraction, Gestion des Connaissances • • • • • • 6Fouille de données • • • • • 5Ingénierie des Connaissances • • • • • 5Interaction avec l’Humain • • • • 4Reconnaissance des Formes, Vision • • • 3Représentation et Raisonnement • • • • • • 6Robotique, Automatique • 1Satisfaisabilité, Contraintes • • • • 4Traitement Automatique des Langues • • • • 4

Quelques tendances se dégagent de cette analyse. Elles traduisent certainement l’origine des contribu-teurs ainsi que l’intérêt actuel autour de l’apprentissage. Au delà de ces deux évidences, une ligne de forcese détache quant à la problématique de l’acquisition, la maintenance et l’utilisation des connaissances.De fait, les progrès très importants sur les technologies des capteurs (voir, par exemple, l’intervention de

6 No 93 Juillet 2016

Page 7: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

THALES), la capacité à stocker ces données et à y accéder de façon efficace permettent aux industrielsla création d’une valeur ajoutée importante. La gestion de la connaissance, au sens large, demande aussibien des outils permettant l’utilisation des connaissances acquises que des outils permettant de les réviseren utilisant les nouvelles expériences réalisées ou bien les nouvelles données récoltées. A titre d’exemple,Dassault Aviation a évoqué la problématique des avions sans pilotes et de la capacité à enregistrer lesdonnées de missions, les interactions avec les opérateurs etc afin d’optimiser les éléments décisionnelsdes missions à venir. En deuxième rang, on peut extraire les besoins sous jacents tirées par le pointprécédent. La capacité à interagir avec des opérateurs, les méthodes de résolution logique et la fouillede données peuvent être considérées comme des servitudes. Enfin on retrouve des préoccupations plusspécifiques de quelques uns des industriels. On verra par exemple les problématiques de robotique etd’automatique promus par Dassault Aviation dont les travaux sur les plateformes sans pilotes à bordsont bien connus ou bien les problématiques de reconnaissance de forme qui intéressent surtout les deuxindustriels du collège utilisant ou réalisant des capteurs. Quoi qu’il en soit, on peut voir que la feuille deroute doit s’orienter résolument vers les problématiques de rang 1. Lors des travaux à suivre du CollègeIndustriel il sera nécessaire de réfléchir à l’approfondissement de ces premières conclusions pour arriverà promouvoir ces axes auprès de la communauté académique de l’association mais aussi des autorités àmême de financer les travaux nécessaires.

Cette première approche, comme observé au-dessus, souffre d’un nombre insuffisant de contributeurset afin de mettre en place les actions nécessaires le Collège Industriel a besoin de membres au delà dupremier cercle de ses membres fondateurs et des contributeurs à la journée FIIA. Nous vous engageons, entant qu’industriel, à adhérer et, si votre laboratoire connaissait des industriels potentiellement intéressés,à leur diffuser cette information.

Les sections qui suivent présentent des textes associés aux interventions des différents industrielsayant participé à la journée FIIA. Chaque industriel a mis en avant ses objectifs spécifiques, son usageactuel de l’IA et ses ambitions dans son usage futur de l’IA. Pour chaque société, on trouvera le nom del’intervenant ainsi qu’une adresse permettant de le contacter.

Les sociétés ayant contribué couvrent des thématiques extrêmement diverses. De même, ces sociétéssont de taille et de nature totalement différentes. Cela prouve la pénétration dans le monde industrieldes technologies associées à ce que l’on appelle l’intelligence artificielle au delà, largement, des effets demode. Cela renforce le besoin de collaboration entre les communautés et donc l’intérêt du club dans saformulation actuelle.

Le tableau suivant les présente par le domaine qu’ils adressent et le nombre d’employés en France.L’identificateur qui y apparaît est relatif à l’entrée du tableau précédent.

Nom id. Domaine TailleAIRBUS D&S 1 Aéronautique et Espace du secteur défense 3000ARDANS 2 Ingénierie des connaissances 10AREVA NP 3 Entreprise du nucléaire 2000BERGER-LEVRAULT 4 Editeur de logiciel pour les administrations 800DASSAULT AVIATION 5 Aéronautique et Espace 8000HUAWEI 6 Equipements Télécoms 500IBM 7 Services et technologies du numérique 7300IMPLEXE 8 Bureau d’étude et de conseil en informatique 1MONDECA 9 Inénierie des connaissances 20PLAYSHARP 10 Editeur de logiciel et société de service informatique 10SEARCH FORESIGHT 11 Agence de conseil en stratégies Search Marketing 60THALES 12 Equipementier de l’électronique 30000VEOLIA 13 Services aux collectivités 50000

Juillet 2016 No 93 7

Page 8: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Ardans : Knowledge Consulting and Software Solutions

ArdansKnowledge Consulting and Software Solutions

http://www.ardans.fr

Alain [email protected]

La société Ardans

Ardans est une société française indépendante,aujourd’hui basée à Paris-Saclay (Montigny-le-Bretonneux) qui a été créée en décembre 1999 parJean VIALLARD, Jean-Pierre COTTON et AlainBERGER, ces deux derniers fondateurs ayant pris ladirection de l’entreprise fin 2004. La société a déve-loppé son expertise en ingénierie de la connaissance.Elle a outillé sa méthode Ardans make R© (ManagingAssets of Knowledge and Engineering) avec le lo-giciel Ardans Knowledge Maker R©. La volonté d’Ar-dans est de créer des systèmes d’information et deconnaissance (SIC) pour ses clients afin d’enrichirles environnements mis à disposition des utilisateurspar de l’expertise métier. En 2015, la société a réa-lisé une exploitation de 1,345 Me, a investi 32% deson chiffre d’affaire en R&D et regroupe aujourd’hui14 collaborateurs. Ardans est membre fondateur duCollège industriel de l’AFIA.

L’ingénierie de la connaissance

Ardans pratique ce métier de l’ingénierie de laconnaissance où in fine la technique n’est là quepour révéler l’humain et l’aider à accoucher, à for-maliser ce qu’il porte implicitement ou inconsciem-ment dans sa pratique. Ardans pratique l’ingénieriede la connaissance principalement dans les classesde situations organisationnelles suivantes : une ex-pertise individuelle, une expertise d’un service oudes services d’un département d’une entreprise, uneexpertise distribuée dans un réseau d’entités qui ap-partiennent à différentes organisations.

On définit [3, 2] par ingénierie de la connais-sance (IC), ce métier de l’Intelligence Artificiellequi est né avec la technologie des systèmes expertsdans les années 1970, lors de la rédaction des règleset des premières bases de connaissances « déclara-tives ». Cette discipline aujourd’hui couvre tout uncycle depuis l’émergence d’un élément de connais-sance, sa détection, sa structuration, son mûrisse-ment en termes de contenu, son expression (via unedéfinition claire, non ambiguë, la rédaction étantappuyée par des illustrations si nécessaire), son ap-plicabilité (en termes de domaine d’usage, de droità en connaître en terme de publication ou de d’ha-bilitation, de durée de vie ou de péremption), etbien sûr de validation (appréciation d’expert, jus-tification, degré de preuve). Toutes les étapes decette maturation sont liées à une interaction, unediscussion à la fois libre et orientée entre l’« expert »et l’« ingénieur de la connaissance ». Par le fruit del’écoute, de la reformulation, la parole de l’expert sedéclinera à des fins d’illustration, de justification, derelation, en formule, en texte, en schéma, en renvoivers une note, un document, un résultat...

La technologie Ardans KnowledgeMaker R©

Cette technologie Ardans Knowledge Maker ex-ploitée dès sa version β en 2003, a été commercia-lisée en 2004 pour être homologuée par PSA Peu-

8 No 93 Juillet 2016

Page 9: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

geot Citroën en 2005. Depuis, ArcelorMittal, eDF,Air Liquide, CEA, Airbus, ANDRA, Société Géné-rale, Klinger, Michelin, IPSEN, Transdev comptentparmi les références. La caractéristique de la tech-nologie est une forte capacité de modélisation etla souplesse dans la gestion de l’évolution. En ef-fet, un point intéressant dans la méthode Ardansmake R©, c’est de disposer de la liberté de retoucherdes structures dans le temps, sans perdre les conte-nus déjà modélisés avec elles auparavant. Cette dy-namique liée à la découverte d’un domaine et auxinterrogations liées à la modélisation avait déjà étéidentifiée dans l’élaboration des systèmes à basede connaissance par Michel GRUNDSTEIN lorsqu’ilévoquait « l’effort de coopération pour construireen commun un objet inconnu » [5]. La méthodeconfère une grande souplesse dans la modélisation,dans l’agrégation des modèles (les objets ou lesconcepts à partir desquels on génère les élémentsmanipulés), dans les liens entre les éléments pro-duits, dans la construction des ontologies, des hié-rarchies de classification, dans la représentation desgroupes de l’organisation (par projet, par structurehiérarchique, par qualité, par droit). Et l’outil asso-cié se sert de tous ces concepts comme des vec-teurs combinables pour réaliser des requêtes de re-cherche : depuis un élément de contenu, jusqu’à unesavante combinaison prédéfinie enrichie par d’autresfiltres complémentaires déterminés « à la volée ».La méthode prévoit donc de prendre en compte desdimensions chronologiques, de suivi de cycle de va-lidation, de gestion de version, de publication sur unélément. Elle prévoit aussi de définir des contextesqui sont une combinaison de concepts pertinentspour une situation métier. C’est là que l’on trouvetoute l’amplitude du métier de l’ingénierie de laconnaissance : depuis la construction d’une archi-tecture capable de contenir et valoriser une exper-tise à expliciter, jusqu’à l’élaboration d’un dispositifsusceptible de transmettre sans ambigüité ce savoirà un utilisateur en attente de réponse, rapidementet pertinemment au travers d’une ergonomie intui-tive et conviviale. Pour comprendre la souplesse deArdans Knowledge Maker R© (AKM), nous reprenonsle schéma « Ardans » déjà bien connu [6, 4, 1].

Vers les Systèmes d’Information etde Connaissance

Nous renverrons le lecteur vers le chapitre 4 del’article « Les outils et méthodes de KM exploi-tés au profit d’applications informatiques : un pasvers la fertilisation croisée information & connais-sance ? » soutenu lors d’AIM2016 à Lille. Le papierillustre les applications de fertilisation croisée entresystème d’information et base de connaissance, ceque nous considérons être les dernières évolutionsles plus flagrantes de ces systèmes d’informationet de connaissance. Il s’agit de répondre à une si-tuation d’usage complexe ou riche. La méthode detravail fait un focus sur la gouvernance et la viedu dispositif. Comment va être produit l’élémentd’information ou de connaissance, comment va-t-ils’enrichir, comment va-t-il être exploité, commentva-t-il être administré, jusqu’à sa période de miseen retrait (archivage, mise en sommeil) ?

Juillet 2016 No 93 9

Page 10: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Ardans, l’IA et ses travaux de re-cherche

Ardans est un industriel qui a élaboré une tech-nologie qui met en œuvre une méthode de l’ingé-nierie des connaissances. La technologie commer-cialisée début 2016 est la v3.2 d’Ardans KnowledgeMaker et Ardans prépare sa version 4. Les tra-vaux d’Ardans sont aujourd’hui tant dans la cap-ture de nouveaux concepts (par exemple dans lecadre du projet ANR ETHICAA sur l’éthique dessystèmes multi-agents autonomes) que de la visua-lisation d’une base de connaissance (KB-Scope )pour une meilleure maîtrise qualitative et quanti-tative. Toujours sur les aspects méthodologiques,Ardans travaille sur les aspects de « criticité deconnaissance » dans une organisation comme sur lagouvernance pour une meilleure collaboration dansl’élaboration d’une mémoire collective vivante. Surles aspects techniques, les questions relatives à l’in-teropérabilité des systèmes comptent parmi les prio-rités.

Références

[1] A. Berger. Évolution dans l’industrie du mé-tier d’ingénieur cogniticien ou d’ingénieur de laconnaissance entre 1985 et 2015. In Plate-

forme Intelligence Artificielle, - 1ère conférencesur les Application Pratiques de l’IntelligenceArtificielle (APIA), Rennes, 2015.

[2] Alain Berger. Expertise’s capture in knowledgeengineering : elements of return of experienceof ardans. In EIRMA : SIG KM, 2014.

[3] Alain Berger and Jean-Pierre Cotton.Construire une mémoire collective de l’entre-prise : la gestion des connaissances. BulletinAFIA, (72) :70–73, 2011.

[4] V. Besson and A. Berger. To initiate a corpo-rate memory with a knowledge compendium :ten years of learning from experience with theardans method. revue des nouvelles technolo-gies de l’information. Extraction et Gestiondes Connaissances, RNTI-E-28, pages 401–412, 2015.

[5] Michel Grundstein et al. Développer un systèmeà base de connaissances : un effort de coopé-ration pour construire en commun un objet in-connu. In Actes de la journée Innovation pour letravail en groupe, Cercle pour les Projets Inno-vants en Informatique (CP2I), November 1994.

[6] Pierre Mariot, Christine Golbreich, Jean-PierreCotton, François Vexler, and Alain Berger. Mé-thode, modèle et outil ardans de capitalisationdes connaissances.

Areva et l’Intelligence Artificielle

Areva NPEntreprise du nucléairehttp://www.areva.com

Jean-Bernard THÉ[email protected]

Groupe Areva

Areva est Groupe Industriel Français dont l’étatpossède 86,52% du capital. L’activité d’Arevaconcerne le cycle de vie du combustible nucléaire, laconception et fabrication de composants nucléairespour les réacteurs commerciaux, de recherche oude propulsion navale. Le cycle de vie du combus-tible concerne l’extraction du minerai d’uranium,la conversion du minerai dans une forme chimique

facilitant son enrichissement afin de produire desassemblages combustibles conformes aux spécifica-tions des exploitants de centrale nucléaire en Franceet dans le Monde. A la fin du cycle d’exploita-tion en centrale, les assemblages usés sont retraitéspour extraire l’uranium et le plutonium alimentantun nouveau cycle de combustible. Pour l’ensemblede cette activité, la logistique (transport) de ma-tière nucléaire est également assurée par Areva.

10 No 93 Juillet 2016

Page 11: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Certaines usines du CEA ou d’Areva qui ont étémises en service dans les années 60 sont inscritesdans un processus de démantèlement. Cette acti-vité fait partie des nouveaux métiers d’Areva et sedéveloppe en France et à l’Etranger. Pour ces activi-tés, Areva dispose d’usines réparties sur l’ensembledu territoire. Areva dispose, pour son activité Ré-acteur et Services d’installation industrielles lourdes(forge, usinage, montage de gros composants mé-talliques) et d’installation de développement d’ou-tillage et de robots spécifiques. La branche Ser-vices (Maintenance) met en œuvre ces outils et,plus généralement, propose des services de main-tenance aux Exploitants du monde entier. Au totalc’est avec 10 centres techniques en France en Al-lemagne qu’Areva qui contribuent à la recherche etau développement des technologies nucléaires dansde nombreux métiers. En 2015, Areva comprend39 761 collaborateurs, pour un chiffre d’affaire de4 199 Me.

Areva et l’Intelligence Articielle au-jourd’hui

La branche Réacteur et Service appelée Frama-tome « historiquement » s’est intéressée à l’IA dansles années 80 avec la création de Framentec. Dessystèmes experts ont été produits par exemple pouraider l’opérateur à piloter la montée en puissance duréacteur dans le cadre d’un démarrage à froid, pourinterpréter des courbes de Lissajou, pour fournir uneaide à la maintenance préventive. A cette époquede grand programme Européen (ESPRIT) ont sus-cité des travaux sur les systèmes multi-agents, lessystèmes de raisonnement procéduraux ou de dé-duction à base d’hypothèses (ATMS) pour des ap-plications de robotique et de traitement d’images.De son côté, la branche cycle du combustible appe-lée Cogema « historiquement » exploite ses usines etgénère beaucoup de données. L’usine de La Hagueétait réputée être un des plus gros générateurs dedonnées industrielles européens dans les années 90.Les besoins de traitement massifs sont apparus as-sez vite ainsi que le besoin de fournir une aide àla conduite et au pilotage proposant une vue desynthétique de l’usine pour les chefs de quart. Ce-pendant les premiers « vrais » systèmes experts ont

été mis en place par les Autorités Européennes eten particulier par les Inspecteurs Euratom sur le sitede La Hague à la fin des années 90. Le traitementmassif des données industrielles a connu une ac-célération dans les années 2000-2005 notammentavec des produits innovants permettant la décou-verte de règles dans des grands volumes de données,ce qui, combinée avec la popularisation des ontolo-gies et du web sémantique par la suite a permisd’alimenter des termes à l’aide de règles apprises etde confronter l’expertise dans une optique de réso-lution de problème. Le projet AKSIOM a permis cerapprochement entre ce que « disent » les donnéesdu site et ce qu’expliquent ou prévoient les experts.Les situations d’écart entre ces deux points de vueont permis d’améliorer la connaissance de l’instal-lation et de modifier la politique de maintenancepréventive. C’est dans ce contexte qu’une thèse aété réalisée dans le domaine de l’apprentissage parordinateur. Plus récemment une tentative très em-bryonnaire de mise à disposition de connaissancesexpertes non explicites et non documentées a étéréalisée au travers d’interfaces embarquée (lunetteou tablette). L’idée est bien de conférer à un nouvelentrant des « performances augmentées » par l’ac-cès à des connaissances expertes. L’enjeu est ici deréaliser la fonction dans un contexte d’interventionparticulièrement difficile et nécessitant l’emploi dedifférents équipements de protection individuelle si-multanément. Enfin, Areva utilise des produits ducommerce dans des applications spécifiques cibléeset ne motivant pas de programme de R&D au ni-veau du Corporate (application sur le diagnosticpompe, analyse vibratoire, outillage etc.). L’intel-ligence artificielle est également utilisée pour desapplications d’e-learning (serious game).

Et demain

Les systèmes cyber-physiques vont permettred’élaborer des mises à jour temps réel de modèlesde tout un procédé (prise en compte du vieillisse-ment, de l’encrassement, prédiction de défaillancesur signaux faibles ou corrélation, compensation surperte de marge technique etc.) pour un pilotage op-timal de l’outil de production dans le respect de laréglementation. L’intelligence embarquée sur l’opé-rateur permettra d’harmoniser la qualité des gestes

Juillet 2016 No 93 11

Page 12: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

techniques indépendamment de l’expérience de l’in-tervenant et d’être sans doute plus efficace (lever dedoute, détrompeur numérique etc.) Le traitementavancé de signaux 1D ou 2D permettra de détec-ter des signaux faibles précurseurs, de compenserdes mesures réalisées avec des capteurs d’entrée degamme ou des mesures très fortement bruitées etjusqu’alors inexploitables (voix, vidéo, données). Lacapitalisation ou la transmission de connaissancespar l’expérience virtuelle est aussi d’un fort intérêtsurtout lorsqu’on ne peut plus aller physiquementdans certaines parties de l’installation à cause de

sa mise en actif, ou dans le cadre de situation decrise. Le traitement de données massives humaine-ment impossible reste un sujet aussi important carla multiplication des applications IoT va produireplus de données et il faudra bien expliquer ce quel’on va détecter et devoir l’interpréter correctement.L’analyse statistique et le traitement combinatoireefficace de masses croissantes de données structu-rées ou pas devrait nécessiter le recours à l’IA, cequi s’inscrit complétement dans le schéma de l’Al-liance pour l’Industrie du Futur.

Berger-Levrault : Un fournisseur institutionnel et l’IA

Berger-LevraultFournisseur des logiciels pour les administrations)

http://www.berger-levrault.com/

Célia [email protected]

A propos de Berger-Levrault

ETI 1 pluri-centenaire, le Groupe Berger-Levrault est un éditeur de progiciels et de contenuréglementaire (papier et numérique), prestataire deservices, fournisseur de matériel informatique et hé-bergeur de données. Ses différents métiers en fontun acteur unique du marché qui accompagne les col-lectivités locales et territoriales, les établissementsd’éducation, le monde public et privé de la santé etdu médico-social. Berger-Levrault est le 10e éditeurde logiciels français et exporte depuis quelques an-nées son savoir-faire dans le monde, notamment enEurope, en Afrique du Nord et au Canada. Il compte1 400 collaborateurs et 50 000 clients. Grâce à saculture de créateur, Berger-Levrault invente des so-lutions innovantes et performantes et propose uneoffre globale composée de progiciels, ouvrages spé-cialisés, documents et formulaires réglementaires,bases de connaissances métiers, matériels et ré-seaux informatiques, services d’accompagnement etde formation, conseil... Cette offre adaptée aux per-sonnels administratifs et de soin, leur donne ainsiles moyens de se concentrer sur leur cœur de mé-tier. La complétude des solutions Berger-Levrault

accompagne les hommes et les femmes dans tousles temps forts de la vie citoyenne (état civil, santé,enseignement, social, entreprise, justice, élections,etc.). À l’heure de l’ouverture massive des don-nées publiques, Berger-Levrault est un acteur en-gagé de la ville et des territoires numériques pourdes usages plus efficaces et respectueux de l’hu-main. Dès 2011, BL a positionné les partenariats derecherche comme un élément stratégique de son dé-veloppement et de l’animation de l’innovation. Au-jourd’hui, une quinzaine de collaborations universi-taires sont en cours dont plusieurs portent sur desthématiques d’intelligence artificielle. Pour en sa-voir plus : www.berger-levrault.com/presentation-groupe/index.html

Berger-Levrault et l’IA

Berger-Levrault utilise l’intelligence artificielledans plusieurs projets de recherche. Deux lamettent particulièrement au cœur de leur problé-matique. Ces projets à long terme présentent à lafois les besoins actuels mais surtout les perspectivesd’utilisation de l’IA chez Berger-Levrault. D’autresprojets qui débutent feront également appel à l’IA,

1. Entreprise de taille intermédiaire (entreprise ayant entre 250 et 4999 salariés)

12 No 93 Juillet 2016

Page 13: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

en particulier pour des problématiques d’optimisa-tion de tournées ou de parcours patient, nous ne lesmentionnerons pas plus ici.

Détection d’objets urbains

L’image photographique aérienne est désormaisun référentiel incontournable. Véritable repère vi-suel du territoire, elle ne nécessite pas de connais-sance des conventions cartographiques et est trèsutilisée, notamment par les collectivités locales ouEPCI 2 en superposition de « couches » graphiquesmétier. Elle permet de mettre en corrélation « uneréalité visuelle » du territoire avec toute autre don-née thématique, collectée par ailleurs. La détectiond’objets urbains (tombes, bouches d’égout, . . .) àpartir d’images photographiques présente donc unintérêt réel dans de nombreux domaines. Par ailleursla modélisation et l’intégration de données multi-sources est devenue une obligation pour faire faceà la complexité imposée par la gestion du dévelop-pement urbain et le transfert de compétences crois-sant de l’état vers les collectivités locales. Ce der-nier point pousse en avant de nouveaux modèles degouvernances soutenus par les réformes territorialessuccessives.

La nécessité de disposer de nouveaux outils degestions plus complexes et multimodaux s’imposedonc et permettra de proposer des solutions inno-vantes pour par exemple aider à la localisation desréseaux, optimiser les réseaux d’éclairage publics,effectuer des diagnostics de la voirie et de la signa-lisation, fournir une aide en matière d’urbanisme,aider à la gestion des espaces verts et du couvertvégétal en général.

le projet de recherche illustré par le résultat dela figure suivante est le premier qui a été mis enplace par Berger-Levrault.

Le premier défi consistait à détecter des tombesdans des images aériennes de très haute qualitédans le but de pouvoir effectuer une cartographieautomatique des cimetières. Afin de travailler surce problème, une collaboration a été établie avecl’équipe ICAR du LIRMM, spécialisée en particulierdans le traitement d’image. Même si le problèmepeut sembler trivial au premier abord, la définitionde ce qu’est une tombe (taille, forme, texture, ma-tière, orientation, etc.), les problèmes liés à la prisede vue (ombres portées) ainsi qu’à la délimitationentre les différents éléments en ont fait un sujetdéjà difficile à traiter. Il a ensuite été étendu auxobjets urbains en général (plaques d’égout, arrêtsde bus, bancs publics, etc.) et fait l’objet d’unethèse CIFRE qui doit être soutenue dans les moisqui viennent. Dans ces travaux les techniques clas-siques d’analyse d’image ne donnent pas de résul-tats satisfaisants et des techniques à base de ré-seaux de SVM (Support Vector Machine) ont dûêtre mises en place.

Actuellement, nous nous intéressons en parti-culier à la détection d’arbres afin d’aider à la ges-tion du patrimoine arboré urbain dans le cadre d’unethèse CIFRE qui a débuté en octobre 2015. Danscette thèse, des techniques de réseaux de neuronessont utilisées afin d’optimiser l’efficacité de l’algo-rithme en limitant les faux positifs ou les oublis.

Testabilité, traçabilité et machines intelli-gentes

Comme toutes les entreprises qui développentet maintiennent des logiciels de grande taille, avec

2. Établissement public de coopération intercommunale

Juillet 2016 No 93 13

Page 14: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

un fort engagement envers les utilisateurs finaux,Berger-Levrault souhaite améliorer son niveau dequalité sur plusieurs aspects :

- Les temps de prise en main des applications parles utilisateurs finaux doivent être réduits et lacapitalisation de leurs expériences doit être ren-due possible. Les activités des utilisateurs varientet peuvent ne pas être complètement en phaseavec les processus métiers définis dans les logi-ciels, pénalisant généralement la production desutilisateurs,

- L’assistance aux utilisateurs par les services sup-port doit être optimisée. Actuellement ces ser-vices ont du mal à connaître avec précision lamanière dont les utilisateurs finaux utilisent lesapplications, ce qui réduit leur capacité d’aide,

- Les concepteurs définissent des scénarios métier,qui orientent les architectes et les développeurs,mais il n’y a pas de garantie que les utilisateursfinaux suivent ces scénarios, aboutissant à unerelative divergence entre l’usage prévu et l’usageréel des logiciels,

- La détection des erreurs, leur correction et l’évo-lution des logiciels sont des activités coûteusesdu fait des divergences précédemment citées.Une conséquence est que les stratégies de testsne correspondent pas précisément aux scénariosni aux contextes réels d’utilisation et ne garan-tissent pas de manière optimale la qualité.

Nous proposons d’aborder ces questions parl’observation de l’activité conjointe des utilisateurset du logiciel et l’exploitation des résultats obtenus.L’observation repose généralement sur l’utilisationde techniques de traçage afin de collecter et fournirdes informations sur l’application sous la forme detraces d’exécution. Les traces sont des ensemblesde connaissances pouvant évoluer dynamiquementdans le temps et disposant de modèles explicitesde représentation. La trace réifie l’observation pas-sée ou en cours des interactions homme-machineet de la dynamique interne du système logiciel. Ellepeut être exploitée soit de manière ad-hoc au mo-ment même de sa production ou de manière post-hoc après l’activité observée. Cette observation (latrace d’activités) pose explicitement plusieurs défisallant de sa représentation de manière normaliséeet intelligible à son exploitation, en particulier en

mode continu et incrémental dès la phase de col-lecte. Dans ce contexte, Berger-Levrault souhaitedévelopper une approche scientifique et outillée per-mettant l’observation à base de traces et la contri-bution à l’amélioration qualitative de ses systèmeslogiciels grâce à la connaissance construite à partirde ces traces. Nous ne perdons pas de vu nos objec-tifs initiaux qui consistaient à construire « une com-munauté » d’applications dotée d’une forme d’intel-ligence intrinsèque qui aurait une évolution propremise au service de l’amélioration continue de la qua-lité intrinsèque des produits utilisés par nos clients.Toutefois, les premiers travaux nous ont démon-tré la nécessité de mettre au point les solutions debase ciblant des usages concrets à destination desclients de Berger-Levrault. La palette des applica-tions possibles d’une approche scientifique et ou-tillée sur les traces au sein de Berger-Levrault esttrès large. Elle permettra aussi bien de prendre encompte des problématiques de test, de validationou de diagnostic des logiciels que de mise au pointd’assistants « semi-intelligents » capables d’assisternos utilisateurs et formateurs dans une démarchese rapprochant des pratiques de l’EIAH (Environne-ments Informatiques pour l’Apprentissage Humain).Nous considèrerons les domaines de mise en œuvresuivants :

- Axé utilisateurs : l’observation à base de tracepermet à un utilisateur (apprenant) d’analy-ser son propre parcours dans le processus deconstruction de ses connaissances et ainsi deprendre conscience de son activité. Cette ap-proche réflexive permet de comprendre la ma-nière dont la compétence a été acquise et ainside repérer les lacunes et les éléments qui néces-sitent le plus d’attention, voire un effort d’ap-prentissage supplémentaire. De plus la visualisa-tion de sa propre trace et de son propre parcours,indiquant ses performances, permet de mieux sepositionner par rapport aux autres (notion debenchmark). Un utilisateur peut également ap-prendre à partir des parcours d’utilisateurs plusexperts.

- Axé diagnostique et support : nous cherchonsà établir des environnements qui s’efforcent deplus en plus de reproduire les conditions d’utili-sation « in situ » permettant de comprendre et

14 No 93 Juillet 2016

Page 15: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

de suivre le déroulement de l’activité profession-nelle « réelle » de nos clients. L’objectif consisteà disposer d’un niveau d’assistance capable deréagir aux différentes situations qui peuvent seprésenter. De nombreux travaux mettent en évi-dence l’absence considérable de compréhension(de conscientisation) des modalités d’exploita-tion de nos solutions car nous obtenons géné-ralement très peu d’informations sur le déroule-ment concret d’une session de travail. Lorsqu’ilexiste des traces même minimes, les personnelsen charge des interventions ont beaucoup de dif-ficultés à percevoir la trame même de l’activitéréalisée lors de l’analyse manuelle.

- Axé concepteurs et développeurs : les utilisateurssont confrontés à l’usage d’un logiciel conçu àpartir d’un travail important de « scénarisation »,par élaboration d’un ensemble de cas d’usagesde ses fonctionnalités intrinsèques. Celles-ci sonttranscrites par l’emploi d’un ou plusieurs lan-gages structurés de programmation dans un acte« réformant ». Ces cas d’usages permettent auxconcepteurs de définir des parcours métiers pour

les utilisateurs par rapport à des objectifs trèsconcrets (respect de la règlementation, véracitéd’un calcul, qualité de reproduction). L’exploi-tation des traces permet donc d’observer et desuivre l’état d’avancement des processus mé-tiers, de les analyser a priori et a posterioripour les remettre éventuellement en question.Cela s’inscrit dans une démarche d’améliorationcontinue de la qualité des scénarios et/ou duprocessus de développement lui-même (orientéréingénierie des processus). La compréhensiondes usages réels doit permettre de construire desstratégies de tests plus efficaces et plus intelli-gentes, qui se rapprochent de la réalité terrainet assureront la livraison de versions de logicielsencore plus fiables et plus robustes.

Plusieurs collaborations de recherche ont étémises en place autour de ce projet : avec l’équipeSMAC de l’IRIT avec qui une thèse CIFRE esten cours, avec les équipes ADVANSE, MAREL etTEXTE du LIRMM avec lesquelles une autre thèseCIFRE est en cours de préparation.

Dassault Aviation : Construction Aéronautique

Dassault AviationConstruction Aéronautique

http://www.dassault-aviation.com

Stéphane [email protected]

Présentation de Dassault Aviation

Dassault Aviation est une entreprise deconstruction aéronautique qui produit d’une partdes avions civils de type avions d’affaire, la ligneFALCON, et, d’autre part, des avions militaires,aujourd’hui principalement le RAFALE. La sociétéDassault Aviation s’implique maintenant fortementdans la définition, l’étude et la réalisation d’avionssans pilotes à bord avec le démonstrateur nEU-ROn, réalisé en collaboration avec de nombreuxpays européens dont la Suède, la participation auprogramme Franco-Anglais de définition du futurFCAS et la participation au programme de MALEEuropéen en collaboration notamment avec l’Alle-

magne et l’Italie.L’introduction de cette dernière composante et

la disponibilité de nouvelles techhnologies logicielleset matérielles remettent en question la façon pourl’humain d’interagir avec ces systèmes.

Évolution de l’Interaction Homme-Système dans les systèmes aériens

L’interaction Homme-Machine des systèmes aé-riens d’aujourd’hui est basée sur une philosophie as-sez commune mettant en jeu les invariants d’inter-actions suivants :

- « glass-cockpit » avec présentation d’informa-

Juillet 2016 No 93 15

Page 16: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

tions brutes ou synthétisées- Commandes et paramétrages de l’équipage versle système

- Tête Haute portée par l’avion, informations depilotage, réalité augmentée

- ...

Cette philosophie introduite fin des années 80pour le Rafale (et fin des années 90 pour le Falcon)s’est avérée adaptée jusqu’à ce jour. Cependant, lecontexte opérationnel devient de plus en plus com-plexe (besoins plus importants de coopération et co-ordination, acteurs de plus en plus connectés, fluxd’informations temps réel, processus décisionnel in-troduisant de la complexité). Il se double d’une aug-mentation de la complexité des systèmes. Ceux-cisont désormais fortement interconnectés, numéri-sés et génèrent un flot d’informations important(en opérationnel et pour la maintenance). Le dé-veloppement des drones (de combat en particulier)génère de nouvelles problématiques dans la RelationHomme-Système. Par exemple, la forte autonomiede certaines fonctions complexifie la perception dela situation et la « reprise en main » par l’Humainen cas d’événements imprévus. Par ailleurs, l’évolu-tion des technologies logicielles que ce soit autourde l’Intelligence Artificielle, des puissances de cal-cul ou bien des capteurs permettent d’imaginer desréponses adaptées aux problématiques posées. En-fin, le rôle de l’Homme face aux systèmes du futurévolue lui aussi, de celui de pilote à celui de « su-perviseur » de la mission, qu’il soit ou pas à bord del’avion.

Tout ceci conduit à penser qu’à un horizon au-delà de 2030, les principes de la Relation Homme-Système dans les systèmes aériens civils comme mi-litaires auront fortement évolué. L’évolution s’arti-

culera autour de cockpits (ou station sol de drones)plus « adaptatifs » (par rapport à la situation del’équipage, de la machine et de la situation tac-tique), plus collaboratif en prenant à sa charge destâches autrefois dévolue à l’Humain et plus intelli-gent en comprenant les intentions de l’Humain touten l’aidant à prendre des décisions. Les nouvellesfonctionnalités sont synthétisées dans la figure sui-vante.

Évolution de l’Interaction Homme-Système dans les systèmes aériens

Le rôle d’un avionneur est entre autre de conce-voir un système intégré et cohérent de RelationHomme-Système répondant aux contraintes :

- De sécurité et de conformité à la réglementation(en particulier sur les Facteurs Humains)

- D’efficience dans la réalisation des missions (er-gonomie physique et cognitive)

- De confort (physique et intellectuel)

Comme représenté plus haut, les « fonctions »nouvelles de la RHS peuvent être décrites sans quecela soit figé et exhaustif selon les six axes suivants :

16 No 93 Juillet 2016

Page 17: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Crew Monitoring System

L’amélioration de la boucle Homme-Machinepasse par une meilleure compréhension des « états »de l’équipage au sens large. Une première familled’états correspond à des états physiologiques (éva-nouissement, incapacitation, endormissement, fa-tigue), une seconde à des états mentaux (charge detravail, stress). Enfin, l’analyse du comportementde l’équipage constituera un paramètre supplémen-taire dans l’analyse de la situation de l’équipage auregard de la mission.

Dialogue Multimodal Naturel

Le dialogue multimodal naturel s’inscrit commeune partie de la réponse dans la quête toujours pré-sente chez les avionneurs de l’élimination de l’er-reur ou de l’incompréhension entre l’Homme et laMachine. Ceci comprend une manière de dialoguerplus proche du dialogue Homme-Homme : inter-faces tangibles (tactile par exemple), commandevocale / langage naturel, analyse du regard, . . .

Conscience de la situation

Bien comprendre une situation (de la machine,de l’environnement et de la mission, de l’équipage,. . . ) implique des modes de représentation assimi-lables facilement et rapidement par l’équipage. Lelaboratoire de neuro-ergonomie de l’ISAE (InstitutSupérieur de l’Air et de l’Espace) à Toulouse étu-die par exemple l’effet des neurones miroirs pourmimer une situation présentée aux pilotes. L’utili-sation du 3D ou d’équipements immersifs peut éga-lement avoir un intérêt.

« Crew Companion » et stratégie de ré-ponse système

Même si elle ne représente pas une interface pro-prement dite au sens des modalités d’interaction,l’assistance à l’équipage au sens de l’aide à la dé-cision est une fonction importante dans le futur dela Relation Homme-Système. Cet assistant person-nel dans un avion, que l’on peut qualifier de « CrewCompanion » doit pouvoir aider un pilote dans ceschoix et décisions et lui proposer des paramétrages

et reconfiguration système. En particulier, la ges-tion de la mission par la machine aura dans le futurplus d’autonomie qu’aujourd’hui et proposera deséléments d’aide à la décision.

Collaboration Homme-Système et Homme-Homme

Enfin, comme toute collaboration entre agents,il faut pouvoir gérer une répartition des tâches.Cette répartition s’établit au regard des compé-tences de chacun, des tâches à réaliser dans la mis-sion à un instant donné et des capacités des agentsà cet instant donné. Pour cela, il est nécessaire degérer la répartition des tâches et la façon de biense rendre compte des répartitions et des résultats.

Pour conclure, cet ensemble de fonctionnalitésbien intégrées doit pouvoir contribuer à rendre lecockpit plus flexible pour s’adapter aux différentessituations et plus intelligent pour comprendre cessituations et proposer des solutions aux équipages.

Apport de l’Intelligence Artificielle

La réalisation des fonctions listées plus hauts’appuiera bien entendu sur un ensemble de tech-nologies multiformes. Elle implique à la fois le dé-veloppement d’équipements physiques comme dulogiciel. Compte-tenu de la problématique, il noussemble que les techniques du domaine de l’Intelli-gence Artificielle auront un apport dans la réalisa-tion des futurs cockpits.

Nous pouvons citer quelques exemples de tech-niques à mettre en oeuvre :

Machine Learning Que ce soit dans le cas duCrew Monitoring (où l’on pourrait « apprendre »les états équipage par l’expérience) ou dans

Juillet 2016 No 93 17

Page 18: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

l’aide à certaines décisions, le machine learningest un domaine à explorer d’une part dans leschoix théoriques (quels modèles ? quels volumesde données ?) d’autre part dans sa mise en œuvre(embarquabilité ? calculateurs spécifiques ? fiabi-lité ? Validation des fonctions ?...). Il parait dif-ficile d’imaginer pouvoir « coder un comporte-ment machine » de façon procédurale et figéeface à une grande variété de situations, d’usageset de populations. Il parait opportun de s’ap-procher du comportement d’un Humain qui saitréagir face à une situation nouvelle au regardde la connaissance qu’il a apprise. Le domainedu « Machine Learning » popularisé récemmentdans le domaine grand public par les GAFA est enplein essor du fait des applications potentielles,de l’accroissement des puissances de calcul, de

la disponibilité de grands volumes de données etdes moyens mis en œuvre.

Représentation de la connaissance et moteursde recherche Dans le dialogue plus naturel, les

avancées dans le traitement du langage naturelpourront apporter une pierre importante dans leconcept du cockpit futur. Cela devra être vérifiépar la démonstration d’utilisabilité en environne-ment cockpit (bruit, mission, . . . ).

Les besoins fonctionnels pour les futurs cock-pits, les techniques d’Intelligence Artificielle exis-tantes ainsi que les capacités des calculateurs d’au-jourd’hui se retrouvent à la croisée des chemins. Undialogue entre académiques et industriels doit êtreprofitable afin de mieux comprendre les besoins pro-duits pour les premiers et de mettre en œuvre leursnouvelles fonctions pour les seconds.

IBM et l’Intelligence Artificielle - La France et au delà

IBMentreprise de solutions cognitives

https://www.ibm.com/fr-fr/

Christian DE SAINTE [email protected]

IBM en France

IBM se positionne depuis plus de 100 anscomme le partenaire privilégié des entreprises quiont fait de l’innovation leur credo, en les aidant àse différencier de manière durable dans un contextefortement concurrentiel. IBM met à leur dispositionla palette de ressources la plus complète – compé-tences, systèmes, logiciels, services, financement,technologies – pour les aider à se différencier deleurs concurrents et leur permettre de devenir desentreprises d’innovation dans des domaines clés quesont par exemple aujourd’hui le cognitif, le cloud, lebig data, la mobilité ou le social business. Implan-tée en France en 1914 sous le nom de « Internatio-nal Time Recording Company », la société devientla Compagnie IBM France en 1948 (voir la figureplus bas quand à l’implantation des sites). En 2016,IBM France emploie environ 7 300 personnes. IBMFrance est l’une des seules compagnies high-techcentenaire dans l’Hexagone.

Depuis plus d’un siècle en France, nous bâtis-sons les fondations d’un monde basé sur des sys-tèmes intelligents et interconnectés et sur de nou-velles architectures informatiques, contribuant ainsià la transformation de l’économie française et de lasociété. Nous collaborons avec les instances gouver-nementales et les universités afin d’être à la pointede l’innovation dans les secteurs clés qui seront lesmoteurs de l’économie de demain.

18 No 93 Juillet 2016

Page 19: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

La stratégie d’IBM

Aujourd’hui, IBM est bien plus qu’une entreprisede matériels, logiciels et services. IBM est en trainde devenir une entreprise de solutions cognitives etune plateforme de cloud, qui aide les secteurs d’ac-tivités et les métiers à se transformer. Nous avonsinvesti plus de 5 milliards de dollars dans nos impéra-tifs stratégiques, Data et Analytics, Cloud, Mobile,Social et Sécurité. Ces derniers ont augmenté de 26% et généré 29 milliards de dollars en 2015. Celareprésente 35 % du chiffre d’affaires total d’IBM,contre 22 % il y a 2 ans.

L’émergence du Cognitive Business

L’année 2016 marque une nouvelle étape dans latransformation d’IBM avec l’émergence du Cogni-tive Business dont la compagnie est l’un des promo-teurs et l’un des acteurs majeurs. La fer de lancede la technologie cognitive d’IBM est la solutionWatson (cf. la section suivante) – qui a beaucoupévolué depuis que Watson a remporté le jeu téléviséaméricain « Jeopardy ! » en 2011. Watson permetd’assister des experts ou des consommateurs dansde nombreux domaines. Outre ses déclinaisons gé-nériques, qui sont en pleine expansion, des activi-tés Watson spécifiques ont été développées pourdes secteurs ou domaines professionnels particu-liers, tels qu’IBM Watson Health et IBM WatsonInternet of Things.

Notre plateforme est dans le Cloud

IBM propose toute la palette de solutions et deservices permettant aux entreprises de tirer partidu Cloud pour leur transformation digitale. IBMapproche le Cloud de manière intégrale, commeun nouveau modèle d’innovation, de fabrication etde distribution. Les plateformes dans le Cloud pro-posent un environnement ouvert de collaborationet d’évolutivité rapide. Elles contiennent des biblio-thèques d’API à partir desquelles les partenaires etles tiers d’un vaste écosystème peuvent créer dessolutions innovantes.

Innovation, recherche et développement

L’évolution des métiers d’IBM est fondée surson potentiel et son investissement en R&D. IBMmobilise plus de 3 000 chercheurs dans le monde etinvestit environ 6 milliards de dollars chaque annéeafin d’assurer le succès de ses clients et de les ac-compagner dans l’innovation. Pour IBM, l’innova-tion ne peut être que le fruit de l’invention coupléeà une compréhension fine des enjeux des clients.Elle est notamment rendue possible par un échangepermanent entre nos clients et les consultants etchercheurs lors de travaux communs et la mise enœuvre de prototypes dans les laboratoires.

IBM Research regroupe 3000 chercheurs, dans12 laboratoires sur 13 sites et 6 continents. 5 cher-cheurs d’IBM ont reçu le prix Nobel de physique(1973, 1986, 1987). 7 355 brevets ont été déposésen 2015 dans le monde.

IBM France Lab - « The Decision engineeringLab » – regroupe près de 700 experts qui déve-loppent les produits logiciels d’IBM, principalementdans le domaine de l’aide à la décision : systèmesde gestion de règles métier, programmation ma-thématique, programmation par contraintes. L’ex-pertise unique en systèmes d’aide à la décision, lesavoir-faire pour offrir des déclinaisons Cloud deces offres et l’excellence du France Lab en ma-tière de processus de design et développement, enfait un centre de premier plan en matière d’ingé-nierie logicielle et cognitive. France Lab possèdeplusieurs laboratoires historiques répartis sur l’en-semble du territoire français : Gentilly, Pornichet,Sophia-Antipolis, Toulouse. Cette structure favo-rise une relation de proximité avec les clients etles partenaires d’IBM, notamment en les accueillantdans nos locaux, et à travers différents programmesd’accompagnement par nos experts. Nos équipestravaillent à des projets de co-innovation avec l’en-semble de la R&D IBM et avec le monde universi-taire : nous accueillons par exemple, en ce moment8 étudiants en thèse CIFRE.

IBM et l’Intelligence Artificielle

IBM est un acteur de premier plan en matièrede recherches en Intelligence Artificielle et de misesur le marché de produits et solutions mettant en

Juillet 2016 No 93 19

Page 20: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

œuvre des technologies d’IA. Il est donc incontes-table qu’IBM a des besoins technologiques variés enmatière d’IA et il est également notoire, ce que nousallons développer ci-dessous, qu’IBM propose desavancées technologiques dans différents domainesde l’IA qui correspondent assez souvent à des offresde produits et solutions.

L’apprentissage automatique de grands cor-pus d’expertise et l’aide à la décision baséesur ces corpus

C’est la spécialité de la gamme « Watson » quimet en œuvre des technologies d’apprentissage au-tomatique, de représentation des connaissances etde dialogue en langage naturel. Cet axe technolo-gique de l’IA d’IBM prend sa source à la fois dansl’élaboration initiale des systèmes experts dans lesannées 80 et dans la recherche d’une IA symbo-lique « massive » permettant de jouer aux échecsdans les années 90 (ayant conduit à la victoire deDeep Blue contre Kasparov en 1997), puis permet-tant d’interpréter des questions en langage natu-rel de complexité et d’ambiguité arbitraires (ayantconduit à la victoire d’IBM Watson au jeu Jeopardyen 2011). Actuellement, Watson est la plateformela plus avancée pour faire un apprentissage massifde documents et pour aider à les exploiter en répon-dant à des questions en langage naturel, requérantd’en faire différentes interprétations, d’extraire ducorpus de multiples « éléments de connaissance »renforçant ces hypothèses, de faire de multiples re-coupements symboliques et inférences, pour finale-ment formuler et hiérarchiser les meilleurs réponses.

L’automatisation de l’aide à la décisionpour les applications industrielles ou finan-cières

IBM conserve et développe le leadership techno-logique et commercial tant pour les systèmes à basede règles métier que l’optimisation des décisions.

Le schéma ci-dessus réunit les techniques d’aideà la décision « prescriptive » d’IBM :

- A gauche les systèmes à base de règles métier(IBM ODM : Operational Decision Manager) quiregroupent des moteurs d’application de règlessur des bases de faits, sur des flux d’informa-tions, et sur des évènements datés, des techno-logies de modélisation de connaissances procé-durales et des solutions de gestion du cycle devie et de l’intégrité des règles.

- A droite, les technologies d’Optimsation pourlesquelles IBM est à la pointe de la R&D enmatière de moteurs de Programmation Mathé-matique (linear programming, mixed integer pro-gramming, quadratic programming, and quadra-tically constrained programming), de Program-mation par Contraintes (constraint program-ming) et d’Ordonnancement (constraint-basedscheduling) — cf. la gamme d’outils IBM Deci-sion Optimization / IBM CPLEX.

L’apprentissage automatique

basé sur les méthodes statistiques (MachineLearning, Predictive Analtytics) et les réseaux deneurones (Deep Learning) :

- Le leadership technologique et commerciald’IBM en matière d’analyse prédictive (gamme

20 No 93 Juillet 2016

Page 21: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

de produit IBM SPSS) fait d’IBM un acteur depremier plan en matière de recherche en appren-tissage automatique pour l’analyse de donnéeset les applications prédictives dans un contexteBig Data.

- Plusieurs équipes de R&D d’IBM travaillent surde nouvelles avancées en matière de Deep Lear-ning, tant sur les algorithmes que sur l’infrastruc-ture de calcul.

- IBM investit aussi substantiellement dans la re-cherche sur les ordinateurs à base de memris-tors (composants éléctroniques capables de mé-moriser un état) et sur les processeurs neuro-mimétiques (tesl que le processeur TrueNorthcapable de simuler un million de neurones arti-ficiels, 256 millions de synapses reliant ces neu-rones et exécutant 46 milliards d’opérations sy-naptiques par secondes et par Watt consommé).

Evolution des besoins et productionsd’IBM en matière d’IA

Domaines de R&D prioritaires

Comme nous venons de l’évoquer IBM a plu-tôt une problématique d’offre de produits qui re-laient ou utilisent des avancées technologiques enIA, même si les entités « Services » d’IBM peuventbien entendu rencontrer des besoins d’automatisa-tion spécifiques qui ne sont couverts par ces pro-duits, mais il nous sera difficile d’en faire un inven-taire. Donc IBM a un besoin permanent de déve-lopper ses capacités de R&D et d’innovation dansles domaines de l’IA symbolique et du langage na-turel, dans les domaines de l’apprentissage comme

le deep learning, et pour parfaire ses offres d’aide àla décision. IBM recherche donc des talents en pre-mier lieu en Machine Learning (statistique et deeplearning), Mathematical Programming, ConstraintProgramming, Natural Language Processing, et leschercheurs et ingénieurs français sont très appréciésdans ces domaines !

Volonté de co-innovation pour les produits

La mise au point de produits d’apprentissageautomatique ou d’aide à la décision, requiert descompétences scientifiques et technologiques, maisrequiert également une compréhension des enjeuxprioritaires pour les utilisateurs des ces techniques.Les techniques d’IA doivent être maitrisées et éten-dues, mais la question de la maturité, du passageà l’échelle ainsi que la capacité d’appropriation duproduit par l’utilisateur sont des défis qui sont toutà fait aussi importants. Par exemple, ILOG puis IBMont réalisé des efforts soutenus pendant 2 décenniespour gommer les effets « boite noire » des moteursd’optimisation et permettre de donner un feedbackexploitable à l’utilisateur particulièrement en casd’infaisabilité de la résolution. Ces avancées sonten général favorisées par un partenariat étroit avecles utilisateurs qui sont impliqués dès le début de laconception (y compris parfois en participant à desprojets de recherche communs), et interviennent aulong de la maturation du produit à travers une colla-boration régulière qui leur permet d’étallonner leurexigences et d’anticiper les bénéfices des avancéesdu produit, tout en apportant à IBM le « réalisme »qui doit accompagner le mouvement d’innovationtechnologique.

Implexe : Cabinet de conseil en Ingénierie des connaissances

ImplexeIntelligence opérationnelle

http://www.implexe.eu

Guy [email protected]érant

Implexe est un petit bureau d’études et deconseil en informatique. Fondé il y a 2 décennies,il offre des compétences de pointe en modélisation

et résolution de problématiques industrielles. Sonsavoir-faire en « Intelligence Opérationnelle » reposesur une longue pratique de techniques issues de l’In-

Juillet 2016 No 93 21

Page 22: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

telligence Artificielle et de la Recherche Opération-nelle.

IA et business

Il faut se rappeler qu’après avoir suscité beau-coup d’enthousiasme, l’IA a été beaucoup décriée.La sortie de cet « hiver de l’IA » est récente. Elleest due en grande partie à la réussite de championscomme Google.

Pour le Forum Industriel de l’IA 2016, nousavons résumé en 3 planches notre point de vue surl’évolution de cette discipline — dont le nom faittoujours un peu fantasmer. Ces planches sont illus-trées par des réalisations concrètes pour Alcatel,Areva et Orange.

L’IA Hier

l’IA, dans l’imaginaire, s’identifiait à la méca-nisation du raisonnement. Les systèmes à base deconnaissances en restent un élément emblématique.Dans l’industrie, ces connaissances sont associéesà une expertise « métier » que l’on trouve rare-ment dans des livres. Il faut donc la rassembler, lastructurer comme le ferait un maître pour la trans-mettre. Enfin, dans les cas où une aide bienvenuepeut être apportée par le biais d’inférences automa-tiques, il faut en formaliser très finement la logiquepour qu’un « moteur » la reproduise en l’appliquantà des données. En matière d’Ingénierie des connais-sances, doigté et méthode s’avèrent indispensablespour réussir à spécifier ce qui va dans les boîtes, àpartir de ce qui est dans les têtes.

L’IA Aujourd’hui

Aujourd’hui, force est de constater que l’IA s’estimmiscée dans tous les pans de l’industrie du logi-ciel. Avec un calcul bon marché et des ressourcesabondantes, on ne retient plus un langage poursa seule vitesse d’exécution mais pour la rapiditédu développement qu’il procure. Autrefois, pour lesmêmes raisons, les langages structurés avaient finipar mettre fin au règne de l’assembleur. Le cycle devie des connaissances ayant été le point sensible despremiers systèmes experts, il convient, selon notreexpérience, de mettre un terme à une confusion des

rôles qui tend à persister entre logique métier et lo-gique applicative :

- aux experts de formuler et de maintenir en touteindépendance leur connaissance, dans un cadreconçu sur mesure pour être le plus proche pos-sible des représentations d’usage

- aux informaticiens d’automatiser le passage decette représentation de haut niveau (DomainSpecific Language) à une représentation de plusbas niveau, interprétable par la machine dans lecadre d’un module de raisonnement.

Les technologies de l’Ingénierie des modèles qui pro-cèdent par transformation de modèle et générationde code le permettent aisément de nos jours. Deplus, la possibilité de combiner formellement, dansun même raisonnement, des calculs symboliques etnumériques offre un supplément de liberté dans l’ex-pression déclarative des connaissances. On peut voirsur la figure un exemple d’étude utilisant toute lapalette de ces technologies.

© 2016

Diagnostic / TélécomsDiagnostic des pertes de Qualité de Service au sein d’un réseau GSM.

Entrées : données d’analyse. Sorties : rapports de diagnostic (identification des causes, proposition d’actions correctives).

Traitement par corrélation d’alarmes (règles empiriques organisées en arbre de diagnostic).

Outil unique sur le marché à sa sortie.

L’IA Demain

Demain, les techniques automatiques de recon-naissance de formes qui ont fait des progrès spec-taculaires dans le traitement de l’image et de lavoix seront pour la plupart accessibles en ligne. Unegrande variété de « micro-services » en découlerapour la composition d’applications. Il faudra alorssavoir articuler fonctions de reconnaissance et fonc-tions de décision. Intégrer inférences classiques etinférences statistiques. Et, à défaut d’un agent om-niscient, savoir réconcilier des points de vue diver-gents. Ces nouvelles architectures réparties ferontla part belle à l’Ingénierie des systèmes.

22 No 93 Juillet 2016

Page 23: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Huawei : Technologies de l’information et des télécommunications

HuaweiTechnologies de l’information et des télécommunications

http://www.huawei.fr

Arnaud [email protected]

Présentation de Huawei France etdes thématiques de recherche

Huawei Technologies Ltd est une entreprise lea-der sur le domaine des technologies de l’informationet de la communication, dont la vision est d’enrichirla vie par la communication. Depuis sa fondation en1987 à Shenzhen, l’entreprise s’est hissée aux touspremiers rangs des équipementiers pour les opéra-teurs télécom fixe et mobile, au troisième rang pourla fabrication de smartphones derrière Samsung etApple, et s’oriente désormais également sur le sec-teur des technologies de l’information.

Huawei comporte plus de 170 000 employés àtravers le monde, opère dans 170 pays et régionset sert plus d’un tiers de la population mondiale.Elle mise sur l’innovation au service du client, surdes partenariats forts et durables pour proposer lesproduits et services les plus compétitifs.

Huawei a globalement réalisé un chiffre d’af-faires d’environ 60 milliards de dollars en 2015, enprogression de 35% par rapport à l’année précé-dente. Elle investit de façon constante plus de 10%de son chiffre d’affaire en R&D, a ouvert 16 centresde recherche dans le monde et y consacre 45% deses employés, soit presque 80 000 personnes.

Huawei a lancé en 2014 son centre de rechercheen France (FRC, French Research Center), avec 5axes majeurs :

- Mathématiques et Algorithmique- Calcul parallèle- Objets connectés- Chipsets- Design

Le centre de recherche de Boulogne-Billancourtregroupe les trois premiers thèmes, avec une forcede plus de 70 chercheurs en mathématiques et infor-matique, et un équipement conséquent en puissancede calcul. Le laboratoire a un programme doctoraltrès actif et a déjà recruté une quinzaine d’étudiantsen thèse Cifre en 2015-2016.

En ce qui concerne l’Intelligence Artificielle,Huawei s’intéresse à de nombreux sujets. On noteral’importance particulière de l’apprentissage appliquéaux télécoms, au dialogue homme-machine utilepour SmartCare, son assistant virtuel disponible enChine, à la traduction automatique, la reconnais-sance de formes et la vision ainsi qu’au big data, parexemple pour la recommandation. D’autres thèmesd’intérêt sont la programmation par contraintes etl’optimisation, avec des applications au schedulingou au routage dans les réseaux, mais aussi les sys-tèmes multi-agents, la théorie des jeux, etc. Dansce texte, nous mentionnons quelques applicationsrécentes, une description exhaustive étant absolu-ment impossible de par la taille de l’entreprise. Ilest à noter que le centre de recherche français estamené à travailler sur de nombreux sujets suivantles besoins internes, ses compétences mais aussi surdes sujets fondamentaux à sa propre initiative.

Fouille de données et recommandation : BigData, IA et calcul hautes performances

En Chine, Huawei possède son propre magasind’applications Android, à la manière de l’AppStored’Apple ou de Google Play. Afin de proposer desapplications pertinentes, un système de recomman-dation a été mis au point qui permet de recom-mander à chaque utilisateur des applications ayantété téléchargées par des utilisateurs ayant un profilproche. Plusieurs modèles d’apprentissage sont uti-lisés mais nous avons principalement travaillé sur unmodèle linéaire. Le principal enjeu n’est donc pas ladifficulté du modèle mais de traiter la taille de labase qui comporte plusieurs milliards de lignes. Par-tant d’un prototype réalisé en Spark dont le tempsd’exécution était de plus de 30 heures sur un clus-ter de plusieurs dizaines de machines, nous avonsappliqué à ce problème des techniques issues à lafois de l’IA, de la fouille de données et du calculhautes performances : nettoyage, compression, sé-

Juillet 2016 No 93 23

Page 24: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

lection d’attributs, gestion des matrices creuses,placement, bibliothèque de communications hautesperformances. Le résultat est que le même calcul neprend maintenant plus que 4 minutes sur une seulestation.

Programmation par contraintes : le couteausuisse de l’optimisation

De par sa capacité à modéliser un grand nombrede problèmes combinatoires simplement et effica-cement, la PPC (Programmation par Contraintes)trouve de nombreuses applications dans le domainedes réseaux. Un premier exemple est le SDN (Soft-ware Defined Network) dans lequel la politique deroutage est calculée de façon centralisée et permetde gérer plus finement la qualité de service et lacongestion que les protocoles classiques. Dans unautre registre, la programmation des systèmes em-barqués nécessite d’effectuer une allocation la plusstatique possible des ressources afin de respecterles contraintes d’un traitement en temps réel. Unproblème crucial dans ce domaine est le schedu-ling d’un graphe de tâche d’application sur une ar-chitecture hétérogène de type SoC, problème pourlequel la PPC peut proposer ses services. En ef-fet, les SoC récents proposent sur un même chipl’intégration de nombreux processeurs, réseau decommunication, DSP, ASIC, FPGA. . . Certainestâches peuvent être compilées vers plusieurs archi-tectures, ce qui augmente la souplesse d’allocation,mais aussi la taille de l’espace de recherche. Deplus, il faut gérer les topologies particulières de ré-seaux, la synchronisation des accès mémoire pourles machines sans cohérence de cache, etc. Un der-nier thème d’intérêt dans ce cadre est la possibi-lité d’étendre la PPC au cadre multi-agents afin derécupérer dans ce cadre sa souplesse de modélisa-tion. Nous développons actuellement les ContraintGames qui permettent d’exprimer des jeux à l’aidedes contraintes, y compris des contraintes globales.Curieusement, bien que le cadre de la théorie desjeux soit établi depuis les années 50, aucun pro-grès dans la résolution algorithmique du plus simpledes problèmes, l’équilibre de Nash en stratégie pure,n’avait été accompli jusqu’ici. Notre solveur Congacombine la tabulation avec la détection paresseusedes stratégies dominées pour proposer des perfor-

mances allant jusqu’à deux ordres de magnitude parrapport à l’état de l’art antérieur.

Apprentissage automatique : à la recherchede nouvelles applications

Le marché des opérateurs télécom est histo-riquement le premier cœur de métier de Huawei.A côté des applications traditionnelles de gestionde la relation client où l’apprentissage possède uneplace particulière (comme par exemple la prédictionde résiliation très importante pour les opérateurs),Huawei effectue aussi des recherches innovantesoù l’apprentissage est appliqué dans des contextesplus techniques, comme par exemple la gestion descaches dans les réseaux de diffusion de contenu(CDN, Content Delivery Network). Dans le cadrede la téléphonie mobile, le réseau de diffusion sert àacheminer le contenu jusqu’à la station de base laplus proche du terminal. Afin de répondre à de mul-tiples demandes concernant le même contenu, il estplus rapide et économique de placer les contenus lesplus sollicités en cache afin de faciliter leur trans-mission. Il serait donc tentant de placer un cachedans les stations de base. Du fait de la taille mo-deste de ces machines et des fortes contraintes liéesà l’embarqué (les stations sont dispersées et le vo-lume qu’elles occupent ne doit pas être excessif),il n’est pas possible d’installer des caches de trèsgrande capacité. Cependant, l’expérience a montréque la multiplication de « petits » caches était plu-tôt nuisible à la qualité de service du fait de la faibleréutilisation du contenu et du fort taux de défaut decache. Dans une étude réalisée, nous avons montréque contrairement aux idées reçues, une politiquede gestion des petits caches était possible si les pa-ramètres de conservation des contenus étaient ap-pris globalement pour l’ensemble des caches, puisadaptés localement à chaque cache individuel. L’ap-prentissage global permet en outre de calibrer unepolitique de pré-allocation de contenus non encoredemandés localement qui améliore encore le tauxde succès du cache.

24 No 93 Juillet 2016

Page 25: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

L’avenir : smartphone, IoT, cloud et com-munications. . .

Huawei possède de nombreuses compétencesen Intelligence Artificielle et continue à dévelop-per activement ces techniques dans tous ses do-maines d’activité. En particulier, le secteur dessmartphones semble être un réservoir inépuisabled’applications pour l’IA : reconnaissance d’objets oude visages grâce aux nouveaux processeurs neuro-

naux, réalité virtuelle et augmentée, reconnaissancede la parole, des gestes, tracking physiologique dansle domaine du sport ou de la santé, conseil des assis-tants virtuels et dialogue avec les chatbots. . . Hua-wei est particulièrement bien placé sur ce secteurpar son intégration verticale depuis la conceptionde chips, maitrise du hardware et du software jus-qu’à la réalisation de l’interface utilisateur et de sonassistant virtuel.

Mondeca : Ingénierie de la connaissance

MondecaIngénierie de la connaissancehttp://www.mondeca.com/

Florence [email protected]

Mondeca expert en ontologies et en-richissement sémantique

Mondeca, spécialiste des technologies du Websémantique, a développé une forte compétence au-tour de la mise en œuvre des ontologies et techno-logies sémantiques pour l’enrichissement des conte-nus et leur valorisation à des fins d’amélioration deleur diffusion et lisibilité. Mondeca a développé unechaîne de traitement destinée à l’enrichissement sé-mantique, dénommée CA Manager (Content Anno-tation Manager). Techniquement, l’enrichissementsémantique a pour premier objectif de poser des mé-tadonnées autour d’un contenu, au niveau de gra-nularité le plus pertinent, en s’appuyant sur l’analysedu contenu textuel. Plus ces métadonnées sont is-sues de vocabulaires contrôlés, (on parle aussi de ré-férentiels, d’ontologies et de règles métiers de clas-sification thématique ou d’inférence) meilleure estla capacité d’exploitation offerte en retour. Enrichirles contenus par un processus « sémantique » offreun premier gain en valeur sur quatre axes autourdes contenus en eux-mêmes :

- Mieux qualifier et organiser ces contenus ;- Améliorer leur publication, leur visibilité et leuraccès ;

- Faciliter leur recherche et leur exploration ;- Et enfin, introduire des capacités d’automatisa-

tion des processus de traitement.

L’enrichissement sémantique offre un secondaxe de valeur : l’exploitation des données. En ef-fet, cet enrichissement sémantique transforme lescontenus textuels et multimédias en Data exploi-tables. Ce processus d’enrichissement va nourrir unentrepôt en données « normalisées ». Des traite-ments sur les données pourront être appliqués à cesdonnées pour ensuite les projeter vers des systèmestiers ou interfaces de visualisation.

De la démarche d’enrichissement sé-mantique

Une application exploitant les technologies sé-mantiques s’appuie sur trois piliers :

1. Les ressources ou données de référence, consti-tuées par :

- Les vocabulaires (terminologies, taxono-mies, liste d’autorités. . . )

- Les connaissances : ontologies, élémentsde connaissances (comme les produits,marques, composants, . . . ) des règles mé-tiers

2. Des processus de traitement de l’information :

- Pour enrichir l’information textuelle et

Juillet 2016 No 93 25

Page 26: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

transformer cette information en « don-nées »

- Extraction de « tags » concepts, mots clefs,entités, géographie. . .

- Mapping sur ontologie, scoring, extensionde données, sérialisation

3. Des outils d’exploitation pour rendre compte dela richesse des « données » :

- Règles métiers : définies par expert- Classification automatique, inférence, Mo-teur de recommandation,

- dataviz

Tous les éléments de « ressource » participent à ladescription du contenu comme à sa classification.Nous parlons de Sémantique parce que ces méta-données sont contrôlées, organisées au sein de ré-férentiels, et définies par des identifiants stables au-tour d’un langage standard du W3C. L’enrichisse-ment sémantique porte aussi sur la capacité à relierces contenus à d’autres comme à les compléter pardes données complémentaires grâce à la présencede ces méta-données. Cette phase s’appuie notam-ment des techniques dites d’inférence et d’exten-sion de données ayant recours à des ontologies, desréférentiels ou au web de données. La classificationautomatique est utilisée à ce stade pour organiserautomatiquement le versement des contenus sur demultiples axes thématiques.

Des apports fonctionnels

L’enrichissement sémantique ouvre de nom-breuses opportunités de services. En exploitant desressources métiers, du domaine et du web de don-nées, il est possible d’obtenir :

1. Une expérience utilisateur totalement reconsidé-rée et améliorée.

Une recherche facilitée : Autocomplétion etsuggestion ; Recherche via la classificationdes thématiques (métadonnée de classifi-cation) ; Fonctions de rebond ;

Des résultats de recherche améliorés :meilleure pertinence du résultat par la priseen compte des métadonnées et l’utilisationdes synonymes et acronymes ; Adaptationau contexte de recherche ; Recherche etnavigation par autopostage descendant ouascendant ;

Un contenu proposé en adéquation avecl’usage souhaité par l’internaute : navigation

à travers les facettes métiers issues desvocabulaires métier et exploration théma-tique ; Moteur de recommandation.

2. De nouveaux services innovants !

- Génération automatique de pages théma-tiques via les « raisonnements » ;

- Création des jeux de données au format in-teropérables RDF : services Open Data ;

- Exploitation des données ouvertes (LinkedData) pour de nouvelles applications ;

- Une solution évoluant avec le contexte(classification des contenus, vocabulaires,enrichissement des requêtes, ré-indexationfacilitée. . . ) ; Enrichissement et extensiondes requêtes sur la base des recherches ef-fectuées ;

- Rapprochement et similarité de contenus,recommandations personnalisées.

Raisonnement et services d’usage

Les techniques de raisonnement imposent dechoisir l’environnement logiciel le plus adapté auxbesoins et usages dans un mode industriel et deproduction. Ce choix impacte sur les temps de char-gement et de mise à jour des données, sur les per-formances des algorithmes de raisonnement, sur lescapacités de raisonnement elles-mêmes, sur la flexi-bilité et la facilité d’écriture des règles de raisonne-ment... A titre d’illustration, pour une base graphe,selon le choix de modèle et de segment (QL, DL,RL. . . ) pour le raisonnement, il est possible de se

26 No 93 Juillet 2016

Page 27: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

retrouver dans une impasse en terme fonctionnels,de résolution voire de ne pouvoir arriver à passerl’échelle industrielle. Il convient donc de parfaite-ment spécifier les usages, de mesurer les volumesimpliqués, de prendre en compte les capacités d’in-tégration des différents outils.

Mondeca travaille sur plusieurs axes exploitantles techniques d’intelligence artificielle :

- Algorithme de graph-matching pour la compa-raison de graphe ; calcul de distance sémantiqueet application à du raisonnement par cas ;

- Recommandation sémantique exploitant des al-gorithmes d’apprentissage ; calcul de scoring ex-ploitant les relations sémantiques ;

- Annotation sémantique couplée avec des tech-niques de fuzzy matching ; détection de relationspour le rapprochement d’entités et contenus ;

En parallèle, nous nous intéressons particulière-ment à la qualité des données au travers de proces-sus de validation, de l’exploitation de métadonnéessur les sources de données elles-mêmes, de la valo-risation et l’exploitation des connaissances et despossibilités d’audit des données issues de raison-nements sur des volumes importants. Enfin, nouscontribuons à la maturation du « stack » techno-logique des solutions sémantiques pour l’entreprise

et veillons à l’interopérabilité des différents outils,processus et données. Nous adoptons une démarchepragmatique afin de pouvoir garantir la meilleure ex-ploitation et pérennité de la solution proposée.

Les usages accessibles au travers de ces servicessont particulièrement vastes :

- Moteur de recommandation : proposer lameilleure réponse en fonction d’un contexte etd’un profil de recherche et de situation d’usage ;

- Suggérer ou rapprocher des contenus de proxi-mité au regard d’un cas d’usage ou d’utilisa-tion par l’utilisation d’algorithme de Graph Mat-ching ;

- Suggérer un parcours ou un choix le plus adaptéà un contexte personnalisé ;

- Appuyer un processus de conformité règlemen-taire et proposer des services de contrôle asso-ciés ;

- Pilotage et suivi de la relation client ;

L’enrichissement sémantique et l’exploitationdes données générées est aujourd’hui une techniquequi tend à se répandre dans de nombreux secteurspour répondre à des besoins de productivité, de per-tinence et d’assistance en face de volumes d’infor-mations toujours plus importants, de la réactiviténécessaire et d’une disponibilité limitée.

PlaySharp : l’Intelligence Artificielle au service du sport

PlaysharpFournisseur de logiciel pour le domaine sportif

http://www.playsharp.pro

Tatiana [email protected]

PlaySharp

PlaySharp est une entreprise qui propose un ou-til en ligne de gestion des données relatives au sport.L’application sous-jacente est dédiée au traitementet à l’analyse des performances des joueurs dansle sport professionnel. La figure suivante précise lesdifférents fonctions liés à cette offre.

Chaque jour, l’application fournit un tableau debord pour tous les joueurs. Dans la figure suivante,les données provenant de différentes fonctions sontregroupées dans le cadre d’une utilisation par un

Juillet 2016 No 93 27

Page 28: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

club de football. Pour chaque athlète, nous avonsl’information concernant le temps de jeu, la chargearbitraire, le poids et le pourcentage de participa-tion aux entraînements.

L’objectif est de déclencher des alertes quanddes seuils sont franchis. L’intelligence Artificielle in-tervient ici par la capacité à gérer correctement cesseuils à travers un ou plusieurs processus d’appren-tissage.

Les besoins de PlaySharp en Intelli-gence Artificielle - la prévention desblessures

Réduire les risques de blessures est le souhaitdes clubs. Nous travaillons donc à une fonction de

prévision prenant en compte plusieurs facteurs phy-siques et physiologiques de l’athlète. L’objectif estde produire une probabilité pour celui-ci de se bles-ser. Cette probabilité est ajustée au fur et à mesurede l’acquisition des nouvelles données. Le type d’in-formation produite est illustré sur la figure suivante.

PlaySharp travaille activement sur cette fonc-tion ce qui explique son intérêt pour les percéesactuelles de l’Intelligence Artificielle en terme d’ap-prentissage notamment.

PlaySharp accompagne notamment plusieursclubs de football professionnels ce qui signifie quele retour d’expérience sur l’utilisation de l’IA seraimmédiat.

Search Foresight : l’Intelligence Artificielle au service du référence-ment des sites Web

Search ForesightAgence de conseil en stratégies Search Marketing

https://www.search-foresight.com/

Laurie [email protected]

Search Foresight

Fondée en 2012, l’agence Search Foresight,filiale du groupe My Media et dirigée par Phi-lippe YONNET, accompagne les marques, les pureplayers et les e-commerçants dans l’acquisition d’untrafic qualifié pour leurs sites Web. En plus de sonexpertise SEO (Search Engine Optimization ou ré-férencement naturel) et SEA (Search Engine Adver-

tising ou référencement payant), ses compétencescouvrent tout le spectre du Web marketing et par-ticulièrement : le référencement payant, l’optimi-sation pour les réseaux sociaux, le référencementlocal, le référencement des sites et applications mo-biles, l’e-réputation, l’inbound marketing, le webanalytics, etc.

L’agence compte aujourd’hui plus de 200 clients

28 No 93 Juillet 2016

Page 29: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

dont de nombreuses sociétés du CAC 40, des lea-ders du e-commerce, des starts-up et des groupesinternationaux (Balsamik, Century 21, Chanel,etc.). Aujourd’hui, Search Foresight est la premièreagence en France de par sa concentration en ex-perts SEO/SEA, avec plus de 60 consultants pas-sionnés et expérimentés. Le nombre de ses ex-perts s’est notamment accru grâce à l’acquisitionde la société Synodiance en avril 2016. Aujourd’hui,Search Foresight occupe une position assumée deservice premium spécialisée grands comptes.

Notre vision

L’agence met en avant :

- Un accompagnement stratégique afin de dé-terminer la meilleure approche pour dévelop-per le trafic et les leads du client, tous canauxconfondus. Cela passe par l’expertise techno-logique, l’optimisation SEO des plateformes e-commerce, des moteurs de recherche internes,CMS, etc.

- La prévoyance et la durabilité dans un souci desatisfaire les attentes de ses clients et d’évitertoute mauvaise surprise lors de la livraison desprestations.

Search Foresight consacre également une par-tie de son activité à la formation professionnelle àtravers la SF Academy, mais également à la R&Dgrâce à son pôle de recherche SF Labs.

SF Labs : le pôle R&D de Search Fo-resight

Créé dans l’année 2015, les SF Labs, ont pourambition de développer des solutions innovantesafin de relever les nombreux défis du Web de de-main. Sous la direction de Stéphane TOLLERON,directeur technique de Search Foresight, les mis-sions du pôle sont d’anticiper l’évolution des mo-teurs de recherche et de répondre aux probléma-tiques technologiques avancées de ses clients. Pource faire, les SF Labs s’orientent notamment versle Traitement Automatique du Langage, le Webmining, le Data mining ou encore les technologiesNoSQL et orientées Big data.

Aujourd’hui : l’IA chez Search Foresight

Avec l’arrivée, fin 2015, de Laurie SERRANO,docteur en Traitement Automatique du Langage(TAL), les SF Labs débutent leurs recherches dansle domaine de l’Intelligence Artificielle (IA), encoretrop peu exploité en SEO. Le TAL offre aux ac-teurs du Web de nombreuses perspectives souventméconnues ou sous-estimées : une meilleure expé-rience utilisateur, un allégement du travail humainet indirectement une augmentation du chiffre d’af-faires. Le premier outil issu de nos recherches per-met d’améliorer le positionnement d’un site Weben optimisant son maillage interne : il s’agit du Se-mantic Booster. Le maillage interne d’un site cor-respond à l’ensemble des liens hypertexte provenantde et pointant vers l’ensemble des pages de ce site.Optimiser ce maillage consiste à corriger et amé-liorer la structure de navigation du site, mettre enavant les pages importantes et améliorer la couver-ture de son univers sémantique. Ces procédés SEOétant réalisées manuellement, le Semantic Boosterpermet d’automatiser ces tâches, grâce notammentà des techniques de TAL. L’une de ces techniquesest le regroupement automatique (dit clustering) demots-clés impliquant notamment l’utilisation d’al-gorithmes de classification non-supervisée et la dé-finition de mesures de similarité sémantique adap-tées à la tâche. Un autre de nos axes de rechercheactuels est la structuration automatique de flux dedonnées pour le e-commerce. Il s’agit d’une thé-matique large incluant différentes problématiquesliées au TAL et à la gestion des connaissances :catégorisation automatique de fiches-produit, ex-traction automatique d’information, alignement au-tomatique de taxonomies-métier, détection auto-matique de fiches-produit dupliquées, etc. Dansle cadre de nos activités SEO, cet axe de re-cherche représente un levier important pour per-mettre, d’une part, une meilleure interopérabilitédes données entre les e-commerçants et les placesde marché et, d’autre part, un meilleur référen-cement des produits. SF Labs développe actuelle-ment un système de catégorisation automatique defiches-produit fondé sur une approche par apprentis-sage automatique (machine learning) ainsi qu’uneinterface homme-machine permettant de manipu-ler les résultats de cette catégorisation.

Juillet 2016 No 93 29

Page 30: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Demain : les besoins de la société en IA

En plus de nos activités orientées vers le e-commerce, nous prévoyons de proposer de nouvellessolutions à nos clients du domaine de l’édition. Eneffet, notre expertise en TAL offre également denombreuses perspectives pour les sites d’informa-tion. SF Labs souhaite notamment proposer dessolutions aux journalistes pour, par exemple, leursuggérer des liens vers des articles de mêmes thé-matiques dans le but de simplifier leur travail derecherche et de mieux valoriser leurs archives édito-riales. Pour ce faire, des méthodes de reconnais-sance automatique des entités nommées, d’ana-lyse sémantique automatique, de similarité séman-tique entre contenus textuels seront explorées etadaptées à ce besoin. Par ailleurs, toujours dansl’objectif d’anticiper et de satisfaire les besoins fu-turs de nos clients, nous avons ciblé plusieurs axes

de recherche : l’optimisation des moteurs de re-cherche internes aux sites Web (notamment grâceà des méthodes d’expansion automatique de re-quêtes), la découverte automatique de facettes etfiltres de recherche facilitant la navigation, la hié-rarchisation automatique de pages Web et la sug-gestion/génération automatique de mots-clés etexpressions-clés. Afin de concevoir des solutions in-novantes et efficaces, Search Foresight a fait lechoix de se tourner vers des technologies d’avenirtelles que l’Intelligence Artificielle. Pour compléterson expertise actuelle en TAL, les SF Labs ambi-tionnent également d’explorer des technologies duWeb sémantique telles que les ontologies et basesde connaissance sémantiques. De plus, nous devonsrégulièrement travailler avec des sites Web de vo-lumétrie importante, ce qui nous amènera à mettreen place des systèmes orientés Big data.

Thales et l’intelligence artificielle

ThalesEquipementier Electronicien

https://www.thalesgroup.com

Juliette [email protected]

Thales en quelques mots

Dans un monde de plus en plus mobile, intercon-necté et interdépendant, la sécurité des personneset des biens, des infrastructures et des États dé-pend de responsables et d’organisations capables deprendre les bonnes décisions et d’agir efficacementau bon moment. Ces prises de décision sont sou-vent critiques sur les marchés sur lesquels le groupeThales, présent dans 56 pays, opère : défense, sécu-rité, espace, aéronautique, transport terrestre. Pourcela, ces décideurs ou opérateurs ont besoin pouragir de disposer d’une information complète, fiableet hiérarchisée. Un des objectifs de Thales est deleur fournir les outils technologiques permettant decollecter les données, de les traiter, de les diffu-ser et, ainsi, de les aider à décrypter l’environne-ment, à en maîtriser la complexité pour choisir lameilleure option, agir et obtenir les meilleurs ré-sultats. Cette maîtrise de la « chaîne de décision

critique » sous-tend nos innovations et nos techno-logies : grands systèmes logiciels, communicationssécurisées, détection (radars, sonars, optiques) etsupervision, électronique embarquée, satellites, in-tégration systèmes. Ces savoir-faire et ces techno-logies sont transverses à toutes nos activités, avecle souci de toujours placer l’homme au centre de laboucle de décision. Leur maîtrise implique le déve-loppement permanent des compétences des 62.000collaborateurs du Groupe.

Le retour de l’IA dans Thales

Depuis 2010, l’intelligence artificielle (IA) faitson grand retour dans Thales. Fin 80, Thomson-CSF (ancien nom de Thales) avait plusieurs équipesd’ingénieurs de recherche travaillant dans l’appren-tissage, les systèmes experts, la réalité virtuelle etles solveurs de problèmes combinatoires. Le "plan

30 No 93 Juillet 2016

Page 31: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

stratégique réseaux de neurones" avait été lancédans l’ensemble du groupe pour appliquer les tech-niques de l’époque en apprentissage et en analysediscriminante dans le domaine de la reconnaissancede forme sur des signaux radar, sonar ou mêmeimage de type infra-rouge... Cependant, les travauxn’ont que très peu abouti dans des produits ou dessystèmes Thales, et cela pour diverses raisons dontle passage à l’échelle, la performance, la robustesseet dans certains cas la difficulté de certification.Avec l’émergence du big data, des capacités de cal-culs de plus en plus importantes, les systèmes d’aideà la décision et surtout, l’avènement d’algorithmescomme le Deep Learning, l’intelligence artificielleest de retour ouvrant pour Thales la porte à unemultitude de nouvelles applications pour la défense,la sécurité, l’espace, l’aéronautique et le transportterrestre. Depuis plusieurs années, l’intelligence ar-tificielle est présente dans nos métiers comme l’aé-ronautique grâce au pilotage automatique et la priseen compte des facteurs humains pour la concep-tion du cockpit du futur. Ainsi couvrant un largespectre depuis le traitement des données capteurset de l’information jusqu’à l’aide à la décision etla planification, les activités du domaine techniquede R&D « Traitements » ont un impact majeur sur25% de l’activité de Thales, en couvrant les aspectsalgorithmie, les sciences cognitives et les facteurshumains. Réparties au sein des différents centres derecherches de Thales (France, Canada, Grande Bre-tagne, Pays-Bas et Singapour) et dans les étudesamonts des différentes divisions du groupe, les di-mensions R&D de l’intelligence artificielle couvrentaujourd’hui : la modélisation et la représentationdes données, informations et connaissances métier ;le raisonnement spatio-temporel et dans l’incerti-tude ; les traitements allant du traitement de signal,image et vidéo, information sémantique (texte, au-dio, ...) et les technologies comme les systèmes ex-perts, la réalité virtuelle ou augmenté, l’apprentis-sage, les solveurs et les méta-heuristiques, les sys-tèmes multi agents et bio-inspirés, les outils d’aidesà la décision. Enfin, le renouveau de l’IA a permisune meilleure prise en compte des facteurs humainsdans la conception des systèmes Thales ayant unhomme dans la boucle.

Quelques exemples d’applications del’IA dans Thales

Surveillance et supervision

Dans les applications de sécurité, telles la pro-tection d’infrastructures critiques, la prévention etl’anticipation sont des éléments clés. À l’instardu renseignement intérieur, une bonne surveillancepasse par une bonne récolte d’information sur l’in-frastructure. Plus tôt est informé l’opérateur desécurité, plus il a de temps pour analyser et dé-cider des actions à mener. Ainsi, pour la protectiond’une infrastructure, est déployé un grand nombrede moyens, qu’ils soient pour la gestion de sonfonctionnement (système SCADA par exemple),la simple récolte d’information (comme une bar-rière infrarouge qui indique un passage), le contrôled’accès (un lecteur de badge, un capteur bio-métrique, etc.), ou une surveillance plus fine avec,par exemple, des caméras et du traitement vidéo(suivi de personne, analyse de déplacement, détec-tion d’événement, etc). Toutes ces sources d’infor-mation fournissent un point de vue local, par défi-nition et localisation de ces moyens. Par ailleurs, lamultiplication des informations fournies à l’opéra-teur de sécurité rend sa tâche de plus en plus com-plexe, et augmente sa charge cognitive. Or, qu’ils’agisse d’un acte de malveillance ou d’un accident,la réalisation de l’événement redouté n’est que ladernière étape d’un processus potentiellement longet spatialement distribué. Charge à cet opérateurd’associer les éléments permettant de comprendrece qu’il se passe et ainsi en anticiper la suite, enespérant qu’il sache se remémorer des élémentsnégligés de prime abord. C’est dans ce contexteque deux des branches de l’Intelligence Artificielleprennent toute leur place : la représentation desconnaissances et le raisonnement automatique. Sil’on considère les informations fournies par les cap-teurs, au sens large, comme des symptômes d’uneaction en cours, alors il devient possible de présen-ter à l’opérateur de sécurité une vue synthétiquede la situation et de lui pointer un sous-ensembleréduit des événements redoutés associés. La repré-sentation des connaissances permet de caractéri-ser les éléments essentiels au raisonnement, commeles notions de risque, d’événement redouté, l’infra-

Juillet 2016 No 93 31

Page 32: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

structure en elle-même, etc. Le raisonnement au-tomatique permet de maintenir un niveau de vigi-lance constant et de transformer les éléments bas-niveau, par combinaisons des uns avec les autreset la base de connaissance, en information de plushaut niveau, allant jusqu‘à identifier un objectif fi-nal. Pour ce type d’application, les méthodes de rai-sonnement automatique doivent combiner plusieursatouts :

- Fonctionner en flux et de manière asynchrone :les informations à traiter sont fournies non pasà intervalles de temps réguliers et déterministesmais à n’importe quel moment en fonction de cequi est capturé ;

- Considérer l’imperfection des informations trai-tées comme leur étant intrinsèque : les détec-tions issues des capteurs sont de plus en plusassociées à des méthodes statistiques, d’appren-tissages ou de classifications pour lesquelles letaux d’erreur ne peut être nul ;

- Méler des informations complexes, qualitatives,quantitatives et symboliques.

Enfin, il reste encore la difficulté d’établir(semi-) automatiquement le modèle de raisonne-ment pour des applications de surveillance et su-pervision qui sont chacune propre aux infrastruc-tures dans lesquelles elles sont déployées et dépen-dantes des objectifs de sécurité qui leur sont as-sociés. L’expertise nécessaire n’est pas encore ducôté de la machine. Cependant, la simulation et lesavancées en Vie Artificielle sont un moyen de tes-ter l’efficacité d’une mise en œuvre de ces systèmesde supervision. Thales a développé depuis plusieursannées un simulateur de vie artificielle (nommé SE-Star) capable de simuler à l’identique (mêmes inter-faces) tous types d’équipements techniques (camé-ras, contrôles d’accès, détecteurs de fumée, etc.)et des humains aux comportements très réalistes.La richesse du système repose sur le fait qu’à toutmoment, chaque acteur décide des actions à en-treprendre en fonction de leur éventuelle capacitéà satisfaire tout ou partie de ses motivations et in-tègre intrinsèquement la notion de compromis (parexemple, un acteur peut décider d’aller déjeunerdans un restaurant de standing moyen parce qu’ila le bon goût d’être peu cher et situé près de sonprochain rendez-vous). En couplant un système de

supervision à un simulateur de vie artificielle ca-pable de représenter finement l’infrastructure avecses opérateurs et ses usagers, on parvient à substi-tuer au monde réel un environnement virtuel danslequel il est possible de tester l’intégralité des pro-cédures (sécurité/sûreté) implémentées dans l’outilde supervision. Ce dernier envoie des commandesaux effecteurs (portes, caméras, PIDS : « PublicInformation Systems » etc.) et reçoit des « états »des capteurs (flux vidéos virtuels, activation d’undétecteur de fumée, capteur d’ouverture de porte,etc.) indifféremment qu’il soit connecté aux vraiséquipements ou aux équipements simulés. Dans lemonde simulé, il est possible de librement modifiertous les états des équipements ou de simuler leuractivation (endommager une caméra et voir le fluxvidéo correspondant, créer un incendie, provoquerun mouvement de panique, etc.). Dans le cas d’uneinfrastructure existante à modifier, la simulation devie artificielle permet par exemple, à partir des élé-ments dimensionnants statistiques disponibles (parexemple, distribution des flux entrants en fonctiondes habitudes et de l’heure d’arrivée des bus, tauxde personnes entrant sur le site avec un disposi-tif électronique à déclarer (téléphone, ordinateur),temps moyen d’une fouille, pourcentage de per-sonnes qui portent un objet métallique au momentdu passage sous le portique, etc.), d’estimer destemps moyens d’attente des personnels en fonctionde différentes implémentations possibles des équi-pements de contrôle d’accès physique (détecteursde métaux, XRay, détection de radiations, etc.) etdes procédures de sécurité. Lorsque les équipementset les processus sont en place, la simulation de vieartificielle permet également de former les opéra-teurs aux opérations de routines, ou de les entraînerà réagir à des situations de crise, au moyen d’un en-trainement « immersif ». Les opérateurs sont entrai-nés sur leur outil de travail quotidien (mur d’images,contrôleur des caméras, synopsis dynamique de ladensité des foules, etc.) mais sont confrontés à dessituations purement fictives générées en temps réelspar les instructeurs. La simulation de vie artificiellepermet par exemple de simuler de façon très réa-liste les comportements « normaux » des usagersainsi que leurs réactions aux évènements introduitslibrement par les instructeurs dans le monde virtuelopéré : départ d’incendie, panne d’escalator, panne

32 No 93 Juillet 2016

Page 33: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

de courant, agressions, mouvements de panique,etc. L’architecture motivationnelle du moteur de vieartificielle est présentée sur la figure suivante.

Le type d’environnement de visualisation du ré-sultat de l’utilisation de ce moteur est présenté àtravers un exemple sur la figure suivante.

Maintenance prédictive

Le monitoring (HUMS= Health and Usage Mo-nitoring System) de la santé d’un composant oud’un système est constitué de fonctions de basecomme la détection, le diagnostic, la maintenancepréventive voire prédictive. En effet, une demandecroissante est apparue dans Thales pour transfor-mer les politiques de maintenance corrective (dé-pannage) par des stratégies de maintenance per-mettant d’éviter les dysfonctionnements imprévuspar l’entretien régulier voire de maintenance prédic-tive. Cette mutation d’une situation où l’on « su-bit les pannes » à une situation où l’on « maî-trise les pannes », nécessite de nouvelles techniquesd’analyse et d’aide à la décision. La maintenance

prédictive ayant comme objectif d’éviter les dys-fonctionnements potentiels par analyse de prévi-sion, est en effet, subordonnée à un type d’évé-nement prédéterminé (auto-diagnostic, informationdonnée par un capteur, mesure d’une usure, échauf-fement,..) révélateur de l’état de dégradation ducomposant/système observé. Pour obtenir cette in-formation, les algorithmes de traitement des don-nées sont soit basés sur des modèles métier, soit surdes analyses de données et connaissance a priori ousur des approches hybrides, i.e. mélangeant modèleou sans modèle. Les premières se basent sur l’exis-tence d’un modèle physique de l’équipement. Ladeuxième catégorie est intéressante dès lors qu’unmodèle de l’équipement est inexistant ou difficile àobtenir. Dans ce cas, on utilise les outils de la sta-tistique et de l’Intelligence Artificielle comme l’ap-prentissage prédictif notamment dans pour les sys-tèmes de divertissement en vol (IFE ou In-FlightEntertainment) comme le montre les deux figuresqui suivent.

Cette figure illustre l’usage de la visualisation(visual analytics) de l’information traitée au traversd’un tableau de bord permettant d’avoir une esti-mation de la santé pour la semaine à venir de l’en-semble de la flotte des systèmes IFE.

Pour un système donné, la figure suivante per-met à l’opérateur de maintenance d’identifier lesdifférentes pannes ainsi que leur localisation parsiège.

Juillet 2016 No 93 33

Page 34: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

De plus, pour simplifier les actions de diagnos-tic et de maintenance et renforcer la traçabilité deséquipements, la réalité augmentée s’invite de plusen plus dans les processus de maintien en conditionopérationnelle. Enfin, l’optimisation dynamique dela chaîne logistique (incluant la gestion des piècesde rechange, les plannings des opérateurs, ...) né-cessite d’avoir recours à de nouvelles approches afinde pouvoir prendre en compte les incertitudes et lacomplexité (parfois combinatoire) sous-jacentes àces opérations.

Vision bio-inspirée

L’analyse automatique de contenu vidéo (Com-puter Vision) est une activité clé pour Thales, afinde renforcer l’autonomie des systèmes. En paral-lèle des évolutions actuelles fondées notamment surdes approches de Deep Learning, d’autres conceptsémergent qui s’appuient sur davantage d’informa-tions provenant de capteurs additionnels, et en par-ticulier dans le domaine de la robotique. L’explo-ration visuelle, la découverte, l’identification et larecherche d’objets dans un environnement quel-conque par des robots mobiles restent des pro-blèmes complexes. Dans le cas de scènes simples etrestreintes, d’objets proches et suffisamment sépa-rés, le problème est quasiment résolu. Cependant, lecas où les objets sont situés loin du robot reste ou-vert et est largement étudie aujourd’hui. Une stra-tégie d’attention visuelle efficace est alors indispen-sable, et l’utilisation du contexte peut être d’uneaide précieuse afin de localiser a priori des objetsdans leur environnement.

La figure suivante montre le type de capteurvers lequel amène cette approche bio-inspirée avecla binocularité par exemple.

Les méthodes d’apprentissage sont désormaisincontournables dans le domaine de la détection oude la reconnaissance d’objets dans des images. Ce-pendant, cet apprentissage est le plus souvent réa-lisé d’un seul bloc et n’est pas forcement flexibleface à de nouveaux environnements ou de nou-velles prises de vues. Une autre approche possibleest d’effectuer un apprentissage en continu surun robot, système actif qui, grâce à des capaci-tés de recherche et d’exploration, peut faire preuved’adaptation face à de nouvelles situations ou denouveaux environnements. La robotique dévelop-pementale, puisant son inspiration dans les méca-nismes de développement des enfants, offre despossibilités d’apprentissage incrémental basé surl’expérience et l’exploration. Contrairement à desapproches classiques de détection d’objets où l’en-semble de l’image est traité avec la même impor-tance dans un ordre quelconque, la vision humaineest sélective et séquentielle. Cela signifie que les élé-ments du champ de vision sont traités tour à tourselon leur importance. Ceci se traduit par un dépla-cement du regard vers une zone de l’espace jugéeintéressante (ou saillante) et l’acquisition d’infor-mations fortement résolues grâce a la vision fovéalede l’œil.

34 No 93 Juillet 2016

Page 35: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

La figure suivante montre l’image capteur danslaquelle on regarde une carte de sailance et pourl’autre on présente la trajectoire de l’oeil.

L’Intelligence Artificielle chez Veolia

Veolia Recherche et InnovationServices aux collectivités

http://www.veolia.fr

Jean-Denis [email protected]

Veolia en bref

Le groupe Veolia est la référence mondiale dela gestion optimisée des ressources. Présent sur lescinq continents avec plus de 174 000 salariés, leGroupe conçoit et déploie des solutions pour la ges-tion de l’eau, des déchets et de l’énergie, qui par-ticipent au développement durable des villes et desindustries. Au travers de ses trois activités complé-mentaires, Veolia contribue à développer l’accès auxressources, à préserver les ressources disponibles età les renouveler. Les chiffres remarquables de l’acti-vité de Veolia sont présentés sur la figure suivante.

Veolia a identifié sept thèmes majeurs de rup-ture où les besoins en expertises pointues s’ac-croissent, portés par la pression sur les ressources.Ces secteurs correspondent aux nouvelles frontièresdes métiers de l’environnement, au sein desquelsVeolia possède déjà des références majeures :

- L’économie circulaire, pour faire face aux raretésde matières premières, d’eau ou d’énergie ;

- Les solutions innovantes optimisant le fonction-nement des villes et de leurs services ;

- Le traitement des pollutions les plus difficiles :déchets toxiques, boues de stations d’épuration,eaux usées chargées ;

- le démantèlement : plateformes offshore, na-vires, avions, centrales nucléaires ;

- Le secteur agroalimentaire, soumis à de trèsfortes exigences de qualité et de sécurité sani-taire ;

- L’industrie minière, grosse consommatrice deressources ;

- L’industrie du pétrole et du gaz, soumis à defortes contraintes environnementales.

La Recherche et Innovation du Groupe reposesur 3 piliers :

- une structure R&D interne composée de 3centres de recherche en France fonctionnanten réseau, 3 centres internationaux spécialisés(Varsovie, Pékin et Singapour), 3 plateformes

Juillet 2016 No 93 35

Page 36: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

d’essais (Annet-sur-Marne, Saint-Thibault desVignes, Fujaïrah) et plus de 250 installations pi-lotes,

- un réseau mondial d’innovation interne VIBE(Veolia Innovation BoostEr) permettant à l’en-semble des collaborateurs de proposer des idéesd’innovation,

- une démarche d’innovation ouverte VIA (Veo-lia Innovation Accelerator), programme conçupour repérer plus efficacement les innovationsexternes, apportées en particulier par les start-ups, afin de les mettre en œuvre en assurantleur intégration.

L’Intelligence Artificielle chez Veolia

Une technologie déjà largement déployée

Dès les années 90, des systèmes-experts ontété conçus, développés et déployés chez Veoliapour le monitoring et la gestion des équipementset des réseaux d’eau. Très innovants à l’époque,ces systèmes sont encore en activité aujourd’hui etdonnent toute satisfaction. Ainsi, des systèmes ex-perts de conduite pilotent dans un environnementcomplètement automatisé la production et la dis-tribution journalière d’un million de m3 d’eau po-table pour 4 millions d’habitants de la région pari-sienne. Reliés à des logiciels de contrôle-commanderobustes (100 000 informations d’état et 5 000capteurs analogiques), ces systèmes prennent encompte l’état de disponibilité des installations deproduction et des réseaux de distribution ainsi queles prévision météorologiques pour anticiper sur lesdemandes de tirage des abonnés et adapter lesmoyens de production et le remplissage des ré-servoirs de la Banlieue de Paris. Plus récemment,des systèmes-experts d’analyse en continu des in-formations de maintenance ont été mis en placepour établir de l’aide au diagnostic. Ces systèmespermettent d’optimiser les demandes d’interven-tion des équipes de maintenance. Ainsi, des indi-cateurs tels que le nombre de manoeuvres d’unevanne, les alarmes vibration ou la température d’unepompe sont analysés et peuvent changer la fré-quence des interventions initialement prévues dansle cadre d’une maintenance préventive.

Les développements à venir

L’évolution des technologies numériques offrantde nouvelles opportunités, Veolia anticipe les bou-leversements futurs en accélérant ses activités dansle domaine du numérique et de l’intelligence dessystèmes. Les enjeux sont de plusieurs natures :

- l’augmentation de la performance des installa-tions par une aide aux opérateurs, voire une au-tomatisation de certaines tâches (nettoyage decuves, décontamination, tri de déchets...),

- la surveillance des installations ou des sites et ladétection anticipée des problèmes,

- la gestion prédictive de la demande,- la maintenance prédictive des installations,- le développement des offres futures, qui se tra-duit par la mise en place de nouveaux services ba-sés sur une intégration complète depuis les tech-niciens jusqu’aux consommateurs finaux souscontrainte des prescripteurs.

Toutes les branches de l’intelligence artificiellesont sollicitées pour le développement de ces inno-vations, avec bien sûr une focalisation actuelle sur lacollecte et l’analyse de grands volumes de données(mesures, signaux, images, vidéos. . . ), qui sont desressources clés pour l’optimisation et l’aide à la dé-cision. Conscient de l’importance des technologiesnumériques pour son activité, le groupe s’est en-gagé dans un virage stratégique. Ainsi, à l’occasiondu Salon des maires et des collectivités locales quia lieu à Paris du 31 mai au 2 juin, Veolia a présentétrois nouvelles solutions numériques pour les villes.Leur objectif : accroître la performance des servicesurbains, améliorer le confort de vie des citoyens etcontribuer à l’attractivité des territoires.

Urban Hypervision est un système de gestiondes services urbains qui agrège les informationsen temps réel : données des capteurs, systèmesd’alerte et ordres d’interventions, pour une gestionintelligente des opérations. Celles-ci deviennent in-teractives, moins coûteuses et plus transparentes.

Urban Board est un tableau de bord de la villeintelligente à destination des élus. Il réunit les infor-mations techniques et les flux des réseaux sociaux,avec un objectif : mettre en perspective et relierla performance des services urbains et le ressenti

36 No 93 Juillet 2016

Page 37: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

des habitants sur les quatre thématiques mobilité,sécurité, propreté et environnement.

Urban Pulse fait des citoyens les acteurs dela ville intelligente. Avec cette application téléchar-geable sur les App Stores, le citadin trouve en tempsréel sur son smartphone toutes les informations desa ville. Il peut s’impliquer dans l’économie circu-laire locale : location de voitures, places de parkingpartagées entre particuliers, covoiturage, magasinsd’occasion. . . , agir sur l’empreinte environnemen-tale des infrastructures : collecte triée, apport vo-lontaire dans les déchetteries, alertes fuites. Il s’in-forme sur sa ville : événements, services, loisirs. . .Urban Pulse place le citadin au cœur d’une nouvelleexpérience urbaine : acteur de son confort de vie, il

contribue au bon fonctionnement de la ville et à lapréservation de son environnement.

Pour un grand Groupe comme Veolia, spécialisédans les services aux collectivités, à l’industrie età l’environnement, l’intelligence artificielle devientune technologie-clé. Cette évolution se traduit parun renforcement des capacités de ses centres derecherche dans ce domaine et l’ouverture de nom-breux postes de chercheurs. Et si vous nous rejoi-gniez pour contribuer à l’aventure ?

Avec les contributions de Thierry REGAD, Veo-lia Water, Directeur des Etudes et Projets et AlainSTARON, Veolia, Senior VP Digital Strategy, Of-fers and Partnerships.

Juillet 2016 No 93 37

Page 38: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Compte-rendu de journées, événements et conférences

Atelier sur l’Intelligence Artificielle et la Santé

Par

Fleur MOUGINERIAS - INSERM U1219ISPED - Université de [email protected]

Pierre ZWEIGENBAUMLIMSI - ILESUniversité Paris SudDirecteur de recherche [email protected]

Le 6 juin 2016 a eu lieu à Montpellier, dans lecadre des 27es journées d’Ingénierie des Connais-sances, l’atelier IA et Santé. Son thème por-tait sur les méthodes d’intelligence artificielle, eten particulier d’ingénierie des connaissances, ap-pliquées à l’exploitation des données médicales,dont le nombre n’a cessé d’augmenter au coursde ces dernières années. Cet événement a été sou-tenu par l’Association Française d’Intelligence Arti-ficielle (AFIA) et l’Association française d’Informa-tique Médicale (AIM). Il était co-organisé par FleurMOUGIN du centre INSERM Bordeaux PopulationHealth, Université de Bordeaux, Pierre ZWEIGEN-BAUM du LIMSI-CNRS, Orsay (pour l’AFIA etl’AIM) et Amine ABDAOUI du LIRMM, Montpel-lier. L’atelier IA et Santé était la deuxième jour-née commune organisée conjointement par l’AFIAet l’AIM, et s’inscrivait dans la lignée d’une série dejournées organisées depuis 2011 sur l’ingénierie desconnaissances en santé.

L’objectif de l’atelier était de débattre des ver-rous liés à la modélisation, la structuration et l’ex-traction des connaissances, la recherche d’informa-tion et la fouille de données de santé de tous types.Ces questions ont été abordées dans une confé-rence invitée puis des présentations de travaux té-moignant de la vitalité et de la diversité de la re-cherche en France dans ce domaine à l’université,dans les centres hospitalo-universitaires, au CNRS,à l’Inserm et à l’INSEE ainsi que dans les entre-prises.

La présentation de l’orateur invité, Kevin B.COHEN (University of Colorado, School of Me-dicine), a illustré les différences et similarités deslangues médicales clinique et scientifique au traversd’exemples multiples. Kevin B. COHEN a discutédes caractéristiques de ces deux variétés de langueset a démontré l’utilité des techniques de traitementautomatique des langues combinées aux ontologiespour accéder à leur sens.

La première session, intitulée « Conception etexploitation d’ontologies », était constituée de troisprésentations. Dans le premier exposé, Sonia CAR-DOSO a présenté la conception d’une ontologiepour modéliser les parcours de santé dans le cadred’une maladie neurodégénérative (la sclérose la-térale amyotrophique). L’approche suivie combineune première étape automatique utilisant le logi-ciel BIOTEX pour extraire des candidats termesà partir de documents textuels et une secondeétape manuelle pour organiser les connaissances ex-

Page 39: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

traites. Vincent J. HENRY a ensuite décrit OMI-COnto qui vise à indexer des outils d’analyse dedonnées omiques. Cette ontologie a été mise enœuvre principalement de manière manuelle à par-tir des connaissances et données du site InternetOMICtools ; le portail HeTOP a permis d’alignerautomatiquement le contenu d’OMICOnto vers desterminologies biomédicales de référence. Enfin, Ra-bia AZZI a exposé l’extraction d’ingrédients — pastoujours formulés explicitement — et leur état àpartir de recettes de cuisine afin d’estimer, dans undeuxième temps, la valeur nutritionnelle d’une re-cette de cuisine. Pour cela, une ressource termino-ontologique du domaine de la cuisine déjà existantea été exploitée puis les ingrédients retrouvés ont étécherchés dans la base de données Nutrinet pour enestimer la valeur nutritive.

La deuxième session concernait les travaux enlien avec l’apprentissage et la fouille de données.Dans le premier exposé, Stéphanie COMBES a pré-senté des techniques d’apprentissage supervisé utili-sées pour prédire le risque de récidive après une ten-tative de suicide. En particulier, un classifieur bayé-sien naïf, une régression logistique et des arbres dedécision ont été testés sur des données réelles col-lectées lors d’une enquête sur 6 ans effectuée enRhône-Alpes. La deuxième présentation n’a finale-ment pas eu lieu en raison des grèves de train. Elleconcernait une méthode de classification des diffé-rents stades du sommeil à partir d’enregistrementspolysomnographiques à l’aide d’un système expert.Le dernier orateur, Gabin PERSONENI, a présentéune méthode basée sur les structures de patronscouplées à une ou deux terminologies (CIM9CMet ATC) pour identifier des effets indésirables de

médicaments fréquemment associés dans des sous-groupes de patients. Ce travail a été réalisé sur desdonnées issues de l’entrepôt de données cliniquesde l’hôpital universitaire de Stanford.

Enfin, la dernière session était dédiée à l’ali-gnement de ressources termino-ontologiques. Lapremière présentation, réalisée par Solène EHO-LIÉ, s’est attachée à décrire la formalisation enSKOS d’un vocabulaire patient/médecin (préala-blement constitué à partir de médias sociaux). Dansun deuxième temps, deux approches d’alignementde cette ressource avec des terminologies médicalesde référence ont été utilisées : un alignement directgrâce à SIFR-BioPortal et un alignement indirectvia une ressource généraliste : le Wiktionnaire. Me-lissa MARY a ensuite exposé un travail sur l’aligne-ment de deux terminologies biomédicales de réfé-rence : LOINC et SNOMED CT dans le cadre dudiagnostic in vitro. Pour cela, des méthodes de simi-larité syntaxique, une méthode de similarité séman-tique et une approche heuristique ont été étudiéeset évaluées par rapport aux alignements proposéspar l’IHTSDO. Jean-Noël NIKIEMA a clos l’atelierpar la comparaison de deux approches visant à éva-luer si la SNOMED CT pouvait être utilisée commeterminologie de support afin d’aligner la CIM10 etla CIMO3. La première approche exploitait des ali-gnements fournis par la SNOMED CT elle-mêmetandis que la seconde se basait sur le NCI Metathe-saurus.

La journée a été riche avec des présentationsde qualité et de nombreuses questions de la partdes participants. Elle a réuni une trentaine de per-sonnes.

Les 12es Journées Francophones de Programmation par Contraintes

Par

Emmanuel HEBRARDGroupe ROC, LAAS-CNRSLAAS-CNRS [email protected]

Les Journées Francophones de Programmationpar Contraintes (JFPC) sont le principal congrès

de la communauté francophone travaillant sur lesproblèmes de satisfaction de contraintes (CSP),le problème de la satisfiabilité d’une formule lo-gique propositionnelle (SAT) et/ou la programma-tion logique avec contraintes (CLP). La commu-nauté de programmation par contraintes entretientégalement des liens avec la recherche opération-

Juillet 2016 No 93 39

Page 40: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

nelle (RO), l’analyse par intervalles, et différentsdomaines de l’intelligence artificielle.

L’efficacité des méthodes de résolution et l’ex-tension des modèles permet à la programmationpar contraintes de s’attaquer à des applicationsnombreuses et variées comme la logistique, l’or-donnancement de tâches, la conception d’emploisdu temps, la conception en robotique, l’étude dugénome en bio-informatique, l’optimisation de pra-tiques agricoles, etc.

Les JFPC se veulent un lieu convivial de ren-contres, de discussions et d’échanges pour la com-munauté francophone, en particulier entre docto-rants, chercheurs confirmés et industriels. L’impor-tance des JFPC est reflétée par la part considérable(environ un tiers) de la communauté francophonedans la recherche mondiale dans ce domaine.

Ces journées sont pilotées par l’Associa-tion Française de Programmation par Contraintes(AFPC) présidée par Cédric PIETTE. Elle sont or-ganisées par un comité local, cette année présidépar Philippe VISMARA, et le programme est définipar un comité de relecture renouvelé chaque annéeet présidé en 2016 par Emmanuel HEBRARD.

Déroulement du congrès

Les journées ont rassemblé environ 80 partici-pants du 15 au 17 juin sur le site de MontpellierSupAgro, pour 34 exposés techniques et 3 exposésinvités.

Les exposés techniques se sont déroulés enneuf sessions organisées selon les thèmes suivants :Ordonnancement, Modélisation, Contraintes detable, Apprentissage & fouille de données, SAT,Contraintes globales, Métaheuristiques & paral-lélisme, Reformulation et Complexité, auxquelless’ajoutaient une session « meilleur article » (voir lasection Prix JFPC) ainsi qu’une session consacréeà la compétition organisée pour CP 2016.

Chacun des trois jours débutait par un exposéinvité :

Le premier jour, Malik GHALLAB, directeur duLAAS de 2003 à 2006, a présenté ses travaux pas-sés et récents sur des approches de type CSP pourla planification de tâches sous incertitude. Dansce cadre on distingue les évènements contingentsdes variables dites « contrôlables », c’est-à-dire que

l’agent doit pouvoir fixer en fonction des évène-ments aléatoires survenus. Il a ensuite montré com-ment, dans des travaux plus récents, il a pu rajou-ter la notion d’observabilité des évènements contin-gents au cadre existant. En effet, ceux-ci peuventêtre cachés, même lorsqu’ils sont révolus et il fautdonc distinguer les évènements aléatoires connus aposteriori (observables) de ceux qui ne le sont pas.

Le deuxième jour, Benoit ROTTEMBOURG,directeur associé Pricing & Revenue Manage-ment à Eurodecision, a présenté les problèmesde contraintes induits par les systèmes de « pri-cing ». L’internet représente aujourd’hui en France700 millions d’actes d’achat par an, pour un mon-tant proche de 60 milliards d’euros, soit 9 pourcent de nos achats (hors alimentation). Il a illus-tré quelques-uns des principaux mécanismes qui ex-pliquent la difficulté de la fixation des prix et a pré-senté les algorithmes utilisés pour résoudre ce pro-blème.

Enfin, le troisième jour, Johan THAPPER,maître de conférences à l’université Paris-Est, nousa présenté ses résultats récents, en particulier la ca-ractérisation complète de la complexité des classesde CSP pondérés définies par langage. Il a entreautre montré la « puissance » de la cohérence d’arcet des généralisations de celle-ci pour les CSP pon-dérés, ainsi que leurs liens avec la programmationlinéaire.

Les exposés de Malik GHALLAB et JohanTHAPPER étaient communs avec les journées del’IAF.

Les journées accueillaient, comme chaque an-née, l’assemblée générale de l’AFPC au cours delaquelle une partie du bureau a été renouvelée, et laville d’accueil des prochaines journées a été décidée(Lens) ainsi que le prochain président du comité deprogramme (Frédéric LARDEUX).

Finalement, le prix AFIA de la meilleure contri-bution aux douzièmes Journées Francophones deProgrammation par Contraintes (JFPC 2016) a étéattribué conjointement à Eric Piette pour son ar-ticle intitulé « Programmation par contraintes sto-chastiques pour le General Game Playing avec infor-mations incomplètes » et à Clément Carbonnel pourson article intitulé « Le méta-problème des langagesMal’tsev conservatifs » (voir la section Prix JFPC).

40 No 93 Juillet 2016

Page 41: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Les 27es Journées Francophones d’Ingénierie des Connaissances

Par

Sandra BRINGAYLIRMM / ADVANSEUniversité de Montpellier 3Enseignant [email protected]

Les 27es journées francophones d’Ingéniériedes Connaissances IC’2016 organisées par SandraBRINGAY (présidente du comité d’organisation)et par Nathalie PERNELLE (LRI, UPS, présidentedu Comité de Programme) se sont déroulées auLIRMM (Laboratoire d’Informatique, de Robotiqueet de Microélectronique de Montpellier) UMR 5506du 6 juin au 10 juin 2016. Elles ont regroupé 92 par-ticipants sur la semaine malgré un bon nombre dedéfections qui ont eu lieu pour cause de grève na-tionale d’envergure de la SNCF. L’AFIA supportela conférence et offre une réduction sur le prix desinscriptions.

La conférence d’Ingénierie des Connaissancesest le rendez-vous privilégié de la communauté fran-cophone qui s’intéresse aux problématiques liées àl’ingénierie des connaissances. Chercheurs acadé-miques, industriels et étudiants s’y retrouvent pouréchanger sur des thématiques de recherche propresà l’acquisition, à la représentation ou à la gestiondes données et des connaissances. Ces 27es jour-nées francophones d’Ingénierie des Connaissancessont organisées sous l’égide du collège IC de l’AFIA.

À l’heure du numérique, les données et les ou-tils se multiplient mais assurer un accès intelligentaux données reste un défi et ce malgré les langageset les technologies qui sont maintenant à disposi-tion des informaticiens et des experts de domaine.Partager des données et des connaissances au seind’une communauté, d’une entreprise ou sur le websuppose leur explicitation, leur représentation, leurmise en relation, leur diffusion, leur maintenance.L’ingénierie des connaissances est au cœur de cesproblématiques.

Thèmes de la conférence

- Construction de modèles de connaissances- Construction ou enrichissement d’ontologies

- Ontologies fondatrices, Ontologies de domaines,Terminologies

- Représentation des connaissances- Acquisition de données, Peuplement d’ontolo-gies, Annotation sémantique

- Raisonnement- Ingénierie des connaissances et Fouille de don-nées

- Ingénierie des connaissances et Recherche d’in-formation

- Réutilisation, Interopérabilité, Intégration, Diffu-sion de données et de connaissances

- Web sémantique et Web des données, Web so-cial

- Ingénierie des systèmes collaboratifs, Crowd-sourcing

- Qualité des données et des connaissances- Propriété et Sécurité dans les systèmes à basede connaissances

- Ingénierie des Connaissances et données com-plexes : données multimédia, multilingues, tem-porelles, spatiales, multi-échelles, imprécises ouincertaines

- Évolution des données et des connaissances- Visualisation de données et de connaissances- Approches interdisciplinaires de l’ingénierie desconnaissances

- Applications : applications et retours d’expé-rience dans les domaines des sciences de la vie,de l’agriculture, de la culture, de l’éducation, del’industrie, de l’économie, du droit, etc.

Soumissions et processus de sélection

Parmi les 31 soumissions déposées, le comité aretenu 14 articles longs et 7 articles courts. De plus,5 posters et 3 démonstrations ont été retenus afind’être présentés lors d’une session dédiée.

Invités : Trois conférenciers invités ont exposé.

Juillet 2016 No 93 41

Page 42: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

- Mathieu D’AQUIN (Open University, KMI)- Sebastien MUSTIERE (IGN, COGIT)- Mathieu ROCHE (CIRAD, TETIS)

Une biographie précise des invités est disponibleici.

Programme

La semaine a été organisée autour de :

- 5 sessions lien vers le Programme de la confé-rence

- 3 ateliers : IA &Santé (voir la section Atelier IAet Santé), SoWeDo, IN-OVIVE

- 2 tutoriels- 1 session d’introduction aux posters et démons-trations

- 1 session posters et démonstrations

Publication des actes

Les actes du colloque et des ateliers ont été dis-tribué sous format numérique sur clé USB pour tousles participants au format électronique. Ils serontdisponibles ultérieurement sur HAL. Par ailleurs,Les auteurs des meilleurs articles seront invités àsoumettre une version étendue pour un numéro spé-cial de la Revue d’Intelligence Artificielle.

Comité d’Organisation

Amin Abdaoui (LIRMM UM-CNRS), JérômeAzé (LIRMM UM-CNRS), Erick Cuenca (LIRMMUM-CNRS), Samiha Fadloun (LIRMM UM-CNRS)Dino Ienco (Irstea, TETIS), Vijay Ingalalli (LIRMMUM-CNRS), Clément Jonquet (LIRMM UM-CNRS), Lynda Khiali (TETIS, LIRMM UM-CNRS),Pierre Larmande (IRD), Jessica Pinaire (LIRMMUM-CNRS), Pascal Poncelet (LIRMM UM-CNRS),Pierre Pompidor (LIRMM UM-CNRS), MathieuRoche (Cirad, TETIS), Arnaud Sallaberry (LIRMMUM-CNRS, UPVM), Mike Donald Tapi Nzali

(LIRMM UM-CNRS), Maguelonne Teisseire (Irs-tea, TETIS), Sarah Zenasni (TETIS et LIRMMUM-CNRS).

Prix

Liste des papiers nominés :

- Fabien Amarger, Jean-Pierre Chanet, RomainGuillaume, Ollivier Haemmerlé, Nathalie Hernan-dez et Catherine Roussey. Détection de consen-sus entre sources et calcul de confiance fondésur l’intégrale de Choquet.

- Valentina Beretta, Sébastien Harispe, SylvieRanwez et Isabelle Mougenot. Utilisation d’on-tologies pour la quête de vérité : une étude ex-périmentale.

- Cédric Lopez, Farhad Nooralahzadeh, Elena Ca-brio, Frédérique Segond et Fabien Gandon. Pro-Voc : une ontologie pour décrire des produits surle Web.

- Nicolas Seydoux, Khalil Drira, Nathalie Hernan-dez et Thierry Monteil. Rôle d’une base deconnaissance dans SemIoTics, un système au-tonome contrôlant un appartement connecté.

Le Prix du meilleur papier étudiant (sponsorAFIA) a été decerné à Valentina BERETTA pourl’article « Utilisation d’ontologies pour la quête devérité : une étude expérimentale » (voir section PrixIC).

Le Prix du meilleur papier (sponsor NUMEV) aété décerné à Nicolas SEYDOUX, Khalil DRIRA,Nathalie HERNANDEZ et Thierry MONTEIL pourl’article « Rôle d’une base de connaissance dans Se-mIoTics, un système autonome contrôlant un ap-partement connecté ».

42 No 93 Juillet 2016

Page 43: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Workshop on Ontology, Reasoning, Knowledge and Semantic Web

Par

Myriam LAMOLLELIASD (IRI)Université Paris 8Maître de Conférences en [email protected]

Synthèse générale

Le Workshop on Ontology, Reasoning, Know-ledge and Semantic Web (WORKS-Web) est un sé-minaire qui a pour thème « le Web sémantique » et,par conséquent, les nouvelles avancées sur les on-tologies, le raisonnement, la production de connais-sances et la recherche d’informations que ce soitdans le monde académique et/ou le monde indus-triel.

Aujourd’hui, l’Intelligence Artificielle devient in-contournable pour la recherche d’information etpour déduire de nouvelles connaissances souventimplicites à partir de connaissances explicites. Dansce contexte, l’utilisation d’ontologies pour la com-préhension, le stockage, le partage, l’intégration desinformations et l’aide à la décision est de plus enplus fréquente. Les bénéfices de cette utilisationtouchent tous les domaines : médecine, génétique,géographie, etc.

Cependant, différentes problématiques restentencore à solutionner et de nouvelles font jour. Ceséminaire veut être un carrefour de rencontres etd’échanges entre académiques, industriels, et touttype d’utilisateurs curieux de découvrir différentsdomaines et d’échanger sur le présent et le futurdes ontologies.

L’objectif de WORK-Web est d’être un lieude rencontre et de discussion pour des chercheursde diverses disciplines, impliqués ou non dans lesthèmes évoqués ici et intéressés à mieux appréhen-der les enjeux et les méthodes associées aux Websémantique ; intéressés aussi à contribuer à ouvrirde nouvelles interdisciplinaires.

Ce séminaire, prévu sur une journée, a comportédes exposés sollicités au sein des membres de lacommunauté du Web sémantique et du milieu in-dustriel destinés à préciser la thématique générale,et des exposés sélectionnés pour le Forum « Jeunes

Chercheurs » auprès d’étudiants en 1re ou 2e an-née de thèse. Pour ces derniers, il était demandéun résumé de quatre pages maximum proposant unexposé explorant une des facettes des thématiquesprécédentes avec une perspective générale ou inter-disciplinaire, ou au contraire avec mise en évidenced’aspects spécifiques, et ceci quelle que soit la dis-cipline considérée.

L’ensemble des interventions avec les supportsde présentation sont disponibles en ligne.

Présentation du programme de lajournée

Chaque intervention a été suivie d’une séancede questions ; de plus, une table ronde en fin dejournée a récapitulé les problématiques abordées etouvert quelques possibilités futures.

Session 1 : Représentation de connaissanceset linguistique

- Christian FLUHR, Text Mining de données per-sonnelles - Aspects techniques et déontolo-giques. Les différents problèmes techniques à ré-soudre dans le cadre de l’extraction, à partir detextes en différentes langues, de données struc-turées concernant des personnes sont présentésà partir de l’expérience acquise par notre sociétédans le cadre de plusieurs projets. L’aspect tech-nique n’est pas le seul à prendre en compte pource type de R&D. Les aspects légaux et déonto-logiques doivent être considérés tant lors de laphase de recherche que dans celle de la valorisa-tion sous forme de produits ;

- Brigitte SAFAR, Annotation sémantique de do-cuments. Dans notre contexte où les conceptsutilisés pour l’annotation traduisent des besoinsutilisateurs et sont donc très spécifiques, la tâched’annotation est confrontée à une triple diffi-culté : 1) les concepts utilisés pour l’étique-tage n’ont pas de réalisations terminologiquesdirectes dans les documents, 2) leurs définitionsformelles ne sont pas connues au départ, 3)toutes les informations nécessaires ne sont pas

Juillet 2016 No 93 43

Page 44: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

présentes dans les documents mêmes. La solu-tion proposée s’appuie sur une ontologie, la re-cherche d’information sur le LOD et des tech-niques d’apprentissage.

Session 2 : Forum « Jeunes Chercheurs »

- Azziz ANGHOUR, Une plate-forme multi-agentsde construction et de pilotage de parcours deformations. Dans ce travail, nous proposons uneméthodologie de génération de parcours et deleur pilotage dans un contexte multi-utilisateurs.Cette méthodologie est fondée sur trois élé-ments principaux, (i) la construction d’un graphehiérarchique des grains pédagogiques en fonc-tion du réseau de pré-requis entre ces grains.(ii) la synchronisation, par un système multi-agents, des apprenants de même niveau sur cer-tains grains pédagogiques en vu d’un apprentis-sage collectif. (iii) la recommandation des res-sources pédagogiques les plus adaptées. Cetterecommandation utilise un ensemble de critèresprenant en compte à la fois les profils des appre-nants, les caractéristiques des ressources péda-gogiques mais aussi les appréciations des utilisa-teurs sur ces dernières. Toutes ces informationssont modélisées par deux ontologies principales àsavoir l’ontologie des profils-utilisateurs et l’on-tologie des formations.

- Matthieu CARRÉ (prix du meilleur articleAFIA voir section prix WORKS-web) Utilisationd’ontologie pour la construction et la vérifica-tion de cohérence des cas d’usage détectés parle véhicule autonome. Ce travail porte sur les sys-tèmes d’aide à la conduite et la gestion des tech-nologies associées à la détection de l’environne-ment automobile pour une conduite autonome.La sûreté de la conduite est assurée par le res-pect d’exigences fonctionnelles et par la prise encompte et l’intégration des paramètres du com-portement humain et des patrons contextuelsd’usage. L’approche préconisée adopte le para-digme « Autonomic Computing ». L’utilisationd’ontologie a pour but de permettre l’interopé-rabilité entre les différentes instances de monito-ring de ressources et la détection de symptômesafin de proposer des planifications et d’exécu-

tion de remédiations présentes dans la base deconnaissance.

- Thinh DONG, Révision d’ontologies OWL ex-pressives. Les applications fondées sur la séman-tique, encapsulent souvent un ensemble d’onto-logies qui représentent les connaissances impli-quées dans différentes sources de données. Cer-taines de ces ontologies évoluent constammentcar, non seulement les données sont mises à jour,mais aussi l’environnement des applications etles besoins des utilisateurs sont modifiés au coursdu temps. Nous cherchons à traiter les incohé-rences en obtenant une ontologie révisée qui de-vrait (i) prendre en compte la nouvelle connais-sance, (ii) rester cohérente, (iii) être exprimabledans le langage de l’ontologie initiale, et (iv)changer le moins possible par rapport à l’ontolo-gie initiale.

- Adel GHAMNIA, Extraction de relationsd’hyperonymie à partir de documents semi-structurés. L’objectif de notre travail est d’ex-ploiter au mieux des pages semi-structuréestelles que Wikipedia, en prenant en compte àla fois le texte rédigé qu’elles contiennent etleur structure logique, pour identifier un typeparticulier de connaissances, les relations d’hy-peronymie (is-a , instance-of ), utilisées dans uneontologie pour typer les entités et les instances.Nous montrons qu’il est ainsi possible d’iden-tifier de nouvelles relations non présentes dansune base de connaissances en exploitant le texterédigé et en prenant en compte sa structure.Notre expérimentation se base sur l’exploita-tion des pages Wikipédia pour enrichir la versionfrançaise de DBPedia.

- Franck GOUINEAU, Real Time Recommenda-tion Tool in an Enterprise Social Network. Cetteprésentation est une vue générale sur les diffé-rents types de systèmes pour répondre à un pro-blème commun : Recommandation temps réeldans un Réseau social d’entreprise. Les systèmesde recommandation peuvent être classés en 3groupes : à filtrage collaboratif, basé contenu,hybride. L’intégration de ces systèmes dans lesréseaux sociaux d’entreprise (ESN) a pour butde faciliter le travail des collaborateurs et de leurfaire gagner du temps ; par exemple, lors du trai-tement de leurs courriels. Nous voulons aussi uti-

44 No 93 Juillet 2016

Page 45: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

liser des approches de web sémantique utilisantl’ontologie ESN et en construisant notre propresystème analytique par du TAL pour obtenir desrecommandations encore plus précises pour lesutilisateurs finaux.

Session 3 : Applications

- François-Paul SERVANT, Utilisation des tech-niques du Semantic Web chez Renault. Les tech-niques du web de données sont utilisées par Re-nault dans un certain nombre d’applications quiont pour point commun de publier les donnéesqu’elles gèrent. En ce qui concerne les SI de l’en-treprise, la mise en œuvre des principes des Lin-ked Data, associée à la modélisation des don-nées en RDF, facilite l’agrégation, l’échange,la réutilisation et l’enrichissement des données,tout en améliorant leur pérennité. Ceci diminuele coût de l’accès aux données. Ces techniquessont aussi utilisées pour publier, sur le web, unedescription de l’offre commerciale Renault sousforme de données liées. Nous montrerons com-ment les moteurs de recherche pourraient uti-lement indexer ces données, dans le cadre deschema.org.

- Ghislain ATEMEZING, Making sense ofContent. Cette présentation a pour but prin-cipal de montrer l’importance du Web séman-tique dans les choix technologiques de Mondeca,une PME d’édition de solutions sémantiques. Enpartant de problèmes concrets liés aux sourcesde données hétérogènes ; nous montrons quedes solutions basées sur les ontologies apportentde la valeur ajoutée pour une gestion efficace

de l’information. Des applications dans diversdomaines (santé, média, géographie, tourisme)montrent que l’avenir passe par la maîtrise desmétadonnées. Pour cela, les standards du W3Capportent de la souplesse dans la transformationde la donnée brute en connaissances pour denouvelles applications innovantes.

- Mario CATALDI, Chan LE DUC, Aurélien BOS-SARD, Évaluation et prédiction de centralité degroupes de recherche. Dans cette présentationnous proposons un nouveau modèle hybride vi-sant (i) à évaluer les collaborations scientifiquesd’un groupe au fil du temps et (ii) à estimer sacentralité dans la communauté à partir de l’ana-lyse précédente. Ce nouveau modèle utilise l’ex-pressivité apportée par une modélisation onto-logique des collaborations au travers de publi-cations scientifiques et des thématiques traitéespermettant, selon les besoins, d’extraire des in-formations selon des points de vue différents. Lesrelations entre les groupes de recherche et lesthématiques sont ensuite modélisées au traversd’un graphe de collaboration qui sera exploitépour estimer la centralité de chaque groupe dansce réseau de contributeurs.

Table ronde

Les trois points principaux abordés ontconcerné :

- le traitement de l’information (annotation, enri-chissement, etc)

- le raisonnement et les performances associées,- les utilisations et les applications à venir dans ledomaine du Web sémantique.

Juillet 2016 No 93 45

Page 46: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Prix AFIA

Trois prix financés par l’AFIA ont été décernés par des conférences ce trimestre :

- le prix IC’2016 attribué à Valentina BERETTA pour son article « Utilisation d’ontologies pour la quêtede vérité : une étude expérimentale »,

- le prix JFPC’2016 attribué conjointement à Eric PIETTE pour son article intitulé « Programmation parcontraintes stochastiques pour le General Game Playing avec informations incomplètes » et à ClémentCARBONNEL pour son article intitulé « Le méta-problème des langages Mal’tsev conservatifs ». Ceprix récompense un étudiant auteur principal sur la base de l’article soumis ainsi que sur la présentationqui en est faite lors du congrès. Il est attribué par vote du comité de programme (pour l’article) et del’auditoire (pour la présentation).

- le prix WORKS-Web’2016 attribué à Matthieu CARRÉ pour l’article « Utilisation d’ontologie pour laconstruction et la vérification de cohérence des cas d’usage détectés par le véhicule autonome ».

Prix IC 2016 - Utilisation d’ontologies pour la quête de vérité : uneétude expérimentale

Par

Valentina BERETTALGI2PEcole des mines d’Alès, Site de Nî[email protected]

Co-auteurs : Sébastien HARISPE et SylvieRANWEZ du LGI2P et Isabelle MOUGENOT,UMR Espace-Dev, Université de Montpellier.

Problématique

Aucune source d’information n’est aussi proli-fique que le Web, et ce pour plusieurs raisons. D’unepart la collecte et le partage de données sont faci-lités par des avancées technologiques (e.g. objetsconnectés). D’autre part la liberté de publicationincite chacun à être fournisseur de contenu, parexemple sur les réseaux sociaux ou les plateformes

collaboratives gratuites et publiques telles que Wi-kipédia, pour ne citer que quelques exemples. Or cequi parait être un avantage pour de nombreuses ap-plications qui tirent parti des ressources accessiblessur le Web pour peupler des bases de connaissanceset inférer de la connaissance peut vite atteindre seslimites si la validité des informations n’est pas priseen compte lors de ces traitements. Dans ce cas, lesmoteurs d’inférence et les raisonneurs peuvent eneffet amener à de mauvaises conclusions et impac-ter négativement les performances de certains sys-tèmes, voire inciter l’utilisateur à prendre de mau-vaises décisions. C’est ce qui a conduit à l’émer-gence de nombreux travaux dédiés à la recherchede vérité (ou détection de vérité – truth-finding enanglais). L’objectif principal de la découverte de vé-rité est d’identifier la « vérité », parmi un ensemble

1. On appelle fait un triplé <sujet, prédicat, valeur>.

Page 47: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

de propositions (faits 1) potentiellement contradic-toires.

Approches classiques et limites

Le principe de base est de considérer que lessources qui fournissent des informations vraies leplus souvent, vont être associées à un fort degréde fiabilité et que les informations fournies par detelles sources sont supposées dignes de confiance.Ainsi, un processus itératif peut être mis en placepour déterminer ces différents degrés de fiabilité etde confiance et sélectionner, à terme, la proposi-tion en laquelle on a le plus confiance et qui seraconsidérée comme vraie.

La plupart des modèles existants partent dupostulat qu’une seule valeur peut être vraie parmicelles proposées par les différentes sources. Pour-tant, dans la majorité des cas, les valeurs proposéesne sont pas indépendantes. Un ordre partiel sur cesvaleurs peut exister. Par exemple parmi les proposi-tions suivantes, deux valeurs seulement entrent enconflit :<Pablo Picasso, bornIn, Spain><Pablo Picasso, bornIn, Europe><Pablo Picasso, bornIn, Malaga><Pablo Picasso, bornIn, Granada>En effet, Granada et Malaga étant deux villes

distinctes, elles ne peuvent être considérées toutesles deux comme étant vraies. Or avec une connais-sance ontologique du domaine, il est possible dedéterminer que Malaga et Granada sont toutes lesdeux en Espagne et donc en Europe. C’est la priseen compte de cette connaissance que nous désironsajouter aux modèles existants.

Contribution

Cet article propose une nouvelle modélisationde la problématique de détection de vérité dansune base de faits, qui tient compte de la mo-délisation de la connaissance d’un domaine (on-tologie). Notons que nous restons bien dans lecas de prédicats fonctionnels, i.e. pour lesquels iln’existe dans l’absolu qu’une seule valeur vraieen considération d’un degré de précision donné(e.g. une ville de naissance est unique), mais où

d’autres valeurs avec des degrés de précision diffé-rents peuvent être proposées (e.g. le pays, le conti-nent). En effet, pour mieux répondre à des problé-matiques du monde réel, il est nécessaire de consi-dérer que différentes valeurs associées à des des-criptions de certaines entités ne sont pas nécessai-rement concurrentes, mais peuvent dans certainscas résulter de variation dans le degré d’impré-cision associé aux valeurs. Ceci correspond à laplupart des contextes où une terminologie tech-nique est utilisée. Si l’on reprend l’exemple décritavant, les deux faits <Pablo Picasso, bornIn, Gra-nada> et <Pablo Picasso, bornIn, Malaga> sup-portent les deux faits plus généraux <Pablo Pi-casso, bornIn, Spain> et <Pablo Picasso, bornIn,Europe>. En d’autres termes, les faits plus géné-raux qu’un fait considéré comme vrai seront néces-sairement, eux aussi, toujours vrais. Dans ces cas,un ordre partiel peut être considéré sur les valeurscandidates sans forcément que celles-ci entrent enconflit. Ainsi pour une entité donnée et une des-cription qui y est rattachée, nous proposons enensemble de valeurs vraies (valeurs non conflic-tuelles).

Cet ensemble est construit en utilisant la pro-pagation de confiance, inspirée par les approchesde la théorie des croyances, appliquée à des mé-thodes traditionnelles de recherche de vérité. Laméthode Sums par exemple, adopte une procé-dure itérative dans laquelle le calcul de la fiabilitéassociée à une source et le calcul de la confianceassociée à un fait sont calculés de façon alternéejusqu’à convergence. À chaque itération i , la fia-bilité associée à une source, t i(s), est évaluée ensommant les confiances sur les faits qui lui sont as-sociés. De façon similaire, la confiance associée àun fait, c i(f ) est évaluée en sommant les fiabilitésdes sources qui expriment ce fait. À chaque ité-ration une étape de normalisation est appliquée :t i(s) et c i(f ) sont divisés par maxs∈S

(t i(s)

)et

maxf ∈F(c i(f )

)respectivement. L’approche Sums

peut être adaptée à notre problématique en mo-difiant le calcul de la confiance d’un fait considé-rant l’ensemble des sources qui proclament un faitdonné et des sources qui proclament des faits plusspécifiques.

Une évaluation, basée sur la génération detests synthétiques (60 jeux de données de 3 types

Juillet 2016 No 93 47

Page 48: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

distincts) et sur l’analyse du taux d’erreur dansl’estimation de la fiabilité des sources connue apriori, a été menée. Les résultats montrent qu’uneadaptation des méthodes traditionnelles qui in-tègre la prise en compte d’une structuration entreles valeurs, au travers d’une ontologie de domaine,conduit à de meilleurs résultats : le taux d’erreurest sensiblement diminué.

Prise en compte d’un ordre partiel sur les valeursassociées au lieu de naissance de Pablo Picasso (icideux relations sont considérées : isA et partOf)

Résultat sur une adaptation de la méthode Sumsqui tient compte de cet ordre partiel (diminutiondu taux d’erreur en fonction de différents jeux detests ; la méthode Sums est représentée en gris etla méthode adaptée en blanc)

Par ailleurs, nos résultats montrent que cetteapproche semble être plus robuste, car moins sen-sible à la nature des jeux de données utilisés. Cetteétude préliminaire souligne l’apport que constituela prise en compte de l’ordre partiel défini entreles ressources d’une ontologie dans la détection devérité et ouvre de nombreuses perspectives quantà l’apport que peut constituer l’utilisation de re-présentations des connaissances pour ce domaine.

Prix JFPC 2016 (ex-aequo) : Le meta-problème des langages Mal’t-sev conservatifs

Par

Clément CARBONNELLAAS-CNRS, Université de Toulouse, INPToulouse, [email protected]

Résumé

Les polymorphismes Mal’tsev définissent uneimportante famille de langages traitables qui géné-ralisent les équations linéaires. Dans ce papier, nousnous intéressons au méta-problème associé : étantdonné un langage de contraintes Γ, Γ admet-il unpolymorphisme Mal’tsev ? Bien que nous ne soyonspas en mesure d’établir la complexité de ce pro-blème dans toute sa généralité, nous présentons un

algorithme polynomial dans le cas où le polymor-phisme est conservatif. Ce papier est un résuméd’un article présenté à AAAI-16 [4].

Contexte

L’approche algébrique des problèmes de satis-faction de contraintes consiste à étudier la com-plexité des langages de contraintes par le biais deleurs polymorphismes, c’est-à-dire des opérationsqui préservent les relations. Cette approche a ététrès fructueuse et a abouti par exemple à la clas-sification complète de la complexité des langagesqui contiennent toutes les relations unaires sur leurdomaine [3].

Si l’on dispose d’une opération f : Dk → D, on

48 No 93 Juillet 2016

Page 49: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

peut définir une opération f ∗ qui agit sur des tuplesde valeurs en appliquant f composante par com-posante. On dit alors que f est un polymorphismed’une relation R si appliquer f ∗ à n’importe quellecombinaison de k tuples de R produit toujours untuple de R. Par extension, f est un polymorphismed’un langage s’il est polymorphisme de chacune deses relations.

De nombreuses conditions suffisantes pourqu’un langage soit traitable ont été identifiéesen termes d’existence d’un ou plusieurs polymor-phismes ayant des propriétés particulières ; on peutciter par exemple les polymorphismes de majoritéou les polymorphismes binaires associatifs, commu-tatifs et idempotents [6].

Langages Mal’tsev

Un polymorphisme ternaire est Mal’tsev s’il sa-tisfait f (y , x, x) = f (x, x, y) = y pour tout x, y ∈D. Par exemple, l’opération f (x, y , z) = x − y + z

est Mal’tsev, et de manière générale toutes les re-lations équivalentes à une conjonction d’équationslinéaires sur un corps fini admettent un polymor-phisme Mal’tsev. Il a été démontré que tout lan-gage qui admet un polymorphisme Mal’tsev induitun CSP pouvant être résolu en temps polynomial[2]. Le principe fondamental est qu’une relationMal’tsev peut être encodée en ne gardant qu’unfaible nombre de tuples ; la relation d’origine estalors la clôture de ces tuples par le polymorphismeMal’tsev. L’algorithme pour résoudre un CSP surun langage Mal’tsev part d’une instance sans au-cune contrainte, puis ajoute les contraintes une parune en gardant à chaque étape une représentationcompacte de l’ensemble des solutions (qui est lui-même une relation Mal’tsev). La figure ci-dessousillustre la notion de représentation compacte.

Exemple de représentation compacte. La clôture dece graphe orienté par n’importe quelle opérationMal’tsev produit le graphe orienté complet.

Méta-problème et uniformité

La définition la plus faible d’une classe traitableest un ensemble de langages T tel que pour toutΓ ∈ T , CSP (Γ) ∈ P (où CSP (Γ) désigne la res-triction de CSP aux instances dont les contraintesn’utilisent que des relations de Γ). Suivant cettedéfinition, l’ensemble formé par tous les langagesMal’tsev forme une classe traitable. On peut ren-forcer cette notion de deux façons.

La première est d’imposer que le méta-problème, qui est le problème de décider si un lan-gage donné appartient à T , doit pouvoir être ré-solu en temps polynomial. On notera que le méta-problème ne fait aucune hypothèse sur le langage,et en particulier ne suppose pas que le domaine estconstant (ce qui est une hypothèse très courantedans la littérature). Dans le pire des cas le méta-problème d’une classe peut être indécidable, mais enpratique il est souvent dans NP. Un méta-problèmepolynomial est une condition nécessaire pour qu’uneclasse traitable puisse être utilisable en pratique, parexemple via un prétraitement des instances dans unsolveur CSP.

De façon complémentaire, on peut imposer quela restriction CSP (T ) de CSP aux instances dont

Juillet 2016 No 93 49

Page 50: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

le langage est dans T forme un problème polyno-mial. Ce n’est pas toujours vrai, car la définitionfaible d’une classe traitable implique qu’il existe unalgorithme polynomial A(Γ) pour chaque Γ ∈ T

fixé, mais ne dit rien sur l’existence d’un algorithmepolynomial “unifié” A qui résout CSP (T ). Si un telalgorithme existe, on dit que T est uniformémenttraitable. Par exemple, un algorithme exponentieldans la taille du domaine pourra être polynomialpour un Γ fixé, mais ne sera pas polynomial si onl’applique à CSP (T ).

Problème considéré

Pour la classe des langages Mal’tsev, la com-plexité du méta-problème et la question de l’unifor-mité sont des problèmes non résolus à l’heure ac-tuelle. L’algorithme décrit précédemment pour ré-soudre un CSP sur un langage Mal’tsev n’est pasuniforme car il a besoin d’avoir accès à une repré-sentation explicite d’un polymorphisme Mal’tsev quipréserve le langage. Une énumération exhaustive estexclue car il existe O(dd

3) opérations Mal’tsev sur

un domaine de taille d .Certains cas particuliers ont cependant été ré-

solus. Par exemple, il est connu que si l’on serestreint aux graphes orientés (langages compo-sés d’une unique relation binaire) alors les langagesMal’tsev sont uniformément traitables et le méta-problème est polynomial [5]. Un autre cas est ce-lui des polymorphismes Mal’tsev conservatifs, c’est-à-dire satisfaisant f (x, y , z) ∈ {x, y , z} pour toutx, y , z ∈ D. Cette famille de polymorphismes estintéressante, car tout langage qui reste traitable enprésence d’une contrainte globale de cardinalité aun polymorphisme Mal’tsev conservatif. Elle joueégalement un rôle crucial dans une preuve récentede la classification des langages conservatifs. Il aété prouvé que les langages Mal’tsev conservatifsbinaires ont un méta-problème polynomial et sontuniformément traitables [1].

Contribution

La contribution principale de ce papier est uneextension du résultat pour le cas conservatif auxcontraintes d’arité quelconque.

Théorème La classe des langages admettant unpolymorphisme Mal’tsev conservatif est uniformé-ment traitable et son méta-problème peut être ré-solu en temps polynomial.

Les deux parties du théorème sont prouvées si-multanément en donnant un algorithme qui décidesi un langage admet un polymorphisme Mal’tsevconservatif f , et produit une représentation expli-cite de f si c’est le cas. L’algorithme est élémen-taire : on encode le problème en CSP, on appliquel’arc-cohérence, on utilise une règle simple pour éli-miner des variables et on résout l’instance résiduellepar élimination de Gauss. La correction est en re-vanche assez délicate à prouver et s’appuie sur uneanalyse détaillée de l’instance CSP.

En plus de cela, nous avons appliqué nos mé-thodes à une autre classe. Un polymorphisme ter-naire f est de majorité si pour tout x, y ∈D, f (x, x, y) = f (x, y , x) = f (y , x, x) = x . Lespolymorphismes de majorité définissent une classeuniformément traitable, et le méta-problème estpolynomial. Cependant, l’algorithme présenté parBessière et al. [1] pour le méta-problème est trèscoûteux : même dans le cas conservatif, il fautO(r lt4d6) opérations pour un langage de l relationsd’arité au plus r , composées d’au plus t tuples etsur un domaine de taille d . En adaptant nos mé-thodes, nous avons obtenu un algorithme de com-plexité O(r lt4) pour le cas conservatif.

Malheureusement, nos preuves sont très dépen-dantes de l’hypothèse de conservativité. Il faudradonc développer de nouveaux outils théoriques pourrésoudre le cas général.

Question. Quelle est la complexité du méta-problème pour les langages Mal’tsev ? Cette classeest-elle uniformément traitable ?

Références

[1] Christian Bessiere, Clément Carbonnel, Em-manuel Hebrard, George Katsirelos, and TobyWalsh. Detecting and exploiting subproblemtractability. In Proceedings of the Twenty-Thirdinternational joint conference on Artificial Intel-ligence, pages 468–474. AAAI Press, 2013.

[2] Andrei A. Bulatov. Mal’tsev constraints aretractable. Technical report, 2002.

50 No 93 Juillet 2016

Page 51: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

[3] Andrei A. Bulatov. Tractable conservativeconstraint satisfaction problems. In Procee-dings of the 18th IEEE Symposium on Logicin Computer Science, pages 321–330, Ottawa,Canada, 2003.

[4] Clément Carbonnel. The meta-problem forconservative mal’tsev constraints. In Procee-dings of the Thirtieth AAAI Conference on Ar-

tificial Intelligence, 2016.

[5] Catarina Carvalho, László Egri, Marcel Jackson,and Todd Niven. On mal’tsev digraphs. Com-puter Science-Theory and Applications, pages181–194, 2011.

[6] Peter Jeavons, David A. Cohen, and Marc Gys-sens. Closure properties of constraints. Journalof the ACM, 44(4) :527–548, 1997.

Prix JFPC 2016 (ex-aequo) : Programmation par contraintes sto-chastiques pour le General Game Playing avec informations incom-plètes

Par

Éric PIETTECRIL Univ. Artois & CNRSLens Franceepiette,[email protected]

co-auteurs Sylvain LAGRUE et Sébastien TA-BARY du CRIL.

Introduction

Dans ce papier, nous nous intéressons au cadredu General Game Playing (GGP) avec informationsincomplètes modélisés par le formalisme GDL-II.Nous identifions un fragment Pspace-complet deGDL-II, où les agents partagent les mêmes ob-servations. Nous montrons que ce fragment peutêtre encapsulé dans un problème de satisfactionde contraintes stochastiques décomposable (SCSP)qui, par tour, peut être résolu en utilisant des tech-niques de programmation par contraintes usuelles.Dès lors, nous avons développé un algorithme dedécisions séquentielles fondé sur les contraintespour les jeux GDL-II exploitant la propagation parcontraintes, l’évaluation Monte-Carlo et la détec-tion de symétries. Notre algorithme, vérifié sur unelarge variété de jeux, surpasse aisément l’état del’art des algorithmes du general game playing.

GGP avec informations incomplètes

Dans le cadre de l’intelligence artificielle, le chal-lenge GGP [1] propose de développer des joueurs

informatisés qui comprennent les règles de jeux pré-cédemment inconnus et d’apprendre à y jouer effi-cacement sans intervention humaine.

Dans le General Game Playing, les règles d’unjeu sont décrites dans le formalisme Game Descrip-tion Language (GDL). La première version de celangage (GDL-I) est restreinte aux jeux détermi-nistes avec informations complètes [3]. Dans le butde soulever ces restrictions, Schiffel et Thielscher[4] ont récemment proposé une nouvelle version duGame Description Language (GDL-II) permettantde représenter les jeux avec informations incom-plètes.

Dans un jeu GDL-II, les joueurs peuvent avoir unaccès limité aux informations de l’état courant etles effets de l’ensemble des actions sont incertains.A ce titre, GDL-II est assez expressif pour représen-ter les jeux stochastiques avec observation partielle(POSGs), qui couvrent une large variété de pro-blèmes multi-agents de décisions séquentielles. Ce-pendant, une telle expressivité est impossible sanspayer le prix : le problème consistant à trouver unestratégie gagnante est NExpNP-hard, une classe decomplexité qui est bien au-delà de la portée des sol-vers actuels.

Une première contribution de ce travail etd’identifier un fragment Pspace de GDL-II regrou-pant l’ensemble des jeux à informations partagées.

Juillet 2016 No 93 51

Page 52: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Une modélisation SCSP pour GDL-II

Empruntant la terminologie de [5], les réseauxde contraintes stochastiques étendent le cadre stan-dard CSP en introduisant des variables stochas-tiques en plus des variables de décisions usuelles.

La seconde contribution de cet article est deproposer une modélisation SCSP à chaque tour duprogramme GDL-II d’horizon T . En répétant ce pro-cessus T fois, le SCSP obtenu est montré équi-valent au programme GDL. Ce processus a permisau cours de nos travaux précédents [2] d’identifierun fragment du SCSP obtenu et de l’exploiter parun algorithme dénommé MAC-UCB.

MAC-UCB-SYM

Sur la base du fragment de SCSP pour les jeuxGDL-II, ce travail propose une nouvelle techniquede résolution dénommée MAC-UCB-SYM, une ex-tension de l’algorithme MAC-UCB exploitant la dé-tection de symétrie. Nous établissons le lien entreles symétries dans les réseaux de contraintes et lessymétries de jeux. Dans un premier temps, MAC-UCB-SYM exploite les symétries de contraintes,caractérisées par les automorphismes de la micro-structure complémentaire du réseau et similairesà des symétries de structures d’un jeu. Dans unsecond temps, il exploite les symétries de solu-tions, caractérisées par l’ajout d’instanciation glo-balement incohérente à la micro-structure complé-mentaire et similaire à des symétries de stratégiesde jeux. Cette exploitation permet de réduire gran-dement l’exploration de l’arbre de recherche.

L’arbre de recherche du TicTacToe 2 × 2 avec les

scores obtenus par MAC-UCB-SYM pour chaqueétat terminal

La figure ci-dessus illustre cette détection surun TicTacToe 2×2 en détectant deux états symé-triques stratégiquement (en rouge et en bleu dansla figure). Il suffit alors d’explorer uniquement lesous-arbre d’un seul de ces états pour connaître lesecond.

Résultats expérimentaux

Dans ce cadre, nous présentons une série derésultats expérimentaux où nous avons sélectionné20 jeux déterministes décrits en GDL extraits de labase de jeux du serveur Tiltyard, et 15 jeux stochas-tiques en GDL-II dont 5 uniquement avec informa-tions imparfaites.

Les expérimentations ont été réalisées sur unegrande variété de jeux pour un total de 40 000matchs lors d’une compétition entre les meilleuresapproches actuelles pour GDL-I et GDL-II. MAC-UCB-SYM surpasse aisément les différentes ap-proches GGP et notre précédent algorithme MAC-UCB.

Conclusion

Dans ce papier, nous avons identifié un frag-ment important des jeux à informations incom-plètes qui peut être représenté en SCSPs, et quipeut être résolu avec des techniques usuelles de laprogrammation par contraintes. Notre algorithmede décisions séquentielles MAC-UCB-SYM pour lesjeux GDL-II exploite la propagation par contraintes,l’évaluation Monte-Carlo et la détection de symé-tries. Basé sur de nombreuses expérimentations im-pliquant de nombreux types de jeux et de joueursGGP, nous avons montré que les techniques usuellesde programmation par contraintes portent leursfruits. Notamment, la détection de symétries offreune amélioration importante pour la résolution desjeux à informations incomplètes.

À la lumière de ces résultats expérimentaux, unaxe de recherche est l’étude théorique de la dé-tection de symétrie pour des algorithmes basés surUCB tel que UCT et GRAVE.

52 No 93 Juillet 2016

Page 53: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Références

[1] Michael R. Genesereth and Michael Thielscher.General game playing. Synthesis Lectures onArtificial Intelligence and Machine Learning,2014.

[2] Frédéric Koriche, Sylvain Lagrue, Éric Piette,and Sébastien Tabary. General game playingwith stochastic csp. Constraints, 21(1) :95–114, 2016.

[3] Nathaniel Love, Timothy Hinrichs, David Haley,

Eric Schkufza, and Michael Genesereth. Gene-ral game playing : Game description languagespecification. Technical report, 2008.

[4] Stephan Schiffel and Michael Thielscher. Rea-soning about general games described in GDL-II. In Proceedings of AAAI 2011, pages 846–851. AAAI Press, 2011.

[5] Toby Walsh. Stochastic constraint program-ming. In Proceedings of ECAI’02, pages 111–115, 2002.

Prix WORKS-web : Utilisation d’ontologies pour la construction etla vérification de cohérence des cas d’usage détectés par le véhiculeautonome

Par

Matthieu CARRÉ[email protected]

Utilisation d’un cadre générique in-tégrant des capacités de traitementet de gestion de la complexité des in-formations contextuelles pour la pré-diction et détection des situations derisque

Travail encadré par Ernesto EXPOSITO(LAAS-CNRS) et Javier IBAÑEZ-GUZMAN (Re-nault).

1. Contexte et Problématique

Les systèmes d’aide à la conduite (ADAS), lacapacité d’une voiture d’être connectée et commu-nicante et les technologies associées de détectionde l’environnement automobile vont permettre uneautomatisation progressive des tâches de conduite,passant d’une conduite assistée (« hands on, eyeson ») à une conduite déléguée sous supervision(« hands off, eyes on ») puis pour finir à une

conduite complètement déléguée (« hand off, eyesoff ») dans certaines conditions de conduite et detrafic (NHTSA ,2013) 2. La conduite autonome duvéhicule désigne un mode de conduite dans lequel lecontrôle du véhicule est partagé entre le conducteuret la machine.

Les principaux points durs relèvent de la va-lidation du véhicule autonome par rapport à sesexigences fonctionnelles et dysfonctionnelles. Dansun premier temps, la sûreté de la conduite auto-nome est assurée par le fait que le système res-pecte ses exigences fonctionnelles, c’est-à-dire qu’ilfonctionne correctement et conformément tel qu’ila été conçu avec des parties redondantes sur lespièces et systèmes critiques (vision, compréhensionde la scène, prise de décision, . . .). La supervisionou monitoring de son activité se doit d’être assu-rée par la gestion et le traitement en temps réelde la complexité du contexte perçu pour la miseen oeuvre d’un processus de prise de décision avecvérification de sa cohérence et des actions d’adap-tation, en particulier dans les situations d’urgenceet cela de manière autonome. Dans un deuxièmetemps, la prise en compte et l’intégration des pa-ramètres du comportement humain et des patronscontextuels d’usage (description de la scène, casd’usage ou uses case), pour la création proactivede bases de connaissances dynamiques, permettent

2. Échelle de délégation proposée par la NHTSA (National Highway Traffic Safety Administration)

Juillet 2016 No 93 53

Page 54: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

de prédire et d’éviter les situations de risque [1].

2. Actions réalisées et futures

La définition des axes principaux de la thèseautour des connaissances et de la littérature surla safety, l’Autonomic Computing, la représenta-tion de la scène, les patrons contextuels d’usage,et de l’établissement d’un état de l’art pour la sa-fety du véhicule autonome permet de répondre ànos problématiques. Dans ce cadre, les ontologiessont un point clé de la thèse permettant représenteret de capitaliser sur la connaissance humaines dansle cadre du framework proposé par la thèse.

L’approche proposée par la thèse repose surl’adoption du paradigme de l’Autonomic Compu-ting permettant de rendre un système non ou par-tiellement autonome pas à pas autonomique en in-tégrant une chaîne de management autonomiquesur un second plan. La thèse encadre la réalisa-tion d’un Framework scalable pour la gestion despropriétés safety du véhicule autonome qui abordeà la fois le sujet de la connaissance des méthodeset techniques de détection et recouvrement de dé-faillances en roulage mais aussi les approches pourassurer la cohérence des décisions prises face auxcontexte. L’intérêt d’introduire ces boucles auto-nomiques est de garantir la self-safety, c’est-à-diregarantir en continu la safety du système.

Dans le cadre de ce fonctionnement, l’utilisa-tion d’ontologies a pour but de permettre l’inter-opérabilité entre les différentes instances de mo-nitoring avec une dimension commune. Ce cadrecommun apporté par les ontologies va permettreune meilleure définition partagée pour le monitoringde ressources managées, l’analyse et la détection desymptômes afin de proposer des solutions présenteset décrites dans l’ontologie pour les phases de plani-fication et d’exécution. Dans notre cas, elle se basesur la création, la population et l’utilisation de deuxontologies bien distinctes.

Une première ontologie décris le contexte/scèneautour du véhicule, indiquant les relations possiblesentre les différents agents basées sur du factueldans un cadre fonctionnel (fonctionnement nomi-nal) avec une possibilité d’ouverture vers du dys-fonctionnel (prise en compte des conditions limi-tantes du système de perception par exemple). L’in-

térêt de l’utilisation d’une ontologie dans ce do-maine se justifie par la possibilité d’extraire un ta-bleau d’interaction entre agents pour une ou plu-sieurs relations données. Cette possibilité rend l’uti-lisation de l’ontologie plus consistante et mainte-nable niveau données pour des utilisations exté-rieures au travail de thèse chez Renault [1]. Laréutilisation de ressources déjà existantes telles quela connaissance d’experts sur les infrastructuresroutières, l’environnement, les interactions entreVéhicule-Environnement et d’autres ontologies ontpour but d’être utilisés afin de regrouper ces don-nées pour la décompositions des cas d’usages et ducontexte en actions atomiques (scénario et scènes).

Une deuxième ontologie aura pour but de clas-sifier et de mettre en relations les différentes mé-thodes de la safety et de la Sûreté de Fonction-nement afin de pouvoir proposer au moment né-cessaire le choix d’actions le plus adapté au cadrerencontré. La construction de cette ontologie setraduit par l’utilisation d’une taxonomie réalisée aucours du début de thèse en complément d’informa-tions importantes (utilité, conception), de normesen langage naturel ainsi que des propriétés safetydes systèmes.

Se trouvant dans la première année de la thèse,le début de la thèse, en plus des lectures biblio-graphiques, a été axée sur la conception et spéci-fication du cadre générique et autonomique pourla conduite autonome afin que le contenu expéri-mentale de la thèse soit défini pour une applicationsur véhicule prototype. Les autres étapes seront demettre en oeuvre et d’évaluer l’implémentation dece cadre autonomique adapté à la problématiquede la sécurité du véhicule autonome pour gérer descas d’usages critiques chez Renault en simulationet sur prototype. La population et l’utilisation desdeux ontologies décrites seront aussi l’étape sui-vante dans la continuité de ma thèse et de cellesd’autres doctorants impliqués sur le véhicule auto-nome.

Références

[1] A. Armand, D. Filliat, and J. Iba nez Guzman.Ontology-based context awareness for drivingassistance systems. In IEEE Intelligent VehiclesSymposium, pages 227––233, 2014.

54 No 93 Juillet 2016

Page 55: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Thèses et HDR du trimestre

Si vous êtes au courant de la programmation de soutenances de thèses ou HDR en IntelligenceArtificielle cette année, vous pouvez nous les signaler en écrivant à [email protected].

Thèses de Doctorat

Mélanie BOUDARD« Prédiction de structure tridimensionnelle demolécules d’ARN par minimisation de regret »Supervision : Johanne COHENLe 29/04/2016, à l’Université de Paris Saclay

Florent CAPELLI« Structural Restrictions of CNF-formulas:applications to model counting and knowledgecompilation »Supervision : Arnaud DURANDLe 27/06/2016, à l’Université Paris 7

Jérôme DANTAN« Une approche systémique unifiée pourl’optimisation durable des systèmes socio-environnementaux : ingénierie des systèmes dedécision en univers incertain »Supervision : Yann POLLETLe 01/06/2016, à l’Conservatoire National desArts et Métiers

Abderrazak DAOUDI« Learning and Using Structures for ConstraintAcquisition (Acquisition de contraintes parapprentissage de structures) »Supervision : Christian BESSIERELe 10/05/2016, à l’Université de Montpellier

Emmanuelle GAILLARD« Gérer et exploiter des connaissances produitespar une communauté en ligne - Application auraisonnement à partir de cas »Supervision : Jean LIEBERLe 22/06/2016, à l’Université de Lorraine

Thomas GAILLAT« Reference in Interlanguage : the case of thisand that. From linguistic annotation to corpusinteroperability. »Supervision : Nicolas BALLIERLe 16/06/2016, à l’Université Paris 7

Jerôme NIKA« Guiding human-computer music improvisation:introducing authoring and control with temporalscenarios »Supervision : Gérard ASSAYAGLe 16/05/2016, à l’Université Paris 6

Nicolas VERSTAEVEL« Self-Organization of Robotic Devices ThroughDemonstrations »Supervision : Marie-Pierre GLEISELe 30/06/2016, à l’Université Toulouse 3

Page 56: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

Habilitations à Diriger les Recherches

Jean Christophe COMTE« Modélisation des Rythmes et InteractionNeurones-Astrocytes. »Supervision : Frédéric FLEURYLe 04/06/2016, à l’Université Lyon 1

Christophe SABOURIN« Systèmes cognitifs artificiels : du concept audéveloppement de comportements intelligentsen robotique autonome. »Supervision : Kurosh MADANILe 23/05/2016, à l’COMUE Paris Est

Christophe VARNIER« De l’ordonnancement des activités demaintenance au challenge de la décision post-pronostic. »Supervision : Noureddine ZERHOUNILe 19/06/2013, à l’Université de Besançon

56 No 93 Juillet 2016

Page 57: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

À PROPOS DEL’AFIA

L’objet de l’AFIA, association loi 1901 sans butlucratif, est de promouvoir et de favoriser le déve-loppement de l’Intelligence Artificielle (IA) sous sesdifférentes formes, de regrouper et de faire croîtrela communauté française en IA, et d’en assurer lavisibilité.

L’AFIA anime la communauté par l’organisationde grands rendez-vous annuels. En 2012 l’AFIA apatronné l’accueil de la conférence ECAI 2012 àMontpellier, un formidable succès avec 754 parti-cipants. Plus régulièrement, en alternance les an-nées impaires et paires, l’AFIA organise la « Plate-forme IA » (PFIA 2013 Lille, PFIA 2015 Rennes)et la « Conférence Nationale en Intelligence Ar-tificielle » au sein du Congrès RFIA (RFIA 2014Rouen, RFIA 2016 Clermont-Ferrand), congrès or-ganisé avec l’AFRIF).

À l’occasion de son édition 2016, le CongrèsRFIA, programmé du 27 juin au 1er juillet (RFIA2016) accueille, outre CNIA 2016, les 14es « Ren-contres des Jeunse Chercheurs en Intelligence Arti-ficielle » (RJCIA 2016) et la 2e « Conférence Natio-nale sur les Applications Pratiques de l’IntelligenceArtificielle » (APIA 2016). L’AFIA organise égale-ment une compétition « IA sur Robots », nouvelespace de rencontre de la communauté en IA.

Forte du soutien de ses 310 adhérents actuels,l’AFIA assure :

- le maintien d’un site web dédié à l’IA.- une journée recherche annuelle sur les Perspec-tives et Défis en IA (PDIA)

- une journée industrielle annuelle ou Forum In-dustriel en IA (FIIA)

- la remise annuelle d’un Prix de Thèse de Docto-rat en IA,

- la parution trimestrielle du Bulletin de l’AFIA, en

accès libre à tous,- la diffusion mensuelle de Brèves sur les actualitésen cours en IA,

- le soutien à des Collèges Thématiques ayant leurpropre activité,

- la réponse aux consultations officielles (ME-NESR, MEIN, ANR, CGPME, ...),

- un lien entre adhérents sur les réseaux sociauxLinkedIn et Facebook,

- la réponse à la presse écrite et à la presse orale,et sur internet.

L’AFIA organise également des Journées com-munes (en 2016 : Extraction et Gestion desConnaissances & IA avec EGC, Réalité Virtuelle& IA avec l’AFRV, Traitement Automatique desLangues & IA avec l’ATALA, Santé & IA avecl’AIM, Reconnaissance des Formes & IA avecl’AFRIF ...), avec des GdR du CNRS (en 2016 :Robotique & IA avec le GdR Robotique, Génie dela Programmation et du Logiciel & IA avec le GdRGPL...).

Finalement l’AFIA contribue à la participationde ses membres aux événements qu’elle soutient.Ainsi, les membres de l’AFIA, pour leur inscriptionà RFIA 2016, bénéficient d’une réduction équiva-lente à deux fois le coût de leur adhésion à l’AFIA.

Nous vous invitons à adhérer à l’AFIA pourcontribuer au développement de l’IA en France.L’adhésion peut être individuelle ou, à partir de cinqadhérents, être faite au titre d’une personne morale(institution, laboratoire, entreprise). Pour adhérer,il suffit de vous rendre sur le site de l’AFIA en cli-quant ici.

Merci également de susciter de telles adhésionsen diffusant ce document autour de vous !

Juillet 2016 No 93 57

Page 58: Bulletin de l'AFIA · AFIA,(72):70–73,2011. [4]V.BessonandA.Berger. Toinitiateacorpo-rate memory with a knowledge compendium : ten years of learning from experience with the ardans

CONSEIL D’ADMINISTRATION DE L’AFIA

Yves DEMAZEAU, présidentPierre ZWEIGENBAUM, vice-présidentCatherine FARON-ZUCKER, trésorièreOlivier BOISSIER, secrétairePatrick REIGNIER, webmestre

Membres :Carole ADAM, Patrick ALBERT, Olivier AMI, AudreyBANEYX, Florence BANNAY, Sandra BRINGAY, CédricBUCHE, Thomas GUYET, Frédéric MARIS, NicolasMAUDET, Engelbert MEPHU NGUIFO, DavyMONTICOLO, Philippe MORIGNOT, Philippe MULLER,Bruno PATIN.

LABORATOIRES ET INSTITUTSAYANT DES ADHÉRENTS À L’AFIA

CRIL, EDF/STEP, GREYC, IFFSTAR, IRIT, LAMSADE,LIFL, LIG, LIMOS, LIMSI, LIPADE, LIP6, LIRIS, LIRMM,LORIA, LRI, ONERA, TETIS

COMITÉ DE RÉDACTION

Olivier AMIRé[email protected]

Florence BANNAYRédactrice en [email protected]

Dominique LONGINRé[email protected]

Nicolas MAUDETRé[email protected]

Philippe MORIGNOTRé[email protected]

Pour contacter l’AFIA

PrésidentYves DEMAZEAUL.I.G./C.N.R.S., Maison Jean Kuntzmann110, avenue de la Chimie, B.P. 5338041 Grenoble cedex 9Tél. : +33 (0)4 76 51 46 43Fax : +33 (0)4 76 51 49 [email protected]://membres-lig.imag.fr/demazeau

Serveur WEBhttp://www.afia.asso.fr

Adhésions, liens avec les adhérentsDavy MONTICOLOENSGSI8 rue Bastien Lepage54000 [email protected]

Calendrier de parution du Bulletin de l’AFIA

Hiver Printemps Été Automne

Réception des contributions 15/12 15/03 15/06 15/09

Sortie 31/01 30/04 31/07 31/10

58 No 93 Juillet 2016