le si collaboratif : centralisé ou décentralisé ?

45
n°81 Bimestriel - septembre/octobre 2009 L’exploitation du patrimoine de données : un nouveau territoire à conquérir par les DSI PAGE 6 Les véritables enjeux économiques de la qualité interne des applications PAGE 22 Marché de l’outsourcing et réalités de l’offshore en France PAGE 40 Les moteurs de règles et l’agilité du SI PAGE 32 Le SI collaboratif : centralisé ou décentralisé ? PAGE 12

Upload: vuongtu

Post on 05-Jan-2017

226 views

Category:

Documents


4 download

TRANSCRIPT

Page 1: Le SI collaboratif : centralisé ou décentralisé ?

n°81

Bim

estr

iel -

sep

tem

bre

/oct

ob

re 2

009

L’exploitation du patrimoine de données : un nouveau territoire à conquérir par les DSI PAGE 6

Les véritables enjeux économiques de la qualité interne des applications PAGE 22

Marché de l’outsourcing et réalités de l’offshore en France PAGE 40

Les moteurs de règles et l’agilité du SI

PAGE 32

Le SI collaboratif : centralisé ou décentralisé ?PAGE 12

Page 2: Le SI collaboratif : centralisé ou décentralisé ?

ZOOM OUTSOURCING

L’avis des directions informatiques

Ministère des FinancesDirection Générale des ImpôtsNadine ChauvièreSous-Directrice des SI de la DGI

« Les solutions d’Application Intelligence CAST nous aident à obtenir une meilleure visibilité de notre parc applicatif au travers de tableaux de bord composés d’indicateurs techniques objectifs afin de faciliter le dialogue avec les équipes et avec nos maîtrises d’ouvrage. »

Groupe SFR CegetelEric EteveDirecteur InformatiqueCentre Ingénierie Mobilité

« La solution CAST de gestion de la sous-traitance est un élément clé dans le système de pilotage mis en place par SFR-Cegetel sur ses TMA. Nous avons constaté une attention plus particulière apportée par les SSII à la qualité des livrables et à la fiabilité des chiffrages depuis qu’ils savent que nous pouvons facilement les auditer. »

Framatome - Groupe AREVAMichel FondevioleDSI de Framatome-ANP

« CAST fournit des critères objectifs d’appréciation dans le dialogue parfois difficile avec le sous-traitant ainsi que des indicateurs nécessaires au suivi de l’évolution des applications et constitue au sein de Framatome un outil de progrès partagé. »

en savoir pLus

demandez le Livre Blanc rédigé par le Gartner Group et cast sur ce thème :« information series on application management » :www.castsoftware.com/outsourcing

découvrez l’expérience de plusieurs sociétés utilisatrices de solutionsd’application intelligence :www.castsoftware.com/customers

Page 3: Le SI collaboratif : centralisé ou décentralisé ?

de la valeur ajoutée de l’applicationintelligence pour piloter efficacementun parc applicatif sous-traité

La maîtrise des applications et des prestataires dansune opération d’outsourcing

Les entreprises, devenues plus mûres vis-à-vis de l’outsourcing, sont désormais capables d’opérer

des externalisations plus stratégiques. on l’a récemment observé dans l’automobile avec renault ou dans la grande distribution avec carrefour.

dans l’externalisation des applications métier, c’est surtout la volonté d’accroître l’efficacité opérationnelle de l’informatique qui est motrice : pouvoir fournir plus rapidement un service à valeur ajoutée aux utilisateurs et aux clients dans un contexte en perpétuelle évolution.

comme dans n’importe quelle opération d’outsourcing, le contrat l iant le fournisseur est capital, en particulier les sLas. néanmoins, les applications métier étant par nature soumises à de fréquents changements en cours de contrat, les seuls sLas se révèlent vite insuffisants pour garantir la qualité de service et éviter les dérives de coûts.

c’est là que le bât blesse : l’externalisation des applications métier occasionne un risque de perte rapide de savoir-faire technologique et par conséquent critique. vigilance et suivi sont de mise pour garder le contrôle de la qualité de service et éviter les dépendances par nature dangereuses.

L’externalisation réussie d’applications métier est donc le fruit d’une vision anticipatrice partagée avec le prestataire. sont ainsi apparues des solutions dites d’application intelligence, basées sur

une technologie avancée d’analyse de code source.en fournissant des indicateurs techniques aux donneurs d’ordre, ces solutions permettent de piloter un parc applicatif sous-traité en temps réel, tant en terme de qualité, que de maintenabilité et de coût. résultat : le donneur d’ordre conserve la maîtrise intellectuelle de ses applications métier et le contrôle de la relation avec son sous-traitant.

La valeur ajoutée de ce type de solutions d’application intelligence est visible à chaque étape d’une opération d’outsourcing, comme décrit ci-après.

audit de l’existant et préparation des appels d’offres• Déterminer les caractéristiques

techniques du portefeuille applicatif existant avant de le sous-traiter

• Disposerd’informationsderéférencepour évaluer les propositions des sous-traitants

• Obteniruneimageàl’instanttdesapplications pour permettre un suivi dans le temps

transfert vers le prestataire• Réduirelaphased’acquisitiondela

connaissance pour entreprendre plus vite des tâches productives

• Diminuerlecoûtliéàlaproductiond’une documentation exploitable et maintenable par le prestataire

contrôle de la qualité et des coûts en cours de projet• Suivrel’évolutiondelamaintenabilitéet

de la qualité pour éviter toute dérive• Etrecapabledevaliderlaquantitéet

la qualité du travail facturé• Etre en mesure de challenger le

sous-traitant lors des négociations d’avenants

• Industrialiserlesrecettestechniques

renouvellement de contrat, transfert ou ré-internalisation• Détermineretqualifierlesécartsentre

la prestation prévue et les livrables recettés

• Disposerdesinformationstechniquescaractéristiques du portefeuille applicatif en fin de prestation

Le leader mondial de ce type de solutions est d’ailleurs un éditeur français, cast. reconnu par les analystes informatiques comme précurseur du marché, cast compte plus 500 comptes utilisateurs de sa plate-forme d’application intelligence dans le monde.

Cycle de vied'une opération d'Outsourcing

Suivi de proje

t Contrôle des coûts

Transfert de connaissances

Fin de

contrat Appels d'offres

Rece

tte te

chni

que

Publi-Reportage

www.castsoftware.com

Page 4: Le SI collaboratif : centralisé ou décentralisé ?

Editeurpress & communication franceune filiale du groupe cast3, rue marcel allégot92190 meudon - francetél. : 01 46 90 21 21fax. : 01 46 90 21 20http://www.it-expertise.comemail : [email protected]

Rédacteur en chefJosé dizemail : [email protected]

Directeur de publicationaurélie magniezemail : [email protected]

Abonnements/Publicitéemail : [email protected]

Conception Graphiquenicolas Herlememail : [email protected]

Parutionit-expert - (issn 1961-9855) est un journal édité 6 fois par an, par p&c france, sarl de presse au capital de 60 976,61 e.

Avertissementtous droits réservés. toute reproduction intégrale ou partielle des pages publiées dans la présente publication sans l’autori-sation écrite de l’éditeur est interdite, sauf dans les cas prévus par les articles 40 et 41 de la loi du 11 mars 1957. © 1996 p&c france. toutes les marques citées sont des marques déposées.Les vues et opinions présentées dans cette publication sont exprimées par les auteurs à titre personnel et sont sous leur entière et unique responsabilité. toute opinion, conseil, autre renseignement ou contenu exprimés n’engagent pas la responsabilité de press & communication.

Abonnements01 46 90 21 21

vous pouvez vous abonner gratuitement sur http://www.it-expertise.com/abonnements/default.aspxou nous écrire à :[email protected]

Des bienfaits de la chlorophylle

iBm vient de communiquer une étude auprès de dirigeants de pme/pmi dans 17 pays. sur près de 1 800 sondés, 180 français ont été interrogés d’avril à juin 2009. parmi les résultats sans surprise, il semblait qu’une erreur s’était malencontreusement glissée dans le tableau final. au rang des priorités attendues de ces décideurs, on retrouve : « la gestion de l’information », « la gestion et la disponibilité

des informations et des centres it » ou « la conformité réglementaire et législative ». Jusque-là, les français avancent globalement des priorités identiques à celles des autres nations. et que voit-on apparaître au quatrième rang, avant même la sécurité ? Le green-it ! eh oui : l’écologie avant même la survie de l’entreprise. or, comme on l’apprend lors des initiations au secourisme, la première personne à protéger afin de pouvoir secourir les autres, c’est vous !

La posture du bobo peut devenir destructrice… pour l’environnementLa médiatisation à outrance de certains thèmes peut décidément rendre… suspect. Les décideurs de pme (souvent issus de grandes entreprises) seraient-ils devenus si politiquement corrects qu’ils en perdraient la raison ? comment peut-on imaginer un avenir radieux où le sacrifice deviendrait la règle ? pour vérifier cette position -qui n’engage pas à grand-chose lors d’une réponse à une enquête-, il faudrait mesurer le réel engagement de ces décideurs si l’État décidait de taxer réellement leur entreprise proportionnellement à ce que certains estimeraient polluant. ce qui pourrait ne pas tarder. peut-être ces préoccupations Green it passeraient-elles en second plan. attention toutefois, à ne pas prendre la position opposée, pas beaucoup plus constructive !

José Dizrédacteur en chef

édito

4 IT-expert n°81 - septembre/octobre 2009

Page 5: Le SI collaboratif : centralisé ou décentralisé ?

5IT-expert n°81 - septembre/octobre 2009

IT-expert n°81 - septembre/octobre 2009

6 DossierL’exploitation du patrimoine de données : un nouveau territoire à conquérir par les DSIen exploitant les richesses cachées de leurs bases de données, les entreprises peuvent

découvrir des trésors pour améliorer leurs performances. La création d’une cellule

d’analyse peut devenir très utile aux métiers, mais aussi à la dsi, comme le démontrent

les deux auteurs de ce dossier.

12 TechniqueLe SI collaboratif : centralisé ou décentralisé ?si le distribué n’incarne pas la panacée pour le système d’information collaboratif, le

mode centralisé présente aussi des limites. Jean-michel davault et fabrice Barbin de la

ssii Hommes & process (spécialiste du collaboratif) expliquent pourquoi une approche

mixte devient incontournable, à travers des expériences concrètes.

18 Actualités InternationalesLes informations marquantes d’éditeurs, de marchés, d’organisme de standardisation, de débats en cours et de tendances.

22 Quoi de neuf docteur ?Les véritables enjeux économiques de la qualité interne des applicationsalors que la plupart des entreprises sont en mesure de quantifier le coût des interruptions

de service de leurs applications, elles peinent à justifier les investissements à réaliser

en qualité logicielle pour prévenir ces défaillances. Bill curtis, co-auteur du cmm et

directeur du nouveau consortium international sur la qualité logicielle (cisq) aborde

dans cet article les véritables enjeux de la qualité interne des applications et propose

une méthode permettant d’estimer et de mesurer les conséquences économiques de

son amélioration.

32 Comment ça marche ?Les moteurs de règles et l’agilité du SIdéfinir les règles métiers indépendamment du code ou les en extraire, les centraliser

dans un référentiel et utiliser un moteur d’exécution… autant de préoccupations

actuelles utilisant des technologies des années 80. voyage au cœur des moteurs de

règles avec un guide spécialisé.

39 LivresManagement et gouvernance des SI, ouvrage collectif coordonné par camille

rosenthal-sabroux et americo carvalho et GREEN IT - Les meilleures pratiques

pour une informatique verte par christophe corne, adrien porcheron, pénélope

Guy et James pavia.

40 Rubrique à bracMarché de l’outsourcing et réalités de l’offshore en Franceinfogérance d’infrastructure ou d’applications, externalisation, tma, Hosting, Bpo…

l’outsourcing gagne du terrain dans l’Hexagone, et l‘off-shore reste plutôt européen.

panorama d’un marché en croissance par vincent Gelineau, consultant senior chez

pierre audoin consultants (pac).

Sommaire

Page 6: Le SI collaboratif : centralisé ou décentralisé ?

6 IT-expert n°81 - septembre/octobre 2009

De l’importance de la fonction d’analyste et de la structuration d’une cellule d’analyse

pour maximiser la contribution des systèmes d’information au développement du

Business futur.

L’exploitation du patrimoine de données : un nouveau territoire à conquérir par les DSI

Page 7: Le SI collaboratif : centralisé ou décentralisé ?

Dossier & Interviews

7IT-expert n°81 - septembre/octobre 2009

Les données de l’entreprise : un patrimoine à réveiller pour mieux avancer

Les investissements accumulés dans les systèmes d’information depuis des dizaines d’années se sont traduits par des générations d’applications toujours plus pointues, couvrant maintenant l’ensemble de l’écosystème de l’entreprise. ce capital immatériel, principalement constitué des données accumulées lors des actes de gestion, est à la fois peu valorisé (en comparaison du capital de marque en marketing) et relativement sous-utilisé. Bien évidemment, les actes de gestion sont assurés, et l’exécution des tâches et processus est pilotée et mise en regard des objectifs via des systèmes de pilotage de plus en plus avancés. mais l’information générée est rarement exploitée pour en dégager du « sens » (microsegmentation, personnalisation à la volée des actions…) ou, tout aussi faiblement, pour aider les dirigeants à piloter le devenir de l’entreprise (non pas contrôler dans le rétroviseur la bonne exécution des directives, mais fixer le nouveau cap, et les objectifs induits, cf. figure 1). en effet, en ces périodes économiquement troublées, de globalisation toujours plus intense, et de concurrence toujours plus innovante, il est essentiel pour le dirigeant de fixer le cap avec assurance dans la tourmente, et d’être apte à prévoir, anticiper et riposter au plus vite. en regard de cette attente légitime, quelles réponses apporte le dsi aux dirigeants : quels sont les modèles mis à disposition ? quelles sont les données

Figure 1 : la vocation des analystes est de faciliter l’orientation

externes, capitalisées et confrontées au patrimoine de données internes ?… ensemble de domaines encore bien souvent en friche et vis-à-vis desquels il ne faut plus se contenter du seul flair (professionnalisme) des dirigeants. c’est pourquoi il devient nécessaire de les « outiller », non pas pour les remplacer, mais pour leur donner la capacité de tester un nombre plus important de scénarios, permettant de mieux cibler les mouvements stratégiques à conduire et les orientations à fixer.

Une pratique d’exploitation du patrimoine de données à peine naissante

en regard de ces attentes, les entreprises ne manquent pas de données, mais sont-elles structurées pour répondre à ces besoins ? ont-elles été capitalisé dans cet objectif ? et par delà les données, l’entreprise dispose-t-elle des technicités et des logiques d’exploitation pour contribuer aux réflexions des dirigeants ? en fait, cette « fonction d’analyste » est actuellement peu présente ou encore éclatée entre différents acteurs. comment structurer une offre lisible pour les dirigeants qui souhaitent à la fois de la simplicité et de l’efficacité.

en fait, l’analyse nécessaire nécessite la réunion au minimum de trois composants : • une expertise métier, pour traduire en orientation stratégique

les résultats chiffrés ;

STRATEGIED'ENTREPRISE

VISION

CONNAISSANCES

DONNEES

FAITSINFORMATIONS

ENVIRONNEMENT

DATA WAREHOUSE

ModélisationSimulation - Prévision

analysesdirectivesobjectifs opérationnels

actionsobjectifs

situationanalyses

ÉvaluationContrôleAnalyse

GestionAnimationMOYENS RESULTATS

ORIENTATION

AIDE A LA DECISION

SYSTEMES TRANSACTIONNELS

ORIENTER

PILOTER

GERER

efficacité

qualité

Page 8: Le SI collaboratif : centralisé ou décentralisé ?

8 IT-expert n°81 - septembre/octobre 2009

• une technicité de traitement de données (modélisation, sta-tistique) pour faire « parler les données » par un choix judicieux des informations majeures allié à un choix adapté de restitution (graphiques) mettant en exergue les traits marquants,

• etune forte maîtrise de l’exploitation des données dans un mode « boîte à outils » permettant par des circuits courts et de façon itérative de converger rapidement vers des résultats significatifs. tout en tenant compte de la forte confidentialité de cette convergence de données manipulées, de la complexité dans certains métiers de modéliser l’activité, de la dimension culturelle (notamment en france ou l’on s’appuie moins, pour décider, que dans les pays anglo-saxons, sur les « faits et les chiffres »).

il convient donc de structurer ce besoin et de l’organiser autour d’une « cellule d’analyse » en soutien des dirigeants s’appuyant sur une fonction « d’analyste » qui regroupe les expertises précitées. L’entreprise doit aussi en expliciter les apports et les modalités de fonctionnement (passage de commandes…). Bref : la promouvoir auprès des « consommateurs » et non pas « utilisateurs » que sont les dirigeants. pour ce faire, l’approche de type « proof of concept » est préférable, car elle met en lumière sur des cas concrets l’utilité et la pertinence de l’approche. enfin, la montée en maturité peut s’avérer lente pour la structuration de modèles d’exploitation pertinents des données.

Une offre de services utile à tous

La population des dirigeants concernés par cette approche ne se cantonne pas au directeur général, mais à l’ensemble des membres du comité de direction, qui dans leur domaine ont pour responsabilité d’orienter au mieux le devenir de l’activité.

Le directeur financier appréciera de pouvoir préparer les instances auxquelles il doit rendre compte en ayant accès à une vision chiffrée accompagnée d’exemples fouillés sur les cas explicatifs de telle dérive ou de tel risque.

pendant les 3 premiers mois qui suivent le lancement d’un nouveau produit, le directeur marketing, souhaitera, au moins une fois par semaine, une vue 360° avec des zooms ad hoc sur les zones de risques (cannibalisation, impact des campagnes de publicité…). À l’issue des 3 mois, la plus grande partie des analyses effectuées ne sera plus utile et les outils décisionnels standards pourront reprendre leur place pour un reporting plus durable.

un autre usage des cellules d’analyse dont sont friands la direction des risques et/ou la direction marketing est la détection des doublons non pas dans l’objectif de réaliser la fusion rapidement (c’est presque toujours utopique) mais afin de chiffrer les risques de contrepartie, les risques réglementaires ou les risques d’image liés à la prolifération des doublons.

sous un autre angle, la capacité à recouper l’information, à zoomer sans fin sur différents axes d’analyse et surtout la facilité à classer et extraire les exceptions, les cas les moins standards… intéresseront notamment la lutte contre la fraude.

et ces exemples issus de cas réels n’épuisent bien sûr pas la liste des usages possibles des cellules d’analyse.

face à ces attentes tacites, le dsi doit se positionner en offreur de services, et ne pas attendre une hypothétique expression de besoins en la matière. plus qu’un outil à déployer, il s’agit de tout un dispositif à mettre en œuvre (systèmes, processus, organisation, offre de services, interaction client…) pour lequel les ressources internes seront sollicitées (statisticiens, chargés d’études…). il s’agit d’une démarche volontaire, mais qui se caractérise par sa très forte visibilité du fait des « consommateurs » visés : les dirigeants.

Des facteurs favorables et des opportunités insoupçonnées

pourquoi engager cette exploitation avancée d’un patrimoine de données souvent laissé en friche ? de nombreux facteurs externes poussent à initier ce mouvement : les attentes toujours plus fortes de « transparence » dans des cadres réglementaires toujours plus denses… mais également des attentes internes peu ou mal assouvies : décider plus vite, dans des contextes de plus en plus larges (lignes d’activité, couverture territoriale, segmentation des offres, personnalisation de la relation client…) induisant une complexité difficile à maîtriser par les dirigeants quel que soit leur « métier ». il faut donc formaliser et « industrialiser » cette approche.

en outre, d’autres opportunités permettent de tirer un bénéfice plus important de cette exploitation avancée des données. par exemple : revendre de façon anonymisée des résultats à un acteur en aval de sa filière métier, ce qui a pour avantage de financer le coût interne d’exploitation des données, tout en accroissant « l’intelligence » de la filière.

aujourd’hui, de nombreuses bases de données d’entreprises contiennent des données de marché avec une volumétrie qui ferait rêver bien des panélistes. de surcroît, ces données ont été acquises de façon contrôlée, ce qui les rend au moins aussi fiables que des données déclaratives. certes, le champ est plus restreint (on y lit rarement des données sur les intentions d’achat). cependant, l’intérêt réside dans la démarche et dans la volonté d’analyser ces données pour leur faire dire ce qu’elles peuvent dire : avec quelques pourcentages de part de marché sur un marché exprimé en millions de foyers, une forme de « loi des grands nombres » s’applique sur de grands indicateurs avec la possibilité de détecter les signaux faibles. La matière première immatérielle est là. Le talent consiste à la valoriser.

Une dynamique à engager par le DSI

Le dsi dispose aujourd’hui de tous les éléments pour se positionner comme un acteur clé sur ce nouveau champ d’activité, à très forte visibilité des membres du comité de direction et à très fort levier de génération de chiffre d’affaires. ceci d’autant plus que la période de crise/reprise actuelle est tout à fait opportune pour engager ce genre d’initiative.

Page 9: Le SI collaboratif : centralisé ou décentralisé ?

Dossier & Interviews

9IT-expert n°81 - septembre/octobre 2009

Le territoire étant neuf, et dépassant la seule construction et mise en œuvre d’applications, il s’agit de mettre en place la gamme pertinente d’offres de services, de la « vendre » aux dirigeants ciblés (finances, marketing, risques…), d’en assurer le fonctionnement au quotidien, de veiller à l’apport de valeur en regard des attentes exprimées ou non par les dirigeants…

pour ce faire, s’appuyer sur une assistance externe permet une montée plus rapide en maturité, et évite les errements et les étapes d’apprentissage essais/erreurs.

Structurer une « cellule d’analyse » pour garantir la pertinence des résultats

La cellule d’analyse se nourrit de données qu’elle exploite en utilisant des méthodes et outils ad hoc issus des savoir-faire décisionnels (business intelligence) et de traitements de données avancés, notamment l’amélioration de la qualité de données et le datamining.

Les données sources peuvent être aussi bien des données opérationnelles de granularité fine que des données détaillées sur les projets stratégiques. certaines données opérationnelles peuvent être captées dans le système décisionnel de l’entreprise, mais le cœur du travail de la cellule d’analyse consiste surtout à rapprocher ces données issues du si de l’entreprise avec de nombreuses autres sources.

La cellule d’analyse n’a pas vocation à traiter les sujets pouvant l’être dans le cadre d’un projet décisionnel. en revanche, lorsque la source est ponctuelle (cas d’un retour de coupons d’une campagne), trop peu fiable pour intégrer l’entrepôt d’entreprise, l’information peut quand même être valorisée pour l’entreprise. La cellule d’analyse a l’expérience de nombreuses sources externes pour qualifier et enrichir les données traitées (référentiels, données de marché, données acquises auprès de partenaires). ces analyses se révèlent intéressantes pour mesurer, par exemple, le taux d’obsolescence des données d’une base clients.

une autre dimension de la cellule d’analyse concerne sa neutralité par rapport au sujet traité : les résultats bruts sont mis en exergue par des analyses qui en éclairent le contexte et précisent surtout les limites. À côté du nombre de clients que l’on peut contacter, a-t-on une vision sur la fraîcheur des données de contact ? en face d’une cohorte de clients, sait-on évaluer l’impact des doublons ?

Les livrables de la cellule d’analyse s’adressent uniquement aux dirigeants. ils peuvent comporter des résultats qui ne sont pas « politiquement corrects » ou ne pas correspondre aux positions tenues jusqu’à présent. mais c’est justement cette indépendance de l’analyse que doit garantir une telle structure qui en fait sa valeur auprès des membres du comité de direction.

Figure 2 : axes d’analyses de la qualité des données : les outils et méthodes permettent de classer automatiquement les données selon ces axes

CONFIANCE(origine, condition d’acquisition, rapprochement)

vérifiée/prouvée

justifiée/recoupée

prouvéefausse

déclaréeen

vis-à-vis

déclaréeà distance

renseignée

« le clientn’a pas »

« à jour »à priori

Indice(s)donnéeobsolète

obsolète

nonconforme

conforme

tests nonapplicables

refusde�réponse

Niveau de qualité stable

Action qualité à mener

Risque de donnée fausseou inexploitable

Donnée inexploitable

Hors champ

douteuse

nonconnue

risquede

péremption

nondemandée

rectifiable

non�testée

CONFORMITÉDE�LA DONNÉE

COMPLÉTUDEDonnéeclient

CARACTÈRE « À JOUR »DE LA DONNÉE

Page 10: Le SI collaboratif : centralisé ou décentralisé ?

10 IT-expert n°81 - septembre/octobre 2009

au cœur d’une cellule d’analyse, plusieurs acteurs maîtrisent le socle commun d’outils et méthodes qui permettent de réaliser rapidement, et de façon reproductible et traçable si besoin, les traitements qui transforment de gros volumes de données brutes non qualifiées en bases prêtes pour les analyses poussées et le datamining : • Redressementd’adresses(RNVP),detéléphonesetde

méls• Rapprochementdedonnéessurcléscomplexes• Identificationdedoublons• Classificationautomatiqueparniveauxdequalité• Correctionautomatiquedeserreursdesaisie lesplus

fréquentes sur les grands référentiels (zones géographiques, prénoms…)

• Classificationautomatiqueparniveaudequalité• Modélisationenétoileettechniquesd’indexationdebases

de données• Lesbonnespratiquesdereprésentationgraphiquedes

données qualitatives• …

Une représentation graphique intelligible et efficace

on notera que parmi toutes ces techniques, l’une des moins évidentes est sans doute celle relative à la représentation gra-phique du résultat chiffré. sa nécessité s’impose lorsque l’on prend conscience de la densité d’information que permet cette représentation (jusqu’à 30 fois celle d’un tableau de chiffres clas-sique avec une accélération notable de la vitesse de lecture).

Les outils décisionnels de reporting, même les plus avancés, ne disposent pas à ce jour des options indispensables pour cet exercice. quelques outils spécialisés (tableau software ®, visokio ®…) explorent de nouveaux territoires, mais il est encore trop souvent nécessaire de recourir aux outils graphiques génériques (powerpoint ® ou adobe illustrator ®) pour obtenir un résultat précis et conforme aux règles de l’art.

Le plus important, au-delà des moyens à mettre en œuvre pour obtenir le résultat, revient aussi à savoir instituer de nouvelles habitudes de lecture à travers des représentations graphiques qui deviennent des standards pour les dirigeants (qui ne disposent que d’un temps restreint pour appréhender le sujet). La pyramide des âges en est un bon exemple, puisqu’elle est largement comprise, qu’elle paraît simple et reprend les conventions de l’arbre généalogique (cf. figure 3).

La DSI : acteur référent de la gestion du capital immatériel de l’entreprise

Le capital immatériel désigne l’ensemble des actifs non monétai-res et sans substance physique détenus par l’entreprise en vue de son utilisation pour la production ou la fourniture de biens et de services. ce capital est une source de valeur et d’innovation pour l’entreprise. Il faut le gérer et le valoriser.

tous les domaines de l’entreprise comportent une large part de ressources immatérielles et tout collaborateur de l’entreprise participe de fait au capital immatériel de l’entreprise. cependant, le dsi apparaît, de par sa connaissance de la dématérialisation

Figure 3 : un des graphiques standard permettant de caractériser une cohorte : exemple (anonymisé) des « chasseurs de prime » positionnés sur la pyramide des âges des clients

2008

2,0% 2,0%1,5% 1,5%1,0%

H F

1,0%0,5% 0,5%0,0% 0,0%

2003

1998

1993

1988

1983

1978

1973

1968

1963

1958

1953

1948

1943

1938

1933

1928

1923

1918

1913

1908 ou av.

0

5

10

15

20

25

30

35

40

45

50

55

60

65

70

75

80

85

90

95

100 ou +

Année denaissance

Âgerévolu

Page 11: Le SI collaboratif : centralisé ou décentralisé ?

Dossier & Interviews

11IT-expert n°81 - septembre/octobre 2009

des activités (processus et produits) de l’entreprise et sa position dans l’entreprise (le si est l’infrastructure de mesure de l’immatériel), comme une des personnes clés pouvant devenir le gestionnaire de ce capital immatériel.

en effet, les systèmes d’information représentent près de 60 % de l’investissement immatériel dans les économies développées. Le système d’information d’une entreprise est composé à plus de 80 % de capital immatériel. il est donc normal que les dsi cherchent à disposer d’une bonne compréhension des composantes, des spécificités et des outils de mesure et de gestion associés au capital immatériel.

La fonction de dsi est donc à même de supporter de nouvelles responsabilités : • montrerquel’entrepriseoul’entitéaàsadispositionles

actifs tangibles et intangibles dont elle a besoin pour créer la valeur pour les actionnaires ou les parties prenantes.

• améliorer continuellement la manière dont ces actifssont utilisés pour en assurer un usage aussi efficace que possible.

• accroîtredemanièrecontinuel’efficacitéaveclaquellecesactifs sont utilisés pour créer de la valeur.

• accroîtrelavaleurdesressourcesdel’entrepriseetdesesactivités aux yeux des différentes parties prenantes.

La « cellule d’analyse », a légitimement vocation à contribuer à améliorer la prise en compte par l’entreprise de cette valeur ajoutée pouvant, dans certains cas, induire un « goodwill » financier.

Au service de l’intelligence économique numérique

L’intelligence économique répond au besoin croissant de comprendre l’environnement dans lequel évolue l’entreprise, d’être alerté au plus tôt des modifications de cet environnement y compris lorsque les signaux sont faibles. L’objectif vise à protéger le patrimoine productif et intellectuel et à préparer la meilleure riposte sur le terrain économique.

Le traitement numérique de l’information permet désormais une automatisation efficace de l’ensemble de la chaîne classique du renseignement, de la donnée « brute » non nécessairement structurée (que les technologies des moteurs de recherche savent de mieux en mieux cerner) à la synthèse à haute valeur ajoutée (présentée dans son contexte, vérifiée par recoupement, avec une marge d’erreur ou d’incertitude qualifiée).

L’innovation peut se mesurer par la diversité des approches et des outils, et s’avère alors plus importante, car la réalité des progrès et des résultats acquis incarne déjà une information que chacun protège. Le caractère sensible de ces résultats est

renforcé par le fait que la mise en œuvre du dispositif dépend en premier lieu des praticiens hommes et femmes dont la méthode, l’efficacité, et la discrétion donnent confiance, alors même que la curiosité reste une qualité indispensable dans cette discipline.

dans ce contexte, une « cellule d’analyse » ayant fait les preuves de sa capacité à rendre intelligible de gros volumes de données internes (souvent qualifiées et comparées à des bases de données externes), à en extraire les informations pertinentes, habituée à manipuler des informations sensibles et à comprendre et traduire les besoins de leurs clients au plus haut niveau, se révèle un excellent socle pour renforcer un service d’intelligence économique. n

Benoît Noël, expert : mise en place et pilotage de cellules d’analyse auprès de dirigeants

Laurent Dequeant, partner en charge de l’activité « strategic planning »

Benoît Noël constitue, forme et pilote des cellules d’analyse au service de dirigeants.

Il est expert de la modélisation dimensionnelle et des traitements d’amélioration de

la qualité des données et dispense régulièrement des formations sur ces sujets.

Laurent Dequeant assiste les Dirigeants dans l’exécution de leur stratégie et la

mise en œuvre de programmes de transformation et a recours à ces approches

pour optimiser l’exécution des opérations et maximiser la contribution Business

de nouveaux produits et initiatives.

ORESYS est un Cabinet de Consultants qui aide les entreprises à piloter leur activité,

à conduire leurs projets de transformation et à améliorer leurs performances.

ORESYS a développé, en s’appuyant sur sa maîtrise des approches BI, une expertise

et des savoir-faire spécifiques en matière de mise en place et d’animation de

cellules d’analyste, ayant pour vocation de mieux éclairer les dirigeants sur les

orientations à prendre.

http://www.oresys.eu/

Page 12: Le SI collaboratif : centralisé ou décentralisé ?

12 IT-expert n°81 - septembre/octobre 2009

Centralisé versus décentralisé… Connecté versus déconnecté… Des concepts réputés antagonistes

qui animent depuis des années les discussions entre professionnels de l’informatique… L’enjeu

est en effet de taille : miser sur le modèle qui offre le meilleur compromis entre usages et gestion.

Illustration au travers des solutions collaboratives Microsoft.

Le SI collaboratif : centralisé ou décentralisé ?

Page 13: Le SI collaboratif : centralisé ou décentralisé ?

Technique

13IT-expert n°81 - septembre/octobre 2009

Les architectures centralisées sont facilement perçues, car elles apportent incontestablement de nombreux avantages.

• Des économies d’échelleLa centralisation offre des possibilités de concentration et de mu-tualisation de ressources. par ressources, on entend aussi bien les ressources humaines (administrateurs, techniciens), matérielles (salles normées, climatisation, protection incendie, sécurité phy-sique, éléments de redondance…) que proprement informatiques (équipements et logiciels de sécurité, de communication réseau, de gestion, capacité de stockage, de calcul, d’archivage…). ce partage engendre naturellement une meilleure rentabilité des investissements de base. il constitue également un accélérateur financier et organisationnel quand une évolution – installation d’un nouveau composant logiciel ou matériel – devient nécessaire, tout en bénéficiant des éléments déjà en place. Le recours à la virtualisation massive au sein de centres d’hébergement et à des systèmes de stockage san vont également dans ce sens.

• Une information exhaustive et pertinente La centralisation joue également un rôle important dans la constitution et l’enrichissement du patrimoine des connaissances de l’entreprise. ainsi, elle facilite l’indexation des contenus et donc augmente la pertinence des résultats de recherche. si la quantité incarne parfois un frein à une exploitation aisée de l’information, elle constitue pour autant un critère prédominant dans la vérifi-cation d’un résultat (consolidation de résultats concordants) et dans la détection de tendances (tableaux de bord).

• Accessibilité et sécurité simplifiéesdes ressources centralisées favorisent l’accessibilité à l’information. La définition des politiques de sécurité (dont les droits d’accès) est simplifiée, car elle s’appuie sur un référentiel unique, consultable en temps réel.

• L’unicité de l’informationautre avantage, la centralisation facilite la mise sur pied d’un référentiel global, garantissant l’unicité de l’information et simplifiant les contrôles d’intégrité et les approches transactionnelles. en effet, les ressources étant locales, les vérifications techniques (versions, unicité de clé, cohérence globale, etc.) peuvent être effectuées en temps réel.

Des avantages à relativiser

si les avantages sont nombreux, la centralisation souffre également de quelques effets de bords. ainsi, les économies d’échelles n’ont parfois aucun sens si elles engendrent une dégradation de qualité de service pour l’utilisateur final. par exemple, pourquoi héberger une application à paris si elle est exclusivement utilisée pour des équipes distribuées en asie ? de même, l’unicité de l’information et la normalisation qui l’accompagne ne doivent pas remettre en question la gestion de documents temporaires, de révisions, de brouillons… mais plutôt intégrer une souplesse pour gérer « l’imprévu ». enfin, l’accessibilité à l’information pour les populations nomades, si elle peut être fournie par des solutions basées sur la téléphonie

mobile (Blackberry, iphone), n’est toutefois pas optimale : débit disponible limité, capacité de traitement limitée, temps de saisie, temps de latence, difficulté de sécurisation des échanges…

Un décalage avec un monde de plus en plus ouvert et distribué

L’approche centralisée est également confrontée à de nouvelles problématiques devant être impérativement adressées pour répondre aux besoins des activités de l’entreprise. en effet, force est de constater que les entreprises fonctionnent de façon de plus en plus ouverte, de plus en plus « agile » : leurs collaborateurs dispersés au sein de multiples sites géographiques doivent souvent travailler en situation de mobilité, et parfois en situation dite « austère ». Les projets sont menés de plus en plus sous forme de consortiums, de pôles, d’équipes d’expertise… en outre, les relations entre clients et fournisseurs sont de plus en plus intégrées et sans pour autant être systématiquement régies par des processus informatiques formalisés.

L’actualité nous démontre également à quel point les entreprises doivent être aujourd’hui en mesure de repenser les méthodes de travail de leurs salariés pour répondre à de nouvelles contraintes ou directives. ainsi, le télétravail, qu’il soit motivé par des raisons sanitaires, des considérations sociales ou environnementales, engendre de lourdes conséquences pour le système d’information centralisé. dans ce contexte, le si doit s’adapter rapidement pour répondre à ces nouveaux besoins, tout en préservant au maximum la qualité de service et la sécurisation.

dans le cas de filiales ou d’agences réparties géographiquement, cela nécessite par exemple un dimensionnement précis de la bande passante et une architecture adaptée (extranet ou intranet étendu, « vpns », authentification forte, identités numériques, centres délocalisés…). dans le cas de salariés mobiles, cela nécessite de pouvoir assurer la continuité de connexion ou de disposer de procédures de reprise automatique de session afin de ne pas pénaliser l’utilisateur dans ses usages quotidiens.

quel que soit le besoin, il faut retenir qu’une incapacité à y répondre rapidement et efficacement engendre un risque immédiat de perte de contrôle de l’information pour l’entreprise : les salariés cherchent par eux même à s’équiper et peuvent – parfois inconsciemment – faire des choix « indélicats » aux conséquences parfois lourdes pour l’entreprise (exemple : recours à des services disponibles sur internet, sans garantie de confidentialité ou de sécurité).

Les architectures centralisées doivent donc être en mesure d’offrir une grande souplesse d’ouverture, ce qui, nativement, il faut le reconnaitre, constitue le plus souvent l’une de leur faiblesse.

Architectures distribuées : toujours et partout

de son côté, l’approche décentralisée ou distribuée permet de fournir aux utilisateurs une proximité immédiate avec l’information

Page 14: Le SI collaboratif : centralisé ou décentralisé ?

14 IT-expert n°81 - septembre/octobre 2009

utile. elle se caractérise par une indépendance partielle ou totale vis-à-vis d’un « pivot centralisé » et est en mesure de supporter dans la plupart des cas l’absence de connexion à un réseau (qu’il s’agisse d’internet ou du réseau de l’entreprise). À défaut de constituer des solutions totalement déconnectées (la connexion étant nécessaire pour partager les informations), on pourrait tout du moins parler de solutions « déconnectables »…

L’approche – tant d’un point de vue technique qu’organisationnel – se révèle donc intéressante pour les populations mobiles évoluant dans des environnements où les connexions continues ne peuvent pas être assurées ou dans des lieux où la faible disponibilité de bande passante génère des coûts induits « d’attente » : zones blanches, milieux austères…

L’accessibilité à l’information est immédiate, non conditionnée par la disponibilité d’une bande passante suffisante entre un site central et le ou les utilisateurs. cette approche fournit également un modèle intéressant en termes de continuité de fonctionnement. si une panne survient, son impact est limité, car elle ne touche que l’utilisateur local. il n’existe pas de nœud unique sensible comme dans une approche centralisée. par ailleurs, dans le cas d’un réseau local d’entreprise, même étendu, l’indisponibilité des serveurs applicatifs classiques tels que la messagerie ou les applications métier, sera compensée par la simple présence d’une connectivité réseau !

Vers une nouvelle organisation

À l’image des modèles de hiérarchie d’entreprise, cette approche se veut « matricielle » et non pas « arborescente ». d’un point de vue organisationnel et psychologique, cette approche impacte donc directement le rapport au pouvoir, car comme on le sait, la maitrise de l’information est l’une des composantes du pouvoir au sein de l’entreprise. cette démarche confirme une fois encore l’évolution constatée du métier du dsi, où la dimension stratégique, métier et organisationnelle prend une place de plus en plus importante.

dans le cadre de coopération entre plusieurs entités distinctes, l’approche décentralisée permet également de répondre à la question de la propriété de l’information. cette dernière n’est pas hébergée dans un lieu central unique, mais bien auprès de chacun des intervenants de la coopération. cette distribution équitable assure également une propriété répartie de l’information, et lève ainsi l’un des freins psychologiques classiques liés au travail collectif. cette approche permet de définir entre les participants

une zone de collaboration neutre, indépendante du système d’information de l’un des intervenants.

Organisation et coordination s’imposent

L’approche décentralisée se heurte toutefois à plusieurs problématiques. La distribution des usages et de l’information doit, dans un cadre professionnel, pouvoir être encadrée et contrôlée. il est ainsi impératif de pouvoir définir des règles de fonctionnement et de s’assurer qu’elles sont effectivement appliquées. il faut aussi bien distinguer les règles de fonctionnement techniques (qui doivent être les plus transparentes possible pour l’utilisateur final, telle la gestion des machines, du chiffrement…) des règles organisationnelles : responsabilité de projet, niveau de confidentialité, définition des objectifs et des méthodes à adopter.

L’approche décentralisée pose également la problématique de l’unicité et la connaissance de l’information : comment s’assurer que l’ensemble de l’information partagée est cohérent, répond aux « normes » définies par l’entreprise (nommage, validation) et conforme aux pratiques de capitalisation (« versionning », indexation) ? L’approche décentralisée ne recourant pas à un système de gestion global et centralisé, ces problématiques doivent pouvoir être résolues différemment.

Illustration d’une approche mixte au travers des solutions collaboratives Microsoft

L’analyse des tendances du marché, tous éditeurs confondus, montre que l’approche centralisée poursuit sa généralisation et s’étend notamment grâce au cloud computing. et ce, afin de réduire les coûts de possession et d’exploitation, les temps de mise en place, d’assurer une meilleure montée en charge en fonction des besoins effectivement constatés, mais également d’optimiser la qualité de service (« temps de service garantis »). cette tendance souligne également la maturité de stratégies locales et mobiles menées en parallèle. compte tenu des intérêts et des contraintes liées aux modes centralisé et décentralisé, il s’avère parfois pertinent d’implémenter conjointement les deux approches.

Page 15: Le SI collaboratif : centralisé ou décentralisé ?

Technique

15IT-expert n°81 - septembre/octobre 2009

Microsoft mixe les approchesLa stratégie portée par microsoft qui fusionne la notion de serveur – in situ ou dans le « nuage » via son offre « Bpos » (Business productivity online services) – avec l’accessibilité locale aux données via Windows 7, office Groove ou Live mesh, illustre parfaitement cette tendance. microsoft fournit également une telle implémentation mixte dans sa gamme de produits dédiés au collaboratif professionnel. en effet, depuis la version 2007 de sa gamme office, microsoft dispose de produits implémentant à la fois les approches centralisées et décentralisées du travail collaboratif : sharepoint et Groove.

SharePoint constitue la plate-forme de prédilection de microsoft pour la mise à disposition de ressources structurées au sein de l’entreprise. support des politiques intranet, extranet voire internet, le produit tend à devenir version après version, le support de publication, mais aussi de « business intelligence » unique dans l’entreprise. et ce, qu’il s’agisse de portails, de publication de contenu, de partage de ressources documentaires, de support d’applications crm ou de gestion de projets, de création de rapports et tableaux de bord ou de support de « workflows ».

Office Groove de son côté se positionne sur le travail collaboratif sécurisé et distribué. d’un point de vue conceptuel, il peut être considéré comme une version professionnelle de Live mesh, bien que ses usages tout comme son architecture soient différents. La force du produit réside dans sa capacité à réunir des individus en faisant une totale abstraction de leur localisation ou de leur organisation d’appartenance, tout en assurant le contrôle d’accès à l’information. Le produit supporte donc aisément les projets entre filiales ou entre organisations distinctes. son haut niveau de sécurité, ainsi que sa capacité à fonctionner en étant déconnecté de tout réseau, font également de Groove une solution idéale pour les équipes mobiles ou évoluant en environnements austères. afin de combler les problématiques inhérentes aux solutions décentralisées (telles que celles citées précédemment), l’architecture Groove s’appuie également sur des composants serveur dont les rôles sont de pouvoir définir les politiques de sécurité (définition des identités numériques, intégration de pKi, gestion des utilisateurs) et d’usages (droits et restrictions, sauvegardes…). L’originalité de l’architecture réside dans le fait que les politiques sont définies de manière centralisée, puis automatiquement déployées auprès des utilisateurs, qui peuvent ensuite évoluer de façon autonome, sans connexion vers le serveur. en résumé, un cadre d’usage est défini de manière centralisée. Les utilisateurs ont ensuite une totale autonomie pour évoluer au sein de ce cadre.

dans le même ordre d’idée, Groove dispose de capacités d’intégration avec sharepoint. il est ainsi possible de créer de manière collective et distribuée un contenu qui sera ensuite synchronisé au sein d’un référentiel d’entreprise sous sharepoint.

La solution hybride : exemples d’usagesune approche mixte, alliant à la fois les apports des architectures centralisées et décentralisées, semble prometteuse, comme le prouvent ces quelques scénarii :• Deséquipesmobilessontdotéesd’unesolutiondécentralisée

de consultation de procédures d’intervention et effectuent sur le terrain – éventuellement sans connexion – des relevés d’informations. de retour à « leur base », les informations collectées par chacune des personnes sont remontées vers un système centralisé, qui les analyse et les consolide. des rapports de synthèse sont alors produits et constituent éventuellement la source d’informations qui seront réinjectées au sein du système décentralisé. si ce scénario est présenté de manière théorique, il illustre toutefois des pratiques réelles constatées auprès d’équipes de professionnels intervenants sur des sites où les connexions sont interdites (exemple : hôpitaux) ou évoluant en environnement austère (exemple : onG telle que la croix rouge, forces armées).

• Danslemêmeordred’idée,ilesttoutàfaitenvisageabled’équiper des télétravailleurs avec une solution décentralisée. qu’ils évoluent au sein de l’entreprise, depuis leur domicile ou lors de leurs déplacements, ils disposent des informations utiles à leur activité quotidienne avec eux. de retour dans l’entreprise, les informations sont réinjectées dans le système d’information. une approche utile en cette période où les

Page 16: Le SI collaboratif : centralisé ou décentralisé ?

16 IT-expert n°81 - septembre/octobre 2009

pouvoirs publics anticipant des risques pandémiques incitent les entreprises à promouvoir les politiques de télétravail de leurs salariés.

• L’approchedécentraliséevaégalementpermettreàdesindividus provenant d’organisations différentes de collaborer efficacement entre eux. ils pourront éventuellement collecter de l’information utile au sein de leur système d’information respectif, puis la mettre en commun au sein d’une solution décentralisée. cette approche prend toute sa pertinence dans le cadre des projets en consortium (pôles de compétitivité, consortiums pétroliers, projets européens) ou dans le cadre de fusions-acquisitions.

Office 2010 confirme l’approche hybride de MicrosoftLe contenu exact d’office 2010 n’est pas encore totalement dévoilé. certains éléments seront clarifiés lors de la sharepoint conférence de Las vegas en octobre prochain mais parmi les tendances lourdes déjà rendues publiques, on note la volonté de microsoft de faciliter l’accès à l’information en toutes circonstances. ainsi, si on se focalise sur la composante collaborative illustrée notamment par sharepoint et Groove (renommé sharepoint Workspace pour cette version 2010), on notera un rapprochement important entre les deux outils : les approches centralisées et décentralisées fusionnent…

• L’approche centralisée illustrée par SharePoint 2010 se voit complétée par sharepoint Workspace 2010, qui lui offre au travers des espaces « sharepoint Workspace » un support pour le mode déconnecté (donc temporairement décentralisé). Les utilisateurs ont ainsi la possibilité de collecter l’information utile dans sharepoint et de l’exploiter – la lire, la modifier,

l’enrichir – en étant déconnectés et/ou mobiles. de retour dans l’entreprise, les données présentes dans sharepoint Workspace 2010 peuvent être synchronisées pour mettre à jour le référentiel. Les contrôles de cohérence ou de validation (« versionning », « workflow », métadonnées) sont gérés au moment de la synchronisation.

• L’approche décentralisée, illustrée par SharePoint Work- space 2010, se voit complétée par une meilleure intégration avec sharepoint 2010. ainsi les espaces de collaboration distribuée présents dans Groove 2007 persistent et offrent toujours cette réelle facilité de collaboration en mode 100% distribué. ils s’agrémentent toutefois dans cette nouvelle version d’une capacité accrue de collecte et de remontée d’informations vers sharepoint 2010. il devient ainsi aisé d’alimenter une équipe avec des données issues du si centralisé, de travailler en mode décentralisé sur ces données, puis éventuellement de les remettre à jour en fin de cycle de travail.

au regard des contraintes liées aux nouveaux usages dans l’entreprise, mais également aux challenges de bonne gestion du si, on ne peut que noter les bénéfices apportés par cette approche mixte !

L’évolution des méthodes de travail dans l’entreprise impacte directement les systèmes en place. qu’ils soient basés sur une approche centralisée ou décentralisée, de manière isolée, ils bénéficient d’avantages, mais également d’inconvénients. couplant les deux approches, ils permettent de répondre à de nouveaux scénarii d’usage et constituent une solution globale agile et efficace, alliant les exigences de gestion pour l’entreprise et de bon usage pour les utilisateurs. ce constat motive aujourd’hui les éditeurs à proposer de nouvelles solutions. ces tendances préfigurent d’ailleurs les notions de « nuage étendu » (extended cloud computing) ou les « grilles du futur » associant dynamiquement à la volée des données centralisées avec des (bribes de) données sur le terrain… n

Jean-Michel DAVAULT (à droite) et Fabrice BARBIN (à gauche) sont les fondateurs de

la société HOMMES & PROCESS (http://www.hommesetprocess.com), spécialisée

dans le travail collaboratif sécurisé et distribué. Ils sont également Microsoft MVP

et fortement impliqués au sein des différentes communautés Microsoft.

Jean-Michel DAVAULT : http://www.linkedin.com/in/jeanmicheldavault

Fabrice BARBIN : http://www.linkedin.com/in/fbarbin

Page 17: Le SI collaboratif : centralisé ou décentralisé ?

C o n f e r e n C e Idc G r e e n :D e v e l o p p e m e n t D u r a b l e e t

r e s p o n s a b i l i t e s o c i a l e D e l’ e n t r e p r i s e : l e r o l e D e t e r m i n a n t D e l ’ i t

La maîtrise de l’empreinte CO2 des entreprises devient une urgence au regard des contraintes réglementaires existantes ou prochainement annoncées mais surtout en raison du montant de la facture énergétique inexorablement plus élevée.

Evidemment, l’informatique est concernée et ce pour deux raisons majeures : d’une part, en tant que contributeur à la facture environnementale et d’autre part en tant que levier d’une meilleure prise en compte du développement durable par les entreprises.

Idc vous donne rendez-vous mercredi 18 novembre 2009 (9h – 15h) à Paris

Face à l’inévitable arrivée du développement durable en entreprise et dans les collectivités, et face à des réglementations qui se durcissent,

Participez à la conférence Idc Green le 18 novembre 2009, à Paris

PROGRAMME dETAILLE ET INScRIPTION GRATUITE :

http://www.idc.com/france/events/green09

code invitation « ITX »

OU cONTAcTEZ EdITH TRIcHEUX : [email protected] - tel. : 01.56.26.26.91

Au programme :▪ Comment s’organiser pour mettre en place des initiatives

Green ? Keynote du Syntec ▪ Politique de développement durable - Les nouvelles priorités

de l’entreprise : de l’intention à l’engagement concret▪ Comment les départements informatiques peuvent-ils

procéder pour diminuer leur empreinte carbone ? Plan Green IT, dépense énergétique des data center, bâtir une infrastructure informatique propre et verte, gestion des postes de travail, managed print services (MPS),

▪ Evolution du rôle de la DSI▪ Contribution des NTIC à une organisation d’entreprise et

des modes de travail plus respectueux de l’environnement▪ Les outils informatiques au service de l’optimisation des

processus métier qui doivent tous être repensés (R&D, partenariats de production, conception, supply chain, …)

Avec le retour d’expérience de : Philippe BALIN, chargé de mission, Sanofi-Aventis : comment les TIc peuvent-elles servir la composante

sociale du développement durable ?

Conférence organisée par

en partenariat avec

Page 18: Le SI collaboratif : centralisé ou décentralisé ?

18 IT-expert n°81 - septembre/octobre 2009

Actualitésinternationales

Oracle 11g R2 : consolidation et disponibilité

atout majeur de cette version, les avancées de l’architecture « grid » permettraient de diviser par cinq le coût des serveurs (acquisition, maintenance, administration, etc.). La gestion des matrices de serveurs dédiés est assurée par la technologie maison rac (real application clusters) qui automatise l’intégration de machines dans le « grid ». une centralisation qui explique aussi les économies d’échelles, également pour le personnel spécialisé. La nouvelle option RAC One Node centralise aisément sur une même matrice les sGBd les moins critiques de l’entreprise.autre tour de force notable, les mécanismes de compression des données atteignant des taux de 2 à 4 contribuent également à la réduction des coûts. en outre, oracle automatic storage management prend aussi en charge des systèmes de fichiers classiques en cluster, pour mutualiser les ressources de stockage de toute l’entreprise. et pour assurer un maximum de disponibilité, oracle active data Guard utilise les ressources serveurs et de stockage pour une meilleure tolérance aux pannes ou répartition de la charge.avec oracle database machine, oracle annonce que la « 11G r2 améliore ses performances jusqu’à un facteur 10 ! ». enfin, les fonctions d’auto-administration doubleraient la productivité des administrateurs oracle par rapport aux versions précédentes. L’éditeur met les bouchées doubles pour faire évoluer les sGBd installés de ses clients. certains arguments devraient effectivement faire mouche. n

Les opérateurs télécom français ne veulent pas d’un quatrième

décidément, les opérateurs en place font tout leur possible pour barrer la route à un éventuel quatrième opérateur, et à l’attribution d’une nouvelle licence 3G. ils ont tous successivement menacé de porter plainte

devant la commission européenne : orange début août, puis martin Bouygues lors de la présentation des résultats du groupe fin août, en enfin vivendi/sfr début septembre. Le péril semble favoriser l’union sacrée !

motif ? Les fréquences seraient bradées. en octobre 2007, l’arcep rejetait la candidature unique de free, et le gouvernement décidait de diviser la licence en trois lots de 5 mHz pour 240 millions

d’euros chacun, contre 619 millions d’euros pour l’ensemble. Les candidats doivent déposer leur dossier de candidature avant le 30 octobre.

sur un marché à maturité (de nombreux habitants sont abonnés, et il reste peu de place), l’arrivée d’un quatrième larron est mal vécue. d’autant qu’il pourrait s’agir de free qui réussit plutôt bien

en jouant la guerre des prix. sfr a beau argumenter que la guerre des prix est permanente, les soupçons de connivence entre opérateurs sur les tarifs ne facilitent pas sa tâche. d’ailleurs, les tarifs du mobile en france sont selon l’ocde parmi les plus chers en europe. martin Bouygues avançait également les problèmes d’extension des réseaux face aux interdictions d’installation d’antennes. et il se montre sceptique sur la mutualisation ou la location de ses équipements.Les opérateurs mettent aussi en avant le fort investissement nécessaire. en revanche, pas un mot sur leurs immenses profits, qui amène même le gouvernement à penser régulièrement à une taxe sur ces énormes bénéfices… en attendant, iliad/free pose sa candidature. n

Page 19: Le SI collaboratif : centralisé ou décentralisé ?

19IT-expert n°81 - septembre/octobre 2009

Actualités internationales

Le « Virtual private cloud » by Amazon

acteur incontournable du cloud avec ses offres amazon Web services (aWs), le leader du e-commerce américain lance « vpc » : une solution de cloud privé permettant de compléter en toute sécurité une infrastructure réseau interne. L’éditeur de services en ligne répond ainsi aux craintes liées à la sécurité des communications des services en mode cloud.L’entreprise établit donc un pont sécurisé vers un espace sur amazon pour bâtir un réseau sans couture. et les utilisateurs continuent à travailler avec leurs applications sans aucune différence. Bien entendu, amazon Web services permet à l’entreprise d’utiliser ses propres outils de sécurité et de pilotage. La connexion permanente s’établit à travers un vpn. La tarification reste celle des offres cloud, sans qu’amazon n’impose des contrats sur plusieurs mois, ni un montant minimal.autre nouveauté, aWs lance « multi-factor authentication » ou mfa, son service d’authentification renforcée. n

L’Europe enquête sur la fusion Oracle-Sun

Bien que les autorités américaines aient validé sans difficulté le rachat de sun microsystems par oracle, la commission européenne réclame un temps de réflexion supplémentaire. en effet, elle souhaite vérifier si la fusion oracle-mysqL n’aboutirait pas à une situation privilégiée et anticoncurrentielle sur le marché des bases de données. c’est pourquoi elle a lancé une enquête le 3 septembre afin de s’assurer du respect des règles de libre concurrence suite à rachat (7,4 milliards de dollars, soit 5,6 milliards d’euros).L’alliance du leader des bases de données propriétaires et du numéro un des sGdB open source inquiète Bruxelles, ainsi que la position renforcée (mais bien moins dominante) sur le middleware applicatif. La commission annonce la communication de ses conclusions pour le 19 janvier 2010. patience… en attendant, l’européen sap doit être aux anges. n

Windows 7 : des promesses et déjà du succès

si le lancement de vista a été réalisé dans la douleur pour microsoft (et ses utilisateurs : drivers, compatibilité, lourdeurs…), l’éditeur semble bien décidé à tirer les leçons de cette mésaventure pour faire de Windows 7 un succès sans précédent. et les opérations portent leurs fruits, puisque le nouvel os est déjà très populaire avant son lancement officiel : téléchargements, programme de compatibilité... sans compter les articles de presse.Les entreprises abonnées à la software assurance peuvent déjà accéder au système d’exploitation en téléchargement, et le font selon microsoft. sinon, la date de lancement officielle est fixée au 22 octobre. il suffira aux acquéreurs d’un nouveau pc d’ajouter quelques euros pour obtenir une licence Windows 7, quelle que soit l’édition concernée.pour les entreprises ne bénéficiant pas de téléchargements illimités aux anciennes versions, microsoft propose de revenir jusqu’à deux versions en arrière (soit Windows Xp pro ou entreprise). Jusqu’à présent l’éditeur se limitait à la version précédente. attention, cela ne sera possible que jusqu’à la sortie du premier service pack, en général 18 mois après. de toute façon, la licence Windows 7 est perpétuelle pour l’ordinateur concerné.La gamme Windows 7 est limitée en nombre de versions : •Windows7Starteréquipedesnetbooks,•Windows7FamilialPremiumconcernelesordinateursdomestiques,•Windows7Progagneplusieursnouvellesfonctionsdont:l’XPMode(virtualisationd’applicationsXP),la

gestion de domaines réseau, la prise de contrôle à distance…•Windows7Entreprise(pourlesabonnésàlaSoftwareAssurance)ajouteBitlocker-to-go(chiffrementde

disque et de clés usB), direct access (accès automatique sécurisé de type vpn au réseau distant), entre autres.

Windows 7 intégrale est la version entreprise pour tous. n

Page 20: Le SI collaboratif : centralisé ou décentralisé ?

20 IT-expert n°81 - septembre/octobre 2009

Apple lâche son Leopard des neiges

Le 28 août, apple fait une rentrée remarquée en lançant la dernière version de son système d’exploitation mac os X 10.5. nom de code du mac os X mac os X 10.6 : snow Leopard.cette nouvelle mouture intègre le client microsoft exchange server 2007 dans la messagerie, le carnet d’adresses et l’agenda. Le mac devient ainsi un poste de travail d’entreprise plus « politiquement correct »… pour synchroniser ses informations sur le réseau interne comme à distance. néanmoins, apple souffre du manque de support ou de services aux entreprises. nouveauté technologique intéressante, snow Leopard prend aussi en charge le mode 64 bits. avec la fonction Grand central dispatch (Gcd), snow Leopard tire pleinement profit de la puissance des processeurs multicoeurs. toujours côté performance, les développeurs apprécieront le support de l’opencL, qui les autorise à s’appuyer sur les processeurs graphiques pour accélérer tous les types d’application. parmi les autres améliorations, on notera : un finder optimisé, l’intégration d’exposé dans le dock, quicktime 10 relooké. apple promet une installation plus rapide de l’os qui vérifie la compatibilité des applications et optimise l’espace disque. apple toutes griffes dehors ?cette mise à jour est tarifée à 29 euros pour un poste, et 49 euros les cinq licences (pack familial). une mise à niveau est proposée pour 8,95 euros aux clients ayant acheté un mac entre le 8 juin et le 26 décembre 2009. n

IBM sur le point de s’offrir SPSS

après les rachats de cognos (5 milliards de dollars fin 2007) et du français ilog, Big Blue annonce son désir d’acquisition de la société spss, un éditeur spécialiste de l’analyse prédictive, très

renommé dans le mode de la Bi, du datamining et du marketing, entre autres. montant de l’offre : 1,2 milliard de dollars !Les deux entreprises déjà partenaires ont une vision assez claire des synergies possibles et de leur complémentarité. spss rejoindrait la nouvelle division iBm information management aux côtés de cognos, ilog et infosphere pour incarner la stratégie « information-Led-management » du géant de l’informatique. en outre, les consultants d’iGs apporteront certainement une expertise indispensable pour généraliser ces technologies de dataming. Bref, les synergies ne fonctionnent pas uniquement entre solutions logicielles.il faudra attendre le 2 octobre que la réunion des actionnaires ait annoncé sa position. avec une surprime de plus de 42 % du cours la veille de l’annonce, un refus serait plus qu’étonnant. n

Microsoft et Yahoo! en prennent pour dix ans

cette fois c’est fait ! non, microsoft n‘a pas encore racheté Yahoo ! mais le partenariat engage les deux entreprises pendant dix ans. selon l’accord, microsoft acquiert une licence exclusive sur les technologies de recherche Yahoo! et le droit de les intégrer dans ses propres plateformes de recherche. par ailleurs, Bing devient le seul algorithme de recherche et la seule plate-forme de gestion des paiements liés à la recherche sur les sites Yahoo!. en outre, la publicité des sites de recherches des deux acteurs sera gérée par la plateforme adcenter de microsoft. et Yahoo maintient ses activités d’affichage publicitaire et conserve ses équipes commerciales. Le partage des revenus a été arrêté en commun, et microsoft garantit un chiffre d’affaires sur les sites concernés de chaque pays, dans les 18 mois suivant l’implémentation technique. tous les pays devraient être déployés 24 mois après la signature de l’accord, soit août 2010.Yahoo! évalue le bénéfice annuel de l’opération à 500 millions de dollars, auxquels s’ajoutent 200 millions de dollars de réduction sur les investissements, pour une augmentation du cash-flow de 275 millions de dollars. pourtant, quelques heures après l’annonce, la bourse -que ces chiffres ne semblent pas avoir convaincus- sanctionnait Yahoo! cet accord suffira-t-il à faire décoller Bing, et à venir chatouiller l’omnipotent Google ? n

LogMeIn propose le réseau virtuel aux petites entreprises

spécialiste de la connexion des périphériques distants via internet (ordinateurs, smartphone, points de vente, équipements médicaux…), l’éditeur Logmein lance son offre central pour offrir aux petites entreprises une solution de « mise en réseau sans réseau local ». en toute sécurité, l’entreprise dispose ainsi d’un « réseau privé » et sécurisé sur lequel connecter ses différents ordinateurs (smartphones, etc.). une solution qui séduira sans doute les professionnels nomades non informaticiens.pour 225 E par an, le client bénéficie du déploie-ment illimité du service gratuit d’accès distant Logmein free, de la connexion automatique et sécurisée pour éviter d’avoir à ressaisir ses mots de passe, et de la connectivité vpn instantanée à la demande sans matériel additionnel. n

Page 21: Le SI collaboratif : centralisé ou décentralisé ?

21IT-expert n°81 - septembre/octobre 2009

Actualités internationales

Microsoft Office 2010 pour le printemps prochain

début septembre, microsoft france a inauguré ses nouveaux locaux à issy-les-moulineaux, et évoqué à plusieurs reprises la prochaine version d’office qui devrait arriver au printemps 2010. sur un pc, un smartphone, un netbook, en ligne… office 2010 veut rendre les documents bureautiques accessibles à tous et sur un maximum de terminaux. et lorsqu’il s’agit d’office Web apps, l’accès sera non seulement en consultation, mais aussi en mode édition (modification, mise à jour…). mieux encore, office devient même accessible depuis mac, Linux, unix, etc. depuis un navigateur internet safari ou firefox. de plus, microsoft a également signé un accord avec nokia pour assurer la compatibilité de sa suite bureautique avec le système d’exploitation symbian.

La collaboration a été renforcée au cœur de la gamme office 2010, et les utilisateurs peuvent travailler ensemble sur les documents en temps réel, non seulement à partir des versions logicielles, mais aussi en ligne. Le ruban de menus est étendu à outlook et à sharepoint. powerpoint s’enrichit de fonctions vidéo avancées avec l’enregistrement des présentations aux formats vidéo. autre nouveauté. et une traduction multilingue (mot et phrases) devient possible via internet depuis les logiciels sur simple survol avec la souris.Le nombre de packs office passe de huit à cinq. deux versions entreprise :•OfficestandardavecWord,Excel,PowerPoint,Outlook,Publisher,

onenote et office Web apps •OfficeProPlusavecensupplémentAccess,InfoPath,Communicator

et sharepoint. et trois versions grand public :•OfficePro(sanslesclientsdeserveursMicrosoft),•OfficeHome&Business(OfficeprosansAccessniPublisher),•OfficeHome&Student(laversionci-dessussansOutlook).Les tarifs n’ont pas été arrêtés. n

Création du CISQ : Consortium pour la Qualité Logicielle

difficile de contrôler la qualité structurelle des applications et d’évaluer les risques inhérents à des développements de mauvaise qualité. un problème complexe auquel tentent de répondre deux organismes internationaux spécialisés dans le génie logiciel.Le software engineering institute (sei) et l’object management Group (omG) ont annoncé mi-août un partenariat pour créer et animer le consortium pour la qualité Logicielle des systèmes d’information ou cisq (consortium of it software quality). cette initiative vise à définir un standard mondial permettant l’évaluation précise et objective de la qualité, de la complexité et de la taille des applications, suffisamment détaillé pour pouvoir automatiser ces mesures. objectif ambitieux ! toutefois, ces deux organismes ont à leur actif la création de standards comme cmmi, corba ou encore umL.Le CISQ s’est fixé cinq objectifs prioritaires :1 - sensibiliser les autorités, les entreprises et le marché à l’importance de la qualité interne (non fonctionnelle) des

logiciels2 - développer un standard pour permettre aux organisations it d’évaluer objectivement la qualité de leurs

applications3 - proposer une méthodologie basée sur les indicateurs qualité pour négocier l’acquisition et la maintenance des

logiciels4 - développer et promouvoir un programme de certifications5 - ouvrir un forum en ligne pour répondre aux demandes liées à la qualité des applications.Le cisq est dirigé par le dr Bill curtis, co-auteur du cmm, autorité en qualité logicielle, et actuel directeur scientifique de l’éditeur de logiciel français cast. n

Page 22: Le SI collaboratif : centralisé ou décentralisé ?

22 IT-expert n°81 - septembre/octobre 2009

Les véritables enjeux économiques de la qualité interne des applications

Page 23: Le SI collaboratif : centralisé ou décentralisé ?

Quoi de neuf Docteur ?

23IT-expert n°81 - septembre/octobre 2009

alors que la plupart des entreprises sont en mesure de quantifier les coûts des interruptions de service de leurs applications, elles peinent à élaborer des dossiers pour justifier les investissements en qualité logicielle à réaliser pour prévenir ces défaillances. Les bugs en production sont rarement imputables à une mauvaise définition des besoins fonctionnels et sont trop souvent dus à des défauts techniques (non-fonctionnels) qui résultent d’une mauvaise conception ou d’un mauvais codage n’apparaissant clairement qu’après la mise en production.

Un risque majeur insidieux et onéreux…La mauvaise qualité des applications est la cause de nombreux problèmes critiques qui mettent en danger le revenu : pannes des systèmes stratégiques, données corrompues, failles de sécurité, non-conformité avec la réglementation, etc. ces problèmes échappent généralement à la détection lors de la phase de tests. de ce fait, les problèmes de performance métier dus à une qualité interne des applications insuffisante réduisent de façon conséquente la valeur économique générée par l’entreprise et augmente les dépenses it durant toute la vie d’une application.

… transformable en opportunitécinq domaines critiques en termes d’impact sur le revenu ont été identifiés pour évaluer la qualité interne d’une application. L’amélioration de ces « facteurs de santé » impacte directement l’augmentation de la productivité métier, l’accélération de mise sur le marché, l’amélioration de la satisfaction utilisateurs et la réduction des dépenses it. c’est une situation gagnant-gagnant : des bénéfices métier conséquents tout en réduisant les dépenses it.

en mesurant et en contrôlant les facteurs de santé dès le début du cycle de vie de l’application, l’entreprise garantit aux divisions métier une livraison de qualité. en outre, les problèmes de qualité des applications sont découverts avant qu’ils ne se transforment en incidents majeurs lors du déploiement. et les causes de ces défauts sont identifiées et peuvent être supprimées une bonne fois pour toutes, évitant toute interruption importante de l’activité et la frustration des clients. une baisse de 10% de la performance des applications peut rapidement se transformer en une perte de productivité d’un demi-million d’euros en un trimestre. si des améliorations de la qualité interne génèrent une réduction du rework de 25 % par an et permettent aux équipes de maintenance de réduire de 60 % le temps passé à déchiffrer le code, cela permet d’affecter les 75 000 E économisés par application à la création de nouvelles fonctionnalités.

des méthodes concrètes existent pour calculer les coûts métier et informatiques inhérents à une baisse de la qualité des applications. en mesurant et en améliorant de façon proactive les facteurs de santé, les équipes informatiques peuvent améliorer notablement la qualité et la valeur business d’une application, tout en réduisant les coûts. Lorsque des pertes dues à une faible qualité des applications ne sont évaluées qu’en regard des coûts de développement ou de maintenance, leur impact demeure invisible. toutefois, lorsqu’elles sont évaluées par rapport aux coûts et aux pertes d’opportunités « business », investir dans la qualité des applications devient une évidence.

Pourquoi se pencher sur la qualité interne d’une application métier ? Les activités en ligne prenant une part de plus en plus importante dans l’activité des entreprises, les préoccupations sur la qualité des applications métier sont passées du service informatique au comité de direction. Les indisponibilités d’un site d’e-commerce se mesurent en ventes perdues. L’échec de l’enregistrement d’un client peut être mesuré en termes de défection de client. des données financières corrompues représentent autant de frais de retraitement. ces trois incidents se mesurent également en détérioration de l’image de l’entreprise.

Les problèmes le plus souvent à l’origine de ces catastrophes ne sont pas des défauts de logique fonctionnelle (« ce que l’application est supposée faire »). ces problèmes sont généralement provoqués par les défauts non fonctionnels causés par une mauvaise conception ou une mauvaise programmation (« la façon dont l’application le fait »).

Page 24: Le SI collaboratif : centralisé ou décentralisé ?

24 IT-expert n°81 - septembre/octobre 2009

La plupart des défauts fonctionnels sont détectés pendant la phase de tests. Les défauts non fonctionnels sont souvent invisibles jusqu’à ce qu’ils soient révélés au cours d’opérations courantes et entraînent des incidents critiques. comme diomidis spinellis le précise dans son ouvrage récent, Code Quality, « manquer de satisfaire à une exigence non fonctionnelle peut être critique, voire catastrophique… les exigences non fonctionnelles sont parfois difficiles à vérifier. Nous ne pouvons pas créer un test pour vérifier la fiabilité du système ».

alors que la plupart des entreprises sont en mesure de quantifier les coûts des pannes de leurs applications, elles peinent à élaborer des dossiers pour justifier les investissements en qualité logicielle à réaliser pour empêcher ces défaillances.

cet article expose une méthode permettant d’estimer et de mesurer les conséquences des améliorations de la qualité sur la valeur métier. estimer les bénéfices qu’une organisation réalisera en améliorant la qualité interne d’une application nécessite une connaissance approfondie du métier que l’application supporte.

Cinq facteurs de santé mesurables

La qualité interne d’une application correspond, entre autres, à la robustesse de son architecture et au fait que sa conception suive les bonnes pratiques de programmation. La qualité interne d’une application n’est pas mesurée au moyen de tests conçus pour vérifier la justesse fonctionnelle d’une application. au contraire, l’évaluation de la qualité interne concerne les caractéristiques non fonctionnelles d’une application - la structure interne et l’ingénierie du code.

cinq domaines critiques en termes d’impact sur le revenu ont été identifiés pour évaluer la qualité interne d’une application. ces cinq points, ou « facteurs de santé » sont comparables, mais pas identiques, aux mesures qualitatives d’un logiciel définies dans la norme iso 9126. chacun de ces cinq facteurs peut être évalué en mesurant de nombreuses caractéristiques du logiciel et en agrégeant les résultats dans un facteur de santé récapitulatif pour ce point (cf. figure 1). ces facteurs de santé résument la qualité interne d’un logiciel à un niveau pouvant être lié aux résultats et à la valeur métier.

Facteurs de santé Description Exemples de bénéfices pour les métiers

Transférabilité Caractéristiques permettant à de nouvelles équipes ou à de

nouveaux employés de comprendre et de travailler rapidement

sur une application

• Réduit l’inefficacité due au transfert entre les équipes

• Réduit les courbes d’apprentissage

• Réduit la dépendance envers les prestataires

Évolutivité Caractéristiques permettant de modifier plus simplement

et plus rapidement une application

• Améliore l’agilité métier en répondant au marché ou aux clients

• Réduit le coût de possession en réduisant l’effort de modification

Robustesse Caractéristiques affectant la stabilité d’une application

et la probabilité d’introduire des défauts en la modifiant

• Améliore la disponibilité des services métier

• Réduit le risque de pertes dû à un dysfonctionnement opérationnel

• Réduit le coût de possession d’une application en réduisant le rework

Performance Caractéristiques affectant la performance d’une application • Réduit le risque de perdre des clients à cause d’un service de faible qualité

ou de mauvais temps de réponse

• Améliore la productivité des utilisateurs de l’application

• Augmente la rapidité de prise de décisions et de transmission d’informations

• Améliore la capacité d’adapter une application à la croissance d’une entreprise

Sécurité Caractéristiques affectant la capacité d’une application

à prévenir toute intrusion non autorisée

• Améliore la protection des informations sensibles

• Réduit le risque de perte de confiance des clients ou de dommages financiers

• Augmente la conformité réglementaire en matière de sécurité

Figure 1 - Les facteurs de santé et leurs avantages métier

Page 25: Le SI collaboratif : centralisé ou décentralisé ?

Quoi de neuf Docteur ?

25IT-expert n°81 - septembre/octobre 2009

Comment ces facteurs affectent-ils la valeur métier ?

Les coûts de la mauvaise qualité interne d’une application peuvent être évalués par rapport à cinq objectifs business :

• Réduire les risques• Augmenter l’agilité• Améliorer la productivité• Optimiser la contribution de l’informatique aux métiers• Améliorer l’expérience client

La qualité interne des applications métier est cruciale pour obtenir de bons résultats informatiques. ces résultats, à leur tour, affectent un grand nombre de résultats métier indispensables pour réaliser les objectifs business. cette chaîne de création de valeur entre les facteurs de santé et les objectifs business est représentée de droite à gauche sur l’illustration (figure 2). ces relations sont multiples puisque les facteurs de santé et les objectifs informatiques interagissent de plusieurs façons avec les résultats et les objectifs business.

Figure 2. Relations entre les facteurs de santé et les objectifs business

La qualité d’une application peut être évaluée par rapport à un ensemble d’objectifs plus spécifiques qui découlent de chaque objectif business. exemples de risques business :

• pannes des systèmes critiques,• données corrompues,• violations de la sécurité• non-conformités avec la réglementation

chacun de ces objectifs plus spécifiques peut avoir un ensemble unique de résultats qui l’affecte. Les résultats informatiques varient en fonction des résultats spécifiques qu’ils impactent le plus. La figure 3 présente une analyse détaillée de la façon dont ces facteurs de santé affectent les quatre sous-objectifs qui composent la de réduction des risques.

Maximiser la disponibilité métierMinimiser la dégradation du service

Minimiser la perte de revenuMinimiser les pénalités

Minimiser les coûts des clientsMinimiser la reconstruction de données

Minimiser les pannes involontairesMaximiser la protection des informations

Maximiser la confiance des clientsMaximiser la fidélité client

Maximiser la conformité réglementaireAccélérer les mises sur le marché

Améliorer le temps de réponse aux clientsPermettre la personnalisation de masse

Soutenir la croissance de l’activitéAccélérer la réactivité

Accélérer la récupération des informationsAugmenter les nouvelles fonctionnalités

Augmenter la disponibilité des ressourcesRéduire le coût de possession

Réduire les coûts opérationnelsRéduire la dépendance au fournisseur

Réduire les défauts existants

Réduire les nouveaux défauts

Améliorer la stabilité

Garantir l’intégrité architecturale

Réduire les défauts de sécurité

Garantir la conformité avecles règles de programmationAméliorer la performance

Réduire la complexité du code

Optimiser l’évolutivité

Réduire les efforts de modification

Réduire le rework

Améliorer la lisibilité du code

Réduire les courbes d’apprentissage

Faciliter le transfert entre équipes

Minimiserles risques

Objectifsbusiness

Résultatsmétier

Objectifsde l’IT

Facteursde santé

Augmenterl’agilité

Augmenterla productivité

Optimiserla contribution

de l’IT

Robustesse

Sécurité

Performance

Évolutivité

Transférabilité

Page 26: Le SI collaboratif : centralisé ou décentralisé ?

26 IT-expert n°81 - septembre/octobre 2009

ce schéma montre bien que la qualité interne d’une application impacte directement les résultats business et la réalisation de ses objectifs. même sans créer un modèle quantitatif des relations dans ce schéma, il est possible d’utiliser des équations simples illustrant la manière dont la qualité d’une application peut affecter la valeur économique dérivée d’une application.

Figure 3. Relation entre les facteurs de santé et les sous-objectifs de réduction du risque

Les équations exposées ci-dessous démontrent comment utiliser ces relations pour exprimer la valeur économique de la qualité interne des applications. ces équations ne sont pas présentées sous forme de véritables analyses roi puisqu’elles n’incluent pas le coût de l’argent, les périodes de recouvrement des investissements et d’autres éléments des modèles roi classiques. elles représentent les pertes liées à chaque objectif business, et illustrent comment la mauvaise qualité interne des applications se traduit en une perte de revenu et en une augmentation des coûts.

Réduire les risques métier

Les risques sont souvent la façon la plus simple de quantifier les avantages qualitatifs. Le coût de la non-qualité peut être exprimé en termes de perte de revenus, actuel ou futur, de coût de sous-utilisation des employés, de pénalités et d’autres coûts basés sur des données métier historiques. différents types de risques entraînent différents types de pertes.

Les pannes qui mettent fin aux transactions commercialesconsidérons une évaluation simplifiée de la perte due à l’interruption de service d’une application commerciale telle qu’un système de réservation ou de commande client. Les coûts engendrés impliquent une perte de revenu, un effort de l’entreprise pour récupérer et réactiver les transactions, une saturation du service clients et les coûts associés pour gérer les relations clients, des pénalités et d’autres coûts dépendant du secteur d’activité. Bien que l’ensemble de ces coûts ne survienne pas à chaque panne, ils doivent être pris en considération pour s’assurer qu’ils ne restent pas dissimulés dans les activités courantes.

Perte = ((revenu moyen par minute) x (nombre de minutes d’indisponibilité)) + coûts pour réactiver l’activité + ((minutes supplémentaires de service client) x (E par minute) + future perte de revenu due à la défection des clients + pénalités, le cas échéant + autres coûts liés)

Données corrompuesLes coûts liés aux données corrompues comprennent la recréation de données exactes, le redéveloppement ou la correction de rapports incorrects et toutes les pénalités résultant de l’utilisation ou du reporting de données inexactes. Le coût de la corruption de données est déterminé par le temps écoulé avant que les données incorrectes ne soient détectées puisque, dans de nombreux cas, cela augmente le travail de correction. Le business supporte la plupart des frais engendrés par la corruption de données, soit en ayant à corriger les données, soit en subissant des interruptions d’activité pendant que l’it restaure les données correctes.

Objectifsbusiness

Résultatsmétier

Objectifsde l’IT

Facteursde santé

Minimiserles risques

Robustesse

Sécurité

Performance

Évolutivité

Interruptionsde service

Donnéescorrompues

Violations dela sécurité

Non-conformitésréglementaires

Maximiser la disponibilité métierMinimiser la dégradation du service

Minimiser la perte de revenuMinimiser les pénalités

Minimiser les coûts des clientsMinimiser la reconstruction de données

Minimiser les pannes involontairesMaximiser la protection des informations

Maximiser la confiance des clientsMaximiser la fidélité client

Maximiser la conformité réglementaire

Réduire les défauts existants

Réduire les nouveaux défauts

Améliorer la stabilité

Garantir l’intégrité architecturale

Réduire les défauts de sécurité

Garantir la conformité avecles règles de programmation

Améliorer la performance

Optimiser l’évolutivité

Page 27: Le SI collaboratif : centralisé ou décentralisé ?

Quoi de neuf Docteur ?

27IT-expert n°81 - septembre/octobre 2009

Perte = coût de la reconstruction des données + coût de la recréation de rapports corrects + pénalités dues à des données incorrectes + autres coûts

Violation de la sécuritéLes défauts dans l’architecture d’une application ou dans le code créent souvent des vulnérabilités que les hackers et les cybercriminels exploitent pour pénétrer dans le système. ces coûts peuvent inclure ceux liés au vol d’informations sur l’entreprise ou sur les clients, à la réparation des dommages malveillants, à l’information des clients sur d’éventuelles données compromises, aux améliorations de la sécurité des systèmes et des processus métiers, aux pénalités et aux futures pertes de revenu dues à la défection des clients. Bien que lourds, les coûts identifiables des problèmes de sécurité sont souvent moins importants que la perte de revenu due aux clients qui n’utilisent plus les applications ou qui se tournent vers la concurrence qui offre, selon eux, une meilleure sécurité.

Perte = coût des ressources volées + coût de la correction des données, des rapports ou des comptes + coût de l’information aux clients + coût de l’amélioration de la sécurité + futures pertes de revenu dues à la défection des clients + pénalités, le cas échéant

Non-conformité avec la réglementation La faiblesse du code d’une application peut placer l’entreprise en non-conformité avec les normes de l’industrie ou les réglementations légales. alors que la non-conformité peut engendrer des pénalités financières, le non-respect des réglementations telles que sarbanes-oxley peut avoir des répercussions pénales.

Perte = coût des pénalités pour non-conformité + coût de la mise en conformité du système

Maximiser l’expérience client

de plus en plus de transactions étant réalisées en ligne, les applications métier deviennent la vitrine de l’entreprise. L’expérience du client avec la société se transforme en expérience de la facilité d’utilisation et de la performance des applications. Les interfaces utilisateurs confuses, les sites internet labyrinthiques et les temps de réponse incroyablement lents frustrent les clients. au minimum, ces problèmes réduisent le nombre de transactions des clients, dans le pire des cas, ces derniers se tournent vers la concurrence.outre le problème de fidélisation, des clients non-autonomes engendrent davantage de frais par transaction, car ils appellent le support client pour réaliser des achats qu’ils auraient pu effectuer seuls en ligne. plus l’interface est confuse et plus le nombre d’employés dédiés à l’assistance à la vente doit être important. par exemple, lorsque le temps de réponse du système est lent, les clients cliquent souvent sur des boutons qui peuvent être interprétés comme des commandes en attendant les pages à afficher. ces entrées incorrectes nécessitent du personnel pour corriger et réinitialiser un compte client. La facilité d’utilisation et la réactivité contribuent à l’augmentation du revenu et à la réduction des coûts du service clientèle.

Page 28: Le SI collaboratif : centralisé ou décentralisé ?

28 IT-expert n°81 - septembre/octobre 2009

Perte = future perte de revenu due à la défection des clients + future perte de revenu due à la diminution des transactions des clients fidèles + coût des transactions réalisées au niveau du service clientèle et non en ligne + coût des appels au service clientèle liés à des difficultés d’utilisation en ligne.

Augmenter l’agilité métier

Les technologies de communication modernes (réseaux cellulaires, internet, etc.) ont accéléré le rythme de l’économie. La concurrence a ainsi réduit le temps de réaction face aux demandes des clients et aux évolutions du marché. L’agilité d’une entreprise à répondre rapidement à ces besoins dépend strictement de la qualité technique de ses applications. plus l’architecture ou le code d’une application est complexe sans raison, plus il est long d’ajouter ou de modifier une fonctionnalité, de vérifier sa conformité, et de la livrer. pire, une complexité inutile induit plus d’erreurs et de rework qui allongent les temps de développement et de livraison des nouvelles fonctionnalités au métier.

Perte = perte de revenu liée à une offre tardive par rapport à l’intention d’achat du client + perte de revenu due à des concurrents plus rapides + future perte de revenu due à la défection de clients + perte de profit due à l’affaiblissement du bénéfice du premier entrant + diminution de l’économie d’échelle due à la perte de parts de marché

L’impact de la qualité interne d’une application sur l’agilité métier est exprimé en termes de coût d’opportunités perdues. cela représente la perte de revenu ou de parts de marché subie lorsque les concurrents sont en mesure de répondre plus rapidement ou lorsque la réponse arrive trop tard par rapport aux intentions d’achat du client. même si l’importance de l’agilité ne remet pas en cause la viabilité et la croissance à long terme d’une entreprise. car améliorer l’agilité et réduire le risque business engendre surtout des bénéfices immédiats. des améliorations de l’agilité métier affectent quand même l’aptitude d’une société à exécuter sa stratégie et à optimiser ses résultats à long terme.

Améliorer la productivité métier

L’une des principales raisons d’être des applications étant d’améliorer la productivité métier, les défauts provoquant des pannes ou une dégradation de la performance privent l’organisation des bénéfices de ses investissements, à la fois dans le développement de ces applications et dans la main d’œuvre qui les utilise. Les pertes entraînées par des pannes ont été couvertes dans la section « risques métier ». on ne traitera ici que l’impact de la productivité sur les employés et sur la génération de revenu. Les coûts d’une perte de productivité sont généralement calculés en termes d’heures supplémentaires pour terminer le travail ou de pertes d’opportunités pour la génération de revenu. même si les heures supplémentaires n’ont pas été rémunérées, l’impact sur le moral du personnel est susceptible de réduire encore davantage la productivité ou de provoquer des départs volontaires. en outre, une réduction de la productivité engendre des retards dans la réalisation des tâches, qui implique d’autres coûts tels que des pénalités de retard.

Perte = [(1 – (production réduite en raison d’une mauvaise performance ÷ production moyenne pour une performance normale)) x nombre d’employés concernés x coût horaire moyen x nombre d’heures de mauvaise performance] + [(1 – (baisse des revenus due à une diminution de la performance ÷ revenu moyen pour une performance normale)) x performance x revenu moyen de l’heure] + coûts du travail retardé

Page 29: Le SI collaboratif : centralisé ou décentralisé ?

Quoi de neuf Docteur ?

29IT-expert n°81 - septembre/octobre 2009

Augmenter l’impact de l’IT

dans les grandes entreprises, l’informatique représente un pourcentage fixe du budget global, généra-lement de 4 à 4,5 %. Les économies réalisées représentent donc des investissements supplémentaires, plutôt qu’un retour de fonds. La proposition de valeur devient alors « comment obtenir davantage de fonctionnalités métier pour notre investissement fixe ? » .

Généralement, environ la moitié du budget informatique est consacré au développement et à la maintenance des applications. La qualité interne des applications métier contrôle étonnamment une grande partie de ces coûts et dicte le volume des ressources à affecter au développement des applications. par exemple : chaque heure passée à régler des problèmes de qualité est une opportunité perdue de fournir de la valeur supplémentaire. de même, des études ont prouvé que 50 % des travaux de maintenance sont consacrés à comprendre le code plutôt qu’à enrichir l’application. réduire la complexité du code peut réduire le temps nécessaire à sa compréhension, et permettre de consacrer plus de temps au développement de fonctionnalités très utiles.

Perte = ((pourcentage annuel de temps passé sur le rework) x (coût moyen charges comprises d’un développeur) x (nombre de développeurs)) + ((pourcentage annuel de temps passé à modifier ou à améliorer le code existant) x (0,5 soit le temps passé à comprendre)) x (coût moyen charges comprises d’un développeur) x (nombre de développeurs))

Un exemple de perte de valeur directement liée à une faible qualité interne

en utilisant la formule relative aux pannes des applications qui interrompent les transactions, considérons les coûts pour 1 heure de panne d’une application qui rapporte 120 E à la minute (7 200 E de l’heure). outre la perte de revenu, l’entreprise dépensera 1 000 E en heures de travail pour vérifier, corriger ou régénérer des transactions partiellement réalisées, et pour vérifier que le système fonctionne correctement une fois l’application remise en ligne. Le service clientèle a subi 250 minutes supplémentaires d’appels à 2 E la minute. des analyses de Business intelligence ont démontré que 20 clients n’ont plus pris contact avec la société après la panne, le revenu généré par ces clients étant de 150 E par an. Heureusement, cette panne n’a engendré aucune pénalité. Le coût total de cette panne est estimé à :

Perte = ((60 minutes) x (120 E la minute)) + 1 000 E de frais de réactivation + 500 E de frais de service clientèle + 3 000 E de pertes de revenu clients cette année Perte = 11 700 E

si la société subit une panne d’une heure de cette application une fois par trimestre, la perte annuelle totale sera de 46 800 E, les coûts it pour réparer la cause de la panne et retester l’application n’étant pas inclus. ces coûts it seront considérés comme du rework dans un prochain calcul, car ils réduisent l’aptitude de l’it à contribuer au business.

considérons ensuite qu’outre des pannes, la performance de l’application diminue de 10 % en raison de mauvaises procédures d’accès à la base de données qui réduisent sa capacité à traiter un nombre croissant de transactions. considérons également que cette application occupe 100 employés à 25 E de l’heure. cette perte de productivité est calculée à la fois comme une perte de revenu et comme une perte de valeur salariale. Le coût par trimestre de ces problèmes de qualité interne de l’application est estimé à :

Perte = ((0,1 soit le pourcentage de baisse de productivité) x (100 employés) x (25 E de l’heure) x (500 heures par trimestre)) + ((0.1 soit le pourcentage de baisse de productivité) x (7 200 E de l’heure) x (500 heures par trimestre)) Perte = 485 000 E par trimestre

Page 30: Le SI collaboratif : centralisé ou décentralisé ?

30 IT-expert n°81 - septembre/octobre 2009

ce chiffre peut être réduit par des heures supplémentaires non rémunérées pour terminer le travail. néanmoins, une faible qualité interne prive l’organisation d’une partie conséquente du retour sur investissement attendu (logiciel et humain).

enfin, considérons le coût de l’amélioration et de la maintenance de cette application. si l’on considère que 5 développeurs travaillent à plein temps sur cette application pour un coût annuel charges comprises de 100 000 E chacun. ils passent environ 35 % de leur temps à supprimer les défauts et 50 % de leur temps à maintenir et à améliorer le code existant. La non-contribution de l’informatique à l’activité de l’entreprise est estimée à :

Perte = ((0,35 soit le pourcentage de temps passé sur le rework) x (100 000 E de coûts salariaux) x (5 développeurs)) + (((0,5 soit le pourcentage de temps passé à modifier le code) x (0,5 soit le pourcentage de la maintenance passé à comprendre le code)) x (100 000 E de coûts salariaux)) x (5 développeurs)) Perte = 300 000 E

La perte due aux risques de pannes, la perte de productivité métier et la perte de contribution de l’it attribuée à la mauvaise qualité structurelle des applications est ainsi très élevée. proportionnellement à l’importance de ces pertes, les améliorations de la qualité des applications offrent des avantages conséquents. Lorsque des pertes dues à une faible qualité des applications ne sont évaluées que par rapport aux coûts de développement ou de maintenance, l’impact des pertes est invisible. toutefois, lorsqu’elles sont évaluées par rapport aux dépenses et aux pertes d’opportunités commerciales, un dossier d’investissement irréfutable peut être élaboré pour la qualité applicative.

L’amélioration de la qualité interne des applications : indiscutablement une valeur sûre

améliorer la qualité des applications comprend deux éléments ; la qualité externe fonctionnelle et la qualité interne non fonctionnelle. La plupart des détections de défauts et des initiatives qualité intégrées dans les processus standards de développement et de maintenance sont axées sur la qualité externe ou fonctionnelle. il s’agit des défauts correspondant aux écarts par rapport au cahier des charges. Les avancées en termes de tests, d’évaluation par les pairs, et des processus et technologies de gestion des exigences ont amélioré les capacités des équipes de développement à détecter et à supprimer la majorité de ces défauts avant de mettre l’application en production.

puisque les défauts internes non fonctionnels sont plus difficiles à détecter, car ils sont dissimulés dans l’architecture et dans la structure de l’application, ils sont souvent la cause de pannes, d’une diminution de la performance, de failles de sécurité, de données corrompues et de problèmes divers. ces problèmes de qualité peuvent aller de mauvaises techniques de programmation aux architectures complexifiées sans raison, en passant par les violations des normes de codage. en détectant ces problèmes internes de qualité et en les corrigeant par ordre de priorité, les développeurs d’application peuvent augmenter de façon conséquente la valeur d’une application pour le métier.

si l’on revient sur notre exemple décrit précédemment, corriger un défaut qui aurait provoqué une panne d’1 heure permettra à l’entreprise d’économiser 11 700 E par panne, et davantage si la panne avait duré plus d’une heure. considérons maintenant l’impact sur la productivité de la suppression des problèmes de qualité interne ; la dégradation de la performance de 10 % tombe à seulement 7 % de sa capacité d’origine. cet impact permettra à l’entreprise d’économiser 145 500 E par trimestre, par rapport à la perte originelle de 485 000 E.

Perte = ((0,07 soit le pourcentage de baisse de productivité) x (100 employés) x (25 E de l’heure) x (500 heures par trimestre)) + ((0,07 soit le pourcentage de baisse de productivité) x (7 200 E de revenu de l’heure) x (500 heures par trimestre)) Perte = 339 500 E par trimestre

Page 31: Le SI collaboratif : centralisé ou décentralisé ?

Quoi de neuf Docteur ?

31IT-expert n°81 - septembre/octobre 2009

Les améliorations de la qualité interne peuvent avoir deux types de conséquences sur la contribution de l’it au business. si les améliorations de la qualité interne de cette application réduisaient le pourcentage de rework de 25 % par an, l’équipe pourrait contribuer à hauteur de 50 000 E supplémentaires à la production de nouvelles fonctionnalités métier. de même, si les améliorations de la qualité interne réduisaient sa complexité et si les développeurs pouvaient ne passer que 40% de leur temps de développement à comprendre le code, ils pourraient contribuer à hauteur de 25 000 E supplémentaires à la production de nouvelles fonctionnalités métier. comme il est démontré ci-dessous, le montant de la non-contribution de l’informatique au business est passé à 225 000 E grâce aux améliorations de la qualité interne, dégageant ainsi 75 000 E pour ajouter de la valeur à l’activité.

Perte = (0,25 soit le pourcentage de temps passé sur le rework) x (100 000 E de coûts salariaux) x (5 développeurs)) + (((0,5 soit le pourcentage de temps passé à modifier le code) x 0,4 pourcentage de la maintenance passé à comprendre le code) x (100 000 E de coûts salariaux) x (5 développeurs)) Perte = 225 000 E

en comparaison avec les coûts de licence, d’installation, de formation et d’utilisation des outils automatisés permettant d’identifier des problèmes de qualité interne, le roi pour les améliorations de la qualité interne est conséquent. Les montants varieront en fonction de la taille et des caractéristiques de l’application, mais pour les applications métiers critiques, la valeur de ces améliorations pour le business est spectaculaire et s’inscrit dans la durée. Les organisations it se doivent de réaliser ce type d’analyses pour défendre les investissements visant à améliorer la qualité de leurs applications. n

Dr. Bill Curtis, directeur du nouveau consortium international sur la qualité Logicielle (cisq)

Co-auteur du CMM & Business Process Maturity Model.

Autorité mondiale en matière de Qualité Logicielle.

http://www.it-cisq.org/

Page 32: Le SI collaboratif : centralisé ou décentralisé ?

32 IT-expert n°81 - septembre/octobre 2009

Les moteurs de règles et l’agilité du SI

Page 33: Le SI collaboratif : centralisé ou décentralisé ?

Comment ça marche ?

33IT-expert n°81 - septembre/octobre 2009

Séparer les règles métiers du code, ou encore les en extraire. Recourir à un moteur qui gère et orchestre ces règles et le processus, et s’appuyer sur un référentiel. Telle serait l’architecture d’une application moderne. Mais comment et pourquoi en est-on arrivé là ? Et quelles sont les solutions types de ce marché ?

Un algorithme d’à peine 25 ans

L’algorithme de rete fut créé en 1983 par charles forgy. dès lors, les solutions de moteur de règle basées sur cet algorithme notamment autour du langage c++ apparaissent. Leur coût lié à un besoin de compétences très pointues devenait prohibitif, car elles fonctionnaient des machines puissantes de l’époque (station unix). autant de caractéristiques qui réservaient ce type de solution à des industries à même d’en retirer une plus value importante et donc de justifier les montants nécessaires à leur implémentation.

il existait déjà des solutions « gratuites » dans des langages comme Lisp, prolog… mais la faible distribution de ces langages dans le monde de l’entreprise ne favorisait pas leur adoption : le client/serveur autour de la base de données était roi !plusieurs phénomènes conjugués ont permis la modification de cette situation:• ladiminutionduprixdelapuissancedesmachines,• l’avènementd’internetet lamontéeenpuissancedes

communautés open source,• lacréationd’unlangage(java)associéaupointprécédent

qui va imposer un standard de fait dans le monde de l’informatique et faciliter le portage des applications dans plusieurs environnements.

Grâce à internet et à la création de communautés dédiées (sourceforge, codehaus, etc.), une coopération mondiale est devenue devient possible, relayée par une diffusion des connaissances et les savoir-faire sur ces technologies. alors, les moteurs de règles ont émergé et pris de l’ampleur en dehors de marchés de niches (banque/assurance, grandes administrations, grandes industries) sur lesquels elles étaient cantonnées.La diffusion de ces savoir-faire a permis l’avènement de projets devenus des commodités et fournis en standard :• Lessystèmesd’exploitation,lenavigateurInternet,lelogiciel

de messagerie, les outils bureautiques, les applications multimédias : toutes ces briques sont aujourd’hui accessibles au grand public à un prix inclus dans celui de la machine ou même à un prix nul pour celui qui fait le pas vers l’open source.

• Pourinternetetlemondedel’entreprise:systèmed’exploi-tation (Linux), serveur d’application (apache, Jboss, etc.), base de données, outils de développements, langages, outils d’intégration (esB), etc. tous ces composants existent en open source. La technologique n’est plus un frein pour la réalisation de logiciels complexes.

il était donc naturel que le monde de la connaissance métier dispose également d’outils matures. ces composants font maintenant par-ties des commodités au même titre que les autres composants.

L’algorithme de Rete et les solutions maison

une des principales caractéristiques des langages de programmation est leur mode d’exécution procédurale liée aux matériels sous-jacents. en effet, le code est exécuté suivant le codage écrit par le développeur sans aucune interprétation. derrière l’algorithme de rete (prononcer « rété ») se cache une approche radicalement différente : la programmation déclarative. Le programmeur code les règles unitairement, et l’algorithme ordonnance les traitements en utilisant des composants et des concepts codés d’une manière classique.

L’algorithme de rete traduit les règles déclarées en un graphe (rete = réseau en latin) qui sera parcouru par le moteur d’exécution des règles.

Les objets du graphe

Chaque règle se décompose en :• conditions qui se basent sur des faits insérés dans un espace

de travail (« working memory » en anglais),• actions si les conditions sont remplies.

Les conditions vont mettre à jour des données du modèle et il est possible d’indiquer au moteur de règles de réévaluer un fait qui peut déclencher éventuellement d’autres règles.

ObjectTypeNode

ReteNode JoinNode NotNode TerminalNode

AlphaNode LeftInputAdapterNode ObjectTypeNode

Cheese

ReteNode

Cheesename == "cheddar"

strength == "strong"

Person

name == "cheddar"

Person.favoriteCheese ==Cheese.name

Person.favoriteCheese !=Cheese.name

System.out.println (preson.getName () + " likes cheddar  ")

System.out.println (preson.getName () +" does not likes cheddar  ")

Rule when Cheese( $chedddar : name == "cheddar" ) $person : Person( favouriteCheese == $cheddar ) then System.out.println( $person.getName() + " likes cheddar" ); end

Rule when Cheese( $chedddar : name == "cheddar" ) $person : Person( favouriteCheese != $cheddar ) then System.out.println( $person.getName() + " does not like cheddar" ); end

Person

Page 34: Le SI collaboratif : centralisé ou décentralisé ?

34 IT-expert n°81 - septembre/octobre 2009

par exemple, il est possible d’ajouter un nouveau fait qui doit être pris en compte. ainsi, l’application des règles de calcul sur un ticket de caisse va créer des bons de réductions. ces mêmes bons de réduction peuvent être limités en fonction du type de carte de fidélité utilisé par le client. La règle qui génère le bon de réduction va, dans sa partie action, notifier au moteur de prendre en compte ce nouveau fait parmi les règles à évaluer.

L’insertion d’un fait permet au moteur de savoir quelle règle peut-être déclenchée et celle qui ne peut pas l’être. d’ailleurs, une des bonnes pratiques consiste à utiliser un modèle objet « fin » (en opposition à un modèle type base de données avec 100 champs par table). ce type de modèle crée des branches dans le réseau de rete, et donc la non-insertion d’un type d’objet va permettre d’éliminer toutes les règles qui n’utilisent pas ce type d’objet et ceci très rapidement par simple parcours de graphe.

Un moteur de règle est constitué de plusieurs composants :• une mémoire de travail qui contient les faits dont le moteur

doit tenir compte. ces faits peuvent être insérés depuis l’extérieur par le programme appelant le moteur de règle ou par les règles elles-mêmes,

• une mémoire de production qui contient l’ensemble des règles,

• un moteur d’inférence infère entre les faits et les règles. il dispose d’un agenda qui lui permet de stocker les règles à exécuter (cf. illustration pour une vue simplifiée de l’algorithme).

Les composants d’un moteur de règle

Algorithme du moteur de règle

Les moteurs de règles effectuent un « chainage avant » (« forward chaining »). c’est-à-dire qu’ils partent des faits pour arriver aux conclusions. cependant, certains moteurs de règles agissent à l’inverse : ils partent des résultats (appelés fréquemment « les contraintes ») pour proposer les solutions possibles.

Une disposition d’esprit particulière

une des premières remarques des utilisateurs d’un moteur de règle « rete » est : « le moteur a des bugs ! ». en effet, le moteur de règle « rete » construit toutes les possibilités de parcours et les développeurs lisent les règles comme du code « procédural » en oubliant le paradigme de « programmation déclarative ». de plus, le moteur de règles construit toutes les possibilités de parcours, d’une manière exhaustive, et sans s’arrêter à la complexité ni aux nombres de possibilités. ceci est à opposer à un être humain qui doit programmer les possibilités et peut en oublier !

on rencontre fréquemment des moteurs de règles développés en interne dans les entreprises. ces moteurs n’implémentent généralement pas d’algorithme de type rete mais profitent des fonctionnalités dynamiques des langages informatiques utilisés.

InferenceEngine

(ReteOO/Leaps)

PatternMatcher

Agenda

WorkingMemory

ProductionMemory

(facts)(rules)

Rulebase

DeterminePossible rules

to fire

Conflict Set

SelectRule to FireRule Found

Exit if specified by rule

No RuleFound

Exit

Fire RuleConflict

ResolutionStrategy

WorkingMemory

Page 35: Le SI collaboratif : centralisé ou décentralisé ?

Comment ça marche ?

35IT-expert n°81 - septembre/octobre 2009

par exemple, on voit souvent des règles de gestion codées dans une base de données. ces règles sont dynamiquement exécutées par la base de données et d’une manière séquentielle.

on note régulièrement une réticence à utiliser un algorithme de type rete. pourtant, il est plus généraliste, plus complet et donc plus puissant pour exprimer l’exécution des règles de gestion, car il est pensé pour cela dès le départ. il existe le même type de réticence lorsqu’il s’agit d’introduire un composant de persistance objet/relationnel type « hibernate » (qui modélise également sous forme de graphe les données à mettre à jour dans la base de données) versus le composant maison dans lequel le développeur a la main pour programmer les requêtes.

dans ces deux situations, les types de composants sont le fruit de nombreuses années de recherche et de pratique et implémentent des algorithmes « complexes » et difficiles à appréhender par des personnes habituées à d’autres technologies utilisant d’autres abstractions (requête sqL, client/serveur).

Sortir les règles du code

du point de vue de l’architecture logicielle, l’utilisation d’un moteur de règle permet de séparer les règles du code.

Sortir les règles du code

dans des développements classiques (objets ou non), les règles de gestion sont distillées à travers le code. en cas de modifications fréquentes des rdG (règle de gestion), le code devient vite complexe à maintenir.

La première idée consiste à centraliser ces règles. et cela peut être mis en place grâce au design pattern stratégie par exemple. La manière d’encoder des règles de gestion avec ce design pattern reste du code non prévu pour exprimer spécifiquement les règles de gestion. de plus, le moteur d’exécution reste procédural. ceci n’est pas adapté pour des règles de gestion qui interagissent entre elles.

La deuxième solution consiste à utiliser un moteur d’exécution spécialisé dans les règles de gestion qui va implémenter un algorithme de type rete.

Les avantages de cette deuxième solution sont multiples :• lesrèglesdegestionsontpartagéesetdoncréutilisables,• lesrèglesnesontcodéesqu’unefois,• lesapplicationssontplussimplesàcoder,carlemétieren

est extrait,• lesrèglesdegestionsontplussimplesàtester,carelles

peuvent l’être en dehors de l’application et donc l’application elle-même est plus simple à tester puisqu’elle ne contient que du code sans règle,

• les règlesdegestionsontmodifiablessans impacterl’application, les évolutions sont donc plus simples,

• lescoûtsdedéveloppementetdemaintenancesontréduits.

La suite logique consiste à créer un référentiel de règle pour l’ensemble des applications

Création de référentiel de règle et d’un outil de gouvernance (BRMS)

utiliser un moteur de règles amène à extraire les règles de gestion du code informatique. cette extraction peut s’effectuer de plusieurs manières :1. Les règles font toujours parties de l’application et sont

embarquées dans les livrables de l’application (dans une webapp en java). dans ce cas, l’agilité est utilisée dans le développement de l’application. un changement de règle va entrainer une nouvelle version du logiciel, mais sans modification de la partie codage informatique. L’informatique garde la main sur le codage des évolutions des règles de gestion implémentées dans l’application.

2. Les règles font toujours parties de l’application, mais ne sont pas embarquées dans les livrables mais à côté (sur un disque dur sécurisé). en cas de modification des règles de gestion, seuls les seconds livrables sont à modifier.

3. Les règles sont extérieures à l’application (dans un référentiel) et l’application demande au référentiel la version de production d’un jeu de règle. Le codage des règles et leurs mises au point sont réalisés par une application de gouvernance des règles (Brms). cet outil pourra éventuellement être manipulé par des analystes métiers et non plus par l’informatique. La gestion des règles de gestion retourne aux personnes du métier et non plus à l’informatique.

4. une des variantes du cas précédent : l’application appelle un service web qui exécute les règles et c’est ce web service qui extrait les règles du référentiel et les exécute.

Règles Métier Code

Données

Règles Métier Code

Données

Page 36: Le SI collaboratif : centralisé ou décentralisé ?

36 IT-expert n°81 - septembre/octobre 2009

Les cas d’usage cités ci-dessus dépendent du niveau d’utilisation du moteur de règles (pour une application, pour tout le système d’information, etc.). il est courant d’utiliser un moteur de règles pour une application, puis de s’apercevoir que les règles de gestion peuvent s’appliquer à d’autres. alors, les règles sont extraites de l’application initiale et placées dans un référentiel qui sera partagé pour tous.

Référentiel de règle

pour réaliser tous ces points, un moteur de règle est composé de différents composants :1. un outil de gouvernance (Brms = Business rules mana-

gement system) qui permet à un analyste métier de saisir les règles dans un langage métier (dsL = domain specific Language), en étant capable de les tester et d’enregistrer les tests, et en gérant les droits d’accès ainsi que le cycle de vie des règles,

2. un référentiel de règle,3. un serveur d’exécution qui extrait les règles de gestion du

référentiel et expose des appels au moteur d’exécution,4. le runtime d’exécution peut être embarqué directement dans

les applications.

L’utilisation d’un référentiel de règle et d’un outil de gouvernance permet au « métier » et à « l’informatique » de communiquer dans un même langage (les règles de gestion). La communication va même plus loin, puisque les gens du métier n’ont alors plus besoin de l’informatique pour modifier les règles de gestion implémentées dans les applications.cette communication est du même type que l’approche Bpm, ou les processus métiers sont décrits initialement, puis plus ou moins automatiquement transmis et exécutés du côté informatique.

L’ESB booste les moteurs de règles

Les premières applications informatiques ne traitaient pas des processus métiers, mais uniquement de l’enregistrement des données et de leurs traitements.

Les moteurs de règles ont permis d’extraire les règles de gestion du langage de programmation pour les placer dans des référentiels. toute la logique métier type processus était

soit manuelle soit codée dans les applications ou dans les flux entre applications.

depuis quelques années sont apparus des outils de workflow, souvent introduits pour permettre la transmission de documents d’un service à un autre. L’apparition des ESB (Enterprise Service Bus) a généralisé cette notion à la communication entre applications. chaque outil esB inclut une gestion de corbeille et permet donc de faire intervenir des actions humaines sous forme de choix. une des pratiques est d’utiliser également un moteur de règles lorsque des choix s’effectuent depuis ces processus (en général BpeL dans les esB). c’est le processus qui appelle les règles.

L’introduction des esB permet de mettre en relation des événements en provenance de plusieurs systèmes. cette mise en relation peut se faire non seulement par les données contenues dans les événements, mais également par leur arrivée temporelle les uns par rapport aux autres. par exemple : si je reçois le courrier de confirmation de virement dans les deux jours qui suivent l’envoi d’un courrier électronique de réclamation pour non-paiement, j’annule ma procédure d’impayée. toute une partie du métier se trouve dans ces règles de gestion et n’est pas traitée par les moteurs de règle de gestion. Les moteurs de règle actuels couvrent plus ou moins tous ces points.

Le cas du moteur de règles Jboss rules - drools

L’offre du marché des moteurs de règles est riche, mais quelques grands noms se dégagent :• lemoteurderègled’Ilog (maintenant iBm dans l’offre soa)

offre un moteur de règles, un référentiel de règle (avec outil de gouvernance), un serveur d’exécution et un outil de développement sous la forme d’un plug-in eclipse.(http://www.ilog.fr)

• lemoteurderègleFICO Blaze Advisor (ex fair isaac ex neuron data), créé par des français de l’inria.(http://www.fico.com)

• Visual Rules (http://www.visual-rules.com)• Jess Rule (http://www.jessrules.com/) gratuit pour les

applications non commerciales

toutes ces solutions « propriétaires » sont maintenues par une entreprise et le code source non disponible. toutes ces sociétés ont eu une vie « agitée » souvent faite de rachats successifs, à l’exception d’ilog qui disposait d’un portefeuille suffisant de composants logiciels ce qui lui a permis de tenir jusqu’à son rachat par iBm.

L’évolution notable de ces cinq dernières années tient dans la montée en puissance d’un outil open source : Drools.(http://www.jboss.org/drools/)

La société Jboss a d’abord racheté ce produit (en salariant les principaux développeurs) et a été rachetée par redhat. La solution a été conçue en 2001, sa première version « utilisable » est apparue en 2004, et la première version « sérieuse », baptisée

Référentiel

BRMS Application 1

Application 2

Moteurd'exécution

Application 3

1

2

3

4

Page 37: Le SI collaboratif : centralisé ou décentralisé ?

Comment ça marche ?

37IT-expert n°81 - septembre/octobre 2009

drools 3, date de 2006. ces premières versions étaient com-posées uniquement d’un moteur d’exécution.

sortie en mai 2009, la version 5 de drools comprend:• unmoteurd’exécution(drools-expert)qui implémente

l’algorithme de rete,• unréférentieletunoutildegouvernance(drools-guvnor),• unmoteurBPM(drools-flow),• unmoteurCEP(drools-fusion)quipermetdedéfinirdes

raisonnements temporels et événementiels,• unmoteurdeprogrammationparcontrainte(drools-solver)

en version test,• unenvironnementdedéveloppementsouslaformed’un

plug-in eclipse.

dans un même moteur se retrouve les trois composants métiers que nous avons identifiés : les règles de gestion, un moteur de workflow et un moteur cep.Le programmeur n’a pas à apprendre à programmer trois outils, mais un seul et il est également possible de faire interagir les règles avec un processus. un procédé nommé l’inversion de contrôle (inversion of control) : ce sont les règles de gestion qui appellent les processus et non l’inverse.

Toujours plus d’agilité et de réactivité

L’apparition d’outils open source dans le domaine des moteurs de règles est en passe de susciter une adhésion massive de ce type de démarche pour développer des applications voire des systèmes d’information.

Le nombre d’appels d’offres en cours avec l’utilisation d’un moteur de règles (et drools est souvent cité) démontre l’évolution de la maturité des clients sur la conception de leur système d’information. Les moteurs de règles ne sont qu’un des aspects de ce phénomène :

• lamiseàdispositiondecomposantsopensourcemature(ou propriétaires, mais inclus dans des offres plus globales) autour de l’intégration et de l’esB : ceci permet une adoption massive pour une plus grande agilité dans l’intégration de nouveaux composants, partenaires, etc.

• lesmoteursderèglessontégalementunélémentimportant,car en parallèle de l’agilité technique des composants esB, il est également possible d’obtenir une agilité fonctionnelle des applications.

• lesoutilsdedéveloppementdeviennentdeplusenpluspuissants et l’adoption d’un langage dynamique (type Grails ou ror) permet d’implémenter rapidement des applications qui tiennent la charge et sont d’une programmation aisée.

• l’utilisationdeparadigmestypeMDA(ouMDD)quipermettent,à partir de modèle métier, de générer une grande partie de l’application et de nécessiter des ajouts métiers faibles (et qui peut se faire via des outils tels que les moteurs de règles).

• L’adoptiondeméthodesagilestypeScrumouXPquipermettent de s’adapter au mode de fonctionnement des donneurs d’ordre et qui vont profiter de l’agilité technique des autres composants pour rendre ces méthodes viables.

tous ces phénomènes conjugués apportent une grande agilité dans le développement du système d’information. Les moteurs de règles et leurs composants sont appelés à jouer un rôle majeur, car ils contiennent le métier et ils l’exécutent. n

Nicolas Héron, architecte J2ee, soa et moteur de règle dans une enseigne de bricolage, contributeur au projet drools

Page 38: Le SI collaboratif : centralisé ou décentralisé ?

L’agenda de cet informaticienest déjà bien rempli !

24 septembre - PARISCNIT - La Défense - 11h-21h

15 octobre - RENNESStade Rennais - 11h-19h

26 novembre - LYONEspace Tête d’Or - 11h-19h

Janvier 2010 - PARISCNIT - La Défense - 11h-21h

Février 2010 - LILLESalle du Gymnase - 11h-19h

Mars 2010 - NANTESCité Internationale des Congrès - 11h-19h

Mars 2010 - GENÈVECentre International des Conférences - 10h-18h

Liste des postes et pré-inscription sur www.lesjeudis.com

SPÉCIALconfirmés

!2 à 10 ans d’expérience

Page 39: Le SI collaboratif : centralisé ou décentralisé ?

IT-expert n°81 - septembre/octobre 2009

Livres

39

Management et gouvernance des SI

Si l’informatique existe et évolue depuis des décennies, et intègre régulièrement les évolutions ou

révolutions technologiques, il en va tout autrement de la gouvernance des systèmes d’information.

Longtemps considérée comme un outil par l’entreprise, l’informatique n’est devenue une direction et un

département à part entière que depuis quelques années. Néanmoins, elle restait un service « déconnecté »

de la stratégie opérationnelle. Le livre « Management et gouvernance des SI » aborde justement cette

problématique des usages des technologies de l’information et de la communication induisant de nouveaux

modes d’organisation. La réflexion sur les systèmes d’information étant ultérieure aux usages, les auteurs

tentent de faire comprendre, conceptualiser et appréhender ce monde modelé progressivement en fonction

de l’évolution des besoins et de la diffusion de ces technologies.

De la théorie à la pratique

L’ouvrage bénéficie pleinement d’une double approche. En effet, réunissant des auteurs scientifiques

et de terrain, il conjugue la théorie la plus opérationnelle et les retours d’expérience de professionnels

proches des entreprises. Visant à sensibiliser les dirigeants d’entreprise, les DSI, les professionnels ou

les étudiants aux enjeux du management et de la gouvernance des systèmes d’information, il explique

pourquoi une approche stratégique et globale du SI s’impose. Le lecteur y retrouvera, traités efficacement,

les thèmes aussi divers que : la stratégie, la notion d’écoute, le knowledge management, la modélisation

des processus, la sécurité, les normes et standards, l’urbanisation ou les aspects juridiques, éthiques et

sociologiques des organisations. Un large panorama pour voir plus clair et plus loin.

Management et gouvernance des SIouvrage collectif coordonné par camille rosenthal-sabroux et americo carvalho date de parution : octobre 2009Éditeur : Hermes-Lavoisier504 pages - environ 79 E

Green IT - Les meilleures pratiques pour une informatique verte

Aux États-Unis, les réseaux électriques peinent à fournir la puissance nécessaire aux entreprises. Cette

considération associée à la réduction des coûts a amené les grandes entreprises américaines à se

pencher sur ce qui est devenu le Green IT. Si la situation est différente en France, ces préoccupations

n’en restent pas moins d’actualité.

Consommation énergétique, recyclage des PC, mauvaise gestion des impressions… les auteurs de cet

ouvrage dressent un état des lieux de l’impact écologique de l’informatique. Au-delà d’une information

documentée, le livre se penche sur les moyens d’action possibles à mettre en œuvre dans la gestion des

infrastructures informatiques, et sur des comportements «responsables».

Pour définir le green IT, les auteurs ont choisi de s’appuyer sur la notion de cycle de vie du matériel, des

logiciels et des services. Ils s’adressent non seulement à tous ceux qui interviennent dans l’univers des

systèmes d’information (DSI, SSII, cabinets de conseil…), mais aussi à ceux qui utilisent quotidiennement

un (ou plusieurs) ordinateur(s) et qui sont sensibles aux questions environnementales.

Bien plus qu’un simple constat désolant, le livre décrit une méthode pour mener une action avec des

stratégies adaptées à l’entreprise. Puis plusieurs chapitres abordent les comportements incontournables :

l’achat responsable, bien gérer les impressions, évoluer les datacenters verts, les apports de l’informatique,

gérer la fin de vie du matériel… Indispensable pour aller au-delà du concept marketing !

Green IT – Les meilleures pratiques pour une informatique vertechristophe corne, adrien porcheron, pénélope Guy, James paviadate de parution : septembre 2009Éditeur : dunod256 pages - environ 29 E

Page 40: Le SI collaboratif : centralisé ou décentralisé ?

40 IT-expert n°81 - septembre/octobre 2009

Manque de compétences dans les entreprises, recentrage sur ses métiers, gains

de temps liés à l’industrialisation par les prestataires, qualité des prestations d’un

marché mature… externalisation et offshore gagnent du terrain sur l’Hexagone

Marché de l’outsourcing et réalités de l’offshore en France

Page 41: Le SI collaboratif : centralisé ou décentralisé ?

Rubrique à brac

41IT-expert n°81 - septembre/octobre 2009

Les stratégies de sourcing it des grands comptes sont animées par des mouvements opposés selon la conjoncture économique. en période de croissance, la recherche de compétences prime. alors, les sociétés sont plus enclines à prendre des risques, et à se démarquer de la concurrence en investissant dans leurs systèmes informatiques, notamment dans l’innovation. en période de crise économique, le focus est rapidement repositionné sur la réduction des coûts, l’amélioration de la productivité et l’accélération de l’industrialisation. ces éléments se traduisent de manière directe en termes de dépenses et modes de sourcing it.

Le management des systèmes d’information selon la conjoncture économique

Les investissements et évolutions des systèmes d’information des entreprises ont alimenté depuis toujours les ssii. La sous-traitance en services informatiques peut être délivrée selon plusieurs types de prestations qui vont de la délégation de personnel (régie) à l’externalisation en passant par les projets au forfait. si les prestations de régie et de forfait sont déjà anciennes, l’externalisation - plus récente- a réellement explosé sur le marché français dans les années 80. elle se caractérise par un engagement pluriannuel entre entreprises clientes et prestataires de services, dans lequel ce dernier se voit confier la gestion de tout ou partie du système d’information, selon des engagements de services mesurables et suivis.

L’externalisation des infrastructures it ou des applications a la plupart du temps été motivée par la recherche d’économies. L’accès à des compétences rares ou bien la volonté d’industrialiser le système d’information ont aussi formé des leviers forts pour y faire appel. L’industrie et la grande distribution, deux secteurs chez lesquels la maîtrise des coûts est vitale, ont été parmi les premiers secteurs à l’utiliser. tous les autres y ont recours, même le secteur public bien que celui-ci soit plus consommateur de tierce maintenance applicative que d’infogérance, deux types de prestation inclus dans l’externalisation.

Évolution du marché de l’externalisation au sein du marché des services IT en France

Un marché porteur et très fragmenté

au sein du marché des services informatiques, le segment de l’externalisation est celui qui connaît la plus forte croissance depuis une vingtaine d’années. pierre audoin consultants (pac), dans le cadre de son étude « outsourcing 2009 », a évalué le marché de l’externalisation en france à 8,6 milliards d’euros en 2008. pac l’a réparti en six sous-segments avec chacun ses évolutions spécifiques.

Structuration du marché de l’outsourcing en 2008 (France)

• L’infogérance globale : ce type d’infogérance consiste pour une entreprise à externaliser auprès d’un fournisseur l’ensemble de son système d’information. cette pratique a connu un certain succès autour des années 2000 dans les pays anglo-saxons. peu de grands contrats d’infogérance globale ont été signés en france. par contre, on rencontre des contrats de moindre taille dans les moyennes entreprises autour des erp.

• L’infogérance d’infrastructures : de loin, le segment le plus important en termes de volumes. il a démarré avec les mainframes, puis le serveur, enfin, les postes de travail et autres infrastructures it (ex : imprimantes). c’est le segment majeur de l’externalisation par son poids et sa dynamique, même si celle-ci est ralentie par la pression sur les prix imposée par les clients.

• L’infogérance de solutions applicatives : ce marché, qui consiste à confier à un fournisseur la gestion d’une application et des infrastructures liées (comme la paye ou la monétique), est en train de rebondir avec la mise sur le marché d’applications en mode saas (software as a service). Les applications sont ainsi mises à disposition des utilisateurs via le web. Les offres les plus demandées concernent des filières applicatives bien délimitées, comme le crm ou la bureautique. des pme dont le parc applicatif est souvent plus léger et donc plus facile à faire évoluer vont vers ce modèle qui évite un investissement de départ.

CroissanceCrise économique

Réduction des coûts

Déficit de compétences

InnovationProductivité

Industrialisation

Part des différentes prestations d'externalisation8,6 milliards d' en 2008

TMA23%

BPO9%

Hosting14%

Infogérance54%

Une croissance annuelle moyenne 2000-2012 • Externalisation: +9%• Projets: +2,5%• Total des services: +4,2%

Externalisation23%

Externalisation34%

Autres prestations77%

Autres prestations66%

Autres prestations63%Externalisation

37%

2000 : 17,6 Mds euros

2008 : 24,8 Mds euros

2012 : 28,7 Mds euros

Page 42: Le SI collaboratif : centralisé ou décentralisé ?

42 IT-expert n°81 - septembre/octobre 2009

• La Tierce Maintenance Applicative : elle permet de prendre en charge la maintenance des applications selon un mode forfaitaire et pluriannuel. elle évolue vers la prise en charge du patrimoine applicatif, l’entreprise donnant au prestataire la responsabilité non seulement de la maintenance de ses applications, mais aussi de ses développements. c’est un segment à forte croissance, de par l’évolution récente des modes de sourcing qui tend à faire passer les prestations de maintenance en mode tma, alors qu’elles étaient auparavant délivrées en assistance technique. on assiste à une « massification » de la maintenance par laquelle un seul fournisseur prend en charge cette maintenance, assortie de solutions d’offshore.

• Le Hosting est un segment qui se limite à l’hébergement de serveurs, et a connu un regain d’intérêt avec le développement d’internet en créant un marché dynamique de Web Hosting.

• Enfin,le Business Process Outsourcing (Bpo) qui consiste à opérer pour le compte d’un client des fonctions métiers (ex : rH) reste un marché encore relativement peu mature en france.

Surtout l’infrastructure, et bientôt le Cloud

Lorsque l’on évoque l’externalisation, on l’associe généralement à une réalisation de la prestation hors du site client. en réalité, un grand nombre de prestations sont réalisées à la fois sur le site du client et hors site. malgré la réticence des entreprises à voir les services être délivrés hors site, l’évolution est inéluctablement vers de plus en plus de services à distance. en effet, cette démarche génère des économies substantielles grâce à la mutualisation des compétences, l’organisation industrielle des services et l’accès à des ressources plus économiques. en

revanche, l’externalisation implique une relation de proximité très structurée entre client et prestataire.

La majeure partie du marché de l’infogérance concerne les infrastructures it. même si l’externalisation de solutions applicatives devrait connaître une croissance notable avec les modèles saas, les applicatifs liés au cœur de métier d’une entreprise en font des éléments plus difficiles à externaliser, notamment dans les grands comptes où le système d’information constitue de plus en plus un facteur de différenciation (et donc, intègre des développements spécifiques) où les innovations favorisent les gains de parts de marché. Le modèle saas pose aussi beaucoup de questionnement sur la sécurité et les niveaux d’engagement de services.

Les dernières évolutions technologiques vont offrir de nouvelles voies au marché de l’externalisation. Le récent phénomène du cloud computing peut être rapidement défini par une mise à disposition à travers internet d’un ensemble de services directement utilisables par les clients. certaines fonctions ou pans de systèmes d’information traditionnellement gérés et hébergés au sein d’un grand compte seront, dans ce modèle, progressivement transféré vers des opérateurs de services spécialisés. Le modèle le plus connu et dont la dynamique est clairement avérée est celui du saas. on parle déjà d’autres déclinaisons, telle la plate-forme as a services (paas) qui permettent d’utiliser des plates-formes middleware au travers d’internet ou encore l’infrastructure as a services (iaas) qui consistent à utiliser à travers le réseau des capacités d’infrastructures it (ex : stockage, traitement). ces deux derniers modèles ne forment pas encore de véritables marchés, mais nul doute qu’ils trouveront un jour leur place dans les prestations d’externalisation.

Segmentation PAC du marché de l’externalisation

Infogérance de solutions applicatives

Processing & BPO

TMA autonome

Prestations non IT

Application

Système d’information de l’entreprise

Application Application

Infrastructure Infrastructure Infrastructure

Infogérance globale

Infogérance d’infrastructures

Page 43: Le SI collaboratif : centralisé ou décentralisé ?

Rubrique à brac

43IT-expert n°81 - septembre/octobre 2009

Le Cloud Computing au cœur des systèmes d’information

Le développement continu de l’offshore

depuis l’éclatement de la bulle internet et la crise qui a suivi, le modèle offshore s’est progressivement développé en france. dans la logique d’industrialisation qui sous-tend l’évolution de l’externalisation, la composante offshore a pris une part de plus en plus importante.

selon l’étude pierre audoin consultants « Modèles de Delivery 2009 », les prestations de services it réalisées en mode offshore représentaient 5 % du marché français en 2008 et devraient être proches des 10 % en 2011. La crise économique entraîne des recherches encore plus significatives de réduction des coûts ; les ssii mènent des stratégies à marche forcée d’industrialisation pour pouvoir répondre à cette exigence. cela passe par le recours

accru à l’offshore qui va se poursuivre dans les prochaines années. ce phénomène peut toutefois être légèrement ralenti à court terme dans un souci d’utilisation de ressources salariées inoccupées en france.

L’offshore est un phénomène déjà bien connu, initialisé aux États-unis qui a externalisé une partie importante de ses développements d’applications en inde, permettant à ce dernier de devenir le pays de référence dans le domaine. L’offshore cristallise l’arrivée à maturité du secteur des services it, dont l’industrialisation est suffisante pour envisager des délocalisations dans les pays à bas coûts. ce phénomène s’est également développé très rapidement en europe du nord, et connaît un véritable essor en france depuis 2003.

Les caractéristiques de l’offshore en france sont relativement spécifiques. tout d’abord, selon le type de client ou d’activité, la francophonie sera un critère plus ou moins important. prenons par exemple les activités d’une banque de financement française à vocation internationale, le recours à l’offshore dans un pays anglophone et notamment l’inde semble le plus approprié. en revanche, lorsqu’il s’agit d’externaliser en mode offshore certains pans d’un système d’information d’une banque de détail française, un pays francophone sera préféré. de même, la notion de créneau horaire demeure importante. À ce titre, la zone afrique ou europe de l’est dispose d’un avantage certain s’il est nécessaire de communiquer beaucoup entre maître d’ouvrage et réalisateur. quant à la répartition géographique, les dernières estimations de pierre audoin consultants indiquent que la géographie de l’offshore français se décompose en 1/3 pour la zone inde/asie pacifique, 1/3 pour la zone europe de l’est et environ 20 % pour le maghreb et 20% pour d’autres pays.

Brésil

Argentine

Inde/APAC

Maghreb

Europe de l Est

Espagne

Canada

15-20%

30-35%

30-35%

Ile

Maurice

© PAC 2009

Géographie de l’offshore

Entreprise Partenaires

Clouds publicsClouds privés

Clients

Page 44: Le SI collaboratif : centralisé ou décentralisé ?

44 IT-expert n°81 - septembre/octobre 2009

L’offshore a traditionnellement porté sur la réalisation de tâches standardisées relatives à des applicatifs non-critiques pour le client en maintenance, migration ou développement. il s’agissait donc dans un premier temps de délégation de tâches à faible valeur ajoutée auprès de pays qualifiés à bas coûts. aujourd’hui, sous la demande d’une plus forte industrialisation des services it, les prestations réalisées en modes offshore ont progressé dans la chaîne de valeur. Les fournisseurs ont petit à petit spécialisé leurs centres offshore par secteur d’activité (Banque, télécom) ou encore par typologies d’applications (ex : sap, oracle). Le recours à l’offshore n’est donc plus uniquement observé sous son aspect réduction de coûts, mais plutôt comme un moyen de mettre à disposition auprès d’un client le meilleur ratio coûts/compétence. au niveau national, ce schéma s’est traduit par le développement de centres de services spécialisés en province. ces centres connaissent un intérêt grandissant dans la mesure où ils constituent une première étape d’industrialisation pour des grands donneurs d’ordre encore très dépendants des prestations en mode assistance technique.

Les Français conçoivent l’offshore aux couleursde l’Europe

Les prestations de maintenance applicative forment le principal segment de l’offshore. on voit néanmoins apparaître des solutions offshore relatives aux infrastructures it. Les services à distance (remote services) favorisent l’émergence d’offres de type support/help desk, supervision et télédéploiements. ces services constituent actuellement un pôle d’investissement important pour les ssii très actives en infogérance.

Les principaux acteurs de l’offshore en france sont les architectes de l’industrialisation des services applicatifs tels capgemini, Logica, accenture, iBm pour les plus importantes, mais aussi des sociétés comme sqLi qui ont su développer un modèle industriel n’ayant rien à envier aux plus grandes. sur ce marché très concurrentiel, les acteurs indiens cherchent également à renforcer leurs positions. trois acteurs – Wipro, infosys et tata consultancy services pour les plus importants – mettent en avant le modèle indien, considéré comme le « Best in class » des modèles industriels. pourtant, le déficit d’image que ces acteurs ont sur le marché français ainsi qu’un manque de proximité client, leur rend la tâche ardue.

notre récente étude sur les modèles de delivery réalisée auprès d’un panel de 249 entreprises (dont 75 % disposent de plus de

5 000 employés) apporte un éclairage plus précis de la réalité de l’offshore en france.• 59%desentreprisesnesouhaitentpasrecouriràl’offshore

tandis que 32 % en sont déjà utilisatrices.• 55%considèrentquelesmeilleursprestatairesenservices

offshore sont des prestataires européens (capgemini, Logica, atos origin), 33 % pensent en priorité aux prestataires américains (iBm, accenture, Hp/eds) et seulement 12 % pensent aux « pure players » indiens (Wipro, tcs, infosys).

• 43%desentreprisespréfèrentlarégionEuropedel’Est,contre 33 % pour l’inde et 15 % pour l’afrique du nord.

en synthèse, l’offshore ne constitue pas une finalité en soi, mais bien un moyen permettant des gains de productivité, grâce à l’accès à des ressources moins chères. cependant pour en tirer tout le bénéfice, il nécessite une forte industrialisation. Les premiers projets confiés parfois trop rapidement en mode offshore ont souvent rencontré des écueils. Bien souvent, les coûts relatifs à la montée en compétences des ressources, aux incompréhensions liées aux différences culturelles, aux travaux de pilotages ont été sous-estimés rendant finalement peu attractif les premiers projets. seuls les fournisseurs ayant durablement investi dans la création de centres offshore et ayant fait de ces investissements des éléments clés de la stratégie de leur entreprise sont en mesure aujourd’hui de fournir des réductions de coûts significatives. n

Vincent Gelineau, consultant senior

Pierre Audoin Consultants (PAC) est une société internationale de conseil et d’études

de marché spécialisée dans le domaine du logiciel et des services informatiques. Sa

mission essentielle est d’accompagner sur un plan stratégique le développement

des principaux acteurs sur ces marchés : prestataires de logiciel et de services,

utilisateurs d’informatique, investisseurs financiers.

Son expérience de plus de 30 ans en Europe – combinée à sa présence aux

États Unis et sa couverture mondiale – constitue un socle unique pour offrir une

compréhension approfondie des marchés informatiques locaux partout dans le

monde et un accompagnement stratégique des acteurs sur ces marchés. PAC

utilise des méthodologies éprouvées, en interrogeant en face-à-face aussi bien les

vendeurs que les utilisateurs, et utilise une démarche « bottom-up » et « top-down »,

ce qui apporte une connaissance globale et cohérente des marchés.

PAC publie une large gamme d’études multiclients et personnalisées, dont son

programme de référence SITSI® (Software & IT Services Industries), en plus de

ses services en conseil et en marketing. Présents dans le monde entier, plus de

160 professionnels proposent des analyses qui peuvent faire la différence pour

une société.

Pour en savoir plus : http://www.pac-online.com / [email protected]

Prestataires européens(Capgemini, Logica,

Atos Origin)55%

33%

12%

0%

Prestataires américains(IBM, Accenture, EDS)

Prestataires indiens (Wipro,Tata Consultancy Services,

Infosys)

n.a

Selon vous, qui sont les meilleurs prestataires en services offshore ?

Page 45: Le SI collaboratif : centralisé ou décentralisé ?