Download - Le décisionnel

Transcript
Page 1: Le décisionnel

LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE

n°68

Bim

estr

iel -

juill

et/a

oût

2007

- 1

6€

Le décisionnelPAGE 6

ITIL : entre meilleurespratiques et référentielholistique PAGE 45

La visualisation de l’information à des finsd’aide à la décision PAGE 29

Les grandes étapesd’une chaîne d’ETLPAGE 37

Du décisionnel à la gestion de la performancePAGE 18

Page 2: Le décisionnel

EN SAVOIR PLUS

Demandez le Livre Blanc rédigé par leGartner Group et CAST sur ce thème :« Information Series on ApplicationManagement » :www.castsoftware.com/outsourcing

Découvrez l’expérience de plusieurssociétés utilisatrices de solutionsd’Application Intelligence :www.castsoftware.com/customers

ZOOM OUTSOURCING

L’AVIS DES DIRECTIONS INFORMATIQUES

Ministère des FinancesDirection Générale des ImpôtsNadine ChauvièreSous-Directrice des SI de la DGI

« Les solutions d’Application IntelligenceCAST nous aident à obtenir une meilleure visi-bilité de notre parc applicatif au travers detableaux de bord composés d’indicateurstechniques objectifs afin de faciliter le dialogueavec les équipes et avec nos maîtrises d’ou-vrage. »

Groupe SFR CegetelEric EteveDirecteur InformatiqueCentre Ingénierie Mobilité

« La solution CAST de gestion de la sous-traitance est un élément clé dans le systèmede pilotage mis en place par SFR-Cegetelsur ses TMA. Nous avons constaté uneattention plus particulière apportée par lesSSII à la qualité des livrables et à la fiabilitédes chiffrages depuis qu’ils savent que nouspouvons facilement les auditer »

Framatome - Groupe AREVAMichel FondevioleDSI de Framatome-ANP

« CAST fournit des critères objectifs d’appré-ciation dans le dialogue parfois difficile avecle sous-traitant ainsi que des indicateursnécessaires au suivi de l’évolution des appli-cations et constitue au sein de Framatomeun outil de progrès partagé. »

Page 3: Le décisionnel

Les entreprises, devenues plus mûres

vis-à-vis de l’outsourcing, sont désor-

mais capables d’opérer des externali-

sations plus stratégiques. On l’a récemment

observé dans l’automobile avec Renault ou dans

la grande distribution avec Carrefour.

Dans l’externalisation des applications métier,

c’est surtout la volonté d’accroître l’efficacité

opérationnelle de l’informatique qui est motrice :

pouvoir fournir plus rapidement un service à

valeur ajoutée aux utilisateurs et aux clients dans

un contexte en perpétuelle évolution.

Comme dans n’importe quelle opération d’out-

sourcing, le contrat liant le fournisseur est capi-

tal, en particulier les SLAs. Néanmoins, les

applications métier étant par nature soumises à

de fréquents changements en cours de contrat,

les seuls SLAs se révèlent vite insuffisants pour

garantir la qualité de service et éviter les dérives

de coûts.

C’est là que le bât blesse : l’externalisation des

applications métier occasionne un risque de

perte rapide de savoir-faire technologique et

par conséquent critique. Vigilance et suivi sont

de mise pour garder le contrôle de la qualité

de service et éviter les dépendances par nature

dangereuses.

L’externalisation réussie d’applications métier

est donc le fruit d’une vision anticipatrice parta-

gée avec le prestataire. Sont ainsi apparues

des solutions dites d’Application Intelligence,

basées sur une technologie avancée d’analyse

de code source.

En fournissant des indicateurs techniques aux

donneurs d’ordre, ces solutions permettent de

piloter un parc applicatif sous-traité en temps

réel, tant en terme de qualité, que de maintena-

bilité et de coût. Résultat : le donneur d’ordre

conserve la maîtrise intellectuelle de ses appli-

cations métier et le contrôle de la relation avec

son sous-traitant.

La valeur ajoutée de ce type de solutions d’Ap-

plication Intelligence est visible à chaque étape

d’une opération d’outsourcing, comme décrit

ci-après.

Audit de l’existant et préparation des appels

d’offres

• Déterminer les caractéristiques techniques

du portefeuille applicatif existant avant de le

sous-traiter

• Disposer d’informations de référence pour

évaluer les propositions des sous-traitants

• Obtenir une image à l’instant t des applica-

tions pour permettre un suivi dans le temps

Transfert vers le prestataire

• Réduire la phase d’acquisition de la

connaissance pour entreprendre plus vite

des tâches productives

• Diminuer le coût lié à la production d’une

documentation exploitable et maintenable

par le prestataire

Contrôle de la qualité et des coûts en cours de

projet

• Suivre l’évolution de la maintenabilité et de

la qualité pour éviter toute dérive

• Etre capable de valider la quantité et la qualité

du travail facturé

• Etre en mesure de challenger le sous-trai-

tant lors des négociations d’avenants

• Industrialiser les recettes techniques

Renouvellement de contrat, transfert ou ré-inter-

nalisation

• Déterminer et qualifier les écarts entre la

prestation prévue et les livrables recettés

• Disposer des informations techniques

caractéristiques du portefeuille applicatif en

fin de prestation

Le leader mondial de ce type de solutions est

d’ailleurs un éditeur français, CAST. Reconnu

par les analystes informatiques comme pré-

curseur du marché, CAST compte plus 500

comptes utilisateurs de sa plate-forme d’Appli-

cation Intelligence dans le monde.

La maîtrise des applicationset des prestataires dansune opération d’outsourcing

Cycle de vied'une opération d'Outsourcing

Suivi de proje

t Contrôle des coûts

Transfert de connaissances

Fin de

contrat Appels d'offres

Rece

tte te

chni

que

www.castsoftware.com

Publi-Reportage

De la valeur ajoutée de l’ApplicationIntelligence pour piloter efficacementun parc applicatif sous-traité

Page 4: Le décisionnel

Edito

4 IT-expert n°68 - juillet/août 2007

Plusieurs enquêtes menées par des instituts desondages avant le lancement du très attenduiPhone d’Apple, montrent que 9 % à 10 % desconsommateurs américains estiment « très pro-bable » qu’ils feront l’acquisition de ce télé-phone un peu spécial. Sur le papier, cela repré-sente près de 19 millions de consommateurs,ce qui permet à Apple de tabler sur 10 millions

d’unités vendues à la fin 2008. Selon les analystes, ce chiffre pourraittoutefois ne pas être atteint aussi aisément que prévu. L’exclusivitéaccordée par Apple à l’opérateur AT&T pourrait constituer un obstaclesous-estimé. Parmi les consommateurs intéressés par l’iPhone, ceuxutilisant les services d’un autre opérateur auront parfois à s’acquitterdu montant correspondant à la résiliation anticipée de leur contrat afinde « migrer » chez AT&T. Or, d’autres enquêtes tendent à démontrerque nombre d’entre eux ne sont pas prêts à cette dépense supplé-mentaire. Sur le moyen terme toutefois l’exclusivité, dont la rumeurprétend qu’elle court sur 5 ans, portera certainement ses fruits. Encorefaudra t’il pour cela que les utilisateurs soient particulièrement satis-faits de l’appareil et souhaitent l’utiliser comme terminal de données etnon pas simplement comme un téléphone. L’abonnement correspon-dant devrait alors se situer aux alentours de 80 dollars mensuels. Untel tarif ne sera-t-il pas jugé excessif alors que le réseau EDGE d’AT&Test notoirement lent ?

En définitive, ce qui fera le succès de l’iPhone, ou son échec, sera toutsimplement un facteur difficilement contrôlable : le bouche à oreille. Ils’agit en effet du premier smartphone destiné au grand public, dans unpays où ce type de gadget est aujourd’hui réservé à une utilisation pro-fessionnelle. Si le premier million d’utilisateurs sera assurément constituéd’amateurs de haute technologie qui sauront appréhender sans trop demal le fonctionnement de ce qui sommes toutes est un ordinateur, qu’ensera-t-il des suivants ? Que l’absence d’écran tactile déçoive, ou de tropnombreux bogues viennent gâcher l’expérience des utilisateurs etl’iPhone pourrait alors rejoindre le défunt Newton au Panthéon desflops retentissants. Personne ne le souhaite bien sûr, surtout pas lesconcurrents d’Apple et d’AT&T qui observeront attentivement lesdébuts du dernier né d’Apple espérant qu’il constituera les prémicesd’un marché déjà considéré comme alléchant.

Jean-Pierre FORESTIERRédacteur en Chef

édito

EditeurPress & Communication FranceUne filiale du groupe CAST3, rue Marcel Allégot92190 Meudon - FRANCETél. : 01 46 90 21 21Fax. : 01 46 90 21 20http ://www.it-expertise.comEmail : [email protected]

Rédacteur en chefJean-Pierre ForestierEmail : [email protected]

Directeur de publicationAurélie MagniezEmail : [email protected]

Abonnements/PublicitéEmail : [email protected]

Conception GraphiqueC. GrandeEmail : [email protected]

ImprimeurMoutot Imprimeurs

ParutionIT-expert - (ISSN 1270-4881) est un jour-nal édité 6 fois par an, par P & C France,sarl de presse au capital de 60 976,61 €.

AvertissementTous droits réservés. Toute reproductionintégrale ou partielle des pages publiéesdans la présente publication sans l’auto-risation écrite de l’éditeur est interdite,sauf dans les cas prévus par les arti-cles 40 et 41 de la loi du 11 mars 1957.© 1996 P&C France. Toutes les marquescitées sont des marques déposées.Les vues et opinions présentées danscette publication sont exprimées par lesauteurs à titre personnel et sont sous leurentière et unique responsabilité. Touteopinion, conseil, autre renseignement oucontenu exprimés n’engagent pas la res-ponsabilité de Press & Communication.

Abonnements01 46 90 21 21Prix pour 6 numéros (1 an)France ; U.E. : 89 € TTCDom TOM, Autres Pays : 128 € TTC

Un bulletin d’abonnement se trouveen pages 35/36 de ce numéro.

Vous pouvez vous abonner surhttp://www.it-expertise.com/Abonnements/Default.aspxou nous écrire à[email protected]

LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE

Page 5: Le décisionnel

IT-expert n°68 - juillet/août 2007

5IT-expert n°68 - juillet/août 2007

Sommaire

DossierPanorama de l’offre décisionnelle et architectured’une solution décisionnelleLes solutions décisionnelles sont aujourd’hui des logiciels complexes et complets. De l’ali-

mentation en données à la restitution en passant par le stockage, plusieurs acteurs se dis-

putent un marché qui recouvre de nombreux aspects fonctionnels. Notre dossier vous

propose un panorama de ces deux aspects de l’informatique décisionnelle d’aujourd’hui.

TechniqueDu décisionnel à la gestion de la performanceLa stratégie d’une entreprise ne peut s’évaluer sans outil de mesure pour ce faire. En

complément de notre dossier, cet article traite plus en détail des apports de la Business

Intelligence au pilotage des activités et de la stratégie de l’entreprise.

Actualités InternationalesActualités internationales et annonces produits chez les éditeurs…

Quoi de Neuf Docteur ?La visualisation de l’information à des fins d’aide à la décisionNotre article s’intéresse ce mois-ci à la visualisation et à la représentation de l’information

non structurée dans les solutions de Business Intelligence. Préparez-vous à des repré-

sentations graphiques peu courantes !

Comment ça Marche ?Les grandes étapes d’une chaîne d’ETLCet article scrute les mécanismes mis en œuvre par un outil d’ETL et l’enchaînement des

processus qu’ils permettent de résoudre. Au final l’auteur dégage les critères principaux

auxquels s’attacher lors du choix d’un tel outil.

Fenêtre sur courInterview de Didier Fleury DSI chez CEGEDIMLa société Cegedim fournit aux laboratoires pharmaceutiques des bases de données.

Didier Fleury, DSI chez Cegedim, nous fait part de son retour d’expérience sur le projet

de synthèse des offres d’informatique décisionnelle proposée par la société à ses clients.

LivresGestion des identités et Pro SQL Server 2005 Service Broker sont les

ouvrages que nous vous recommandons ce mois-ci.

Rubrique à bracITIL : entre meilleures pratiques et référentiel holistiqueLe référentiel ITIL que l’on ne présente plus connaît un succès croissant en France.

Plutôt que d’en tenter une description qui serait forcément fastidieuse, cet article s’atta-

che à mettre en valeur la cohérence des 11 disciplines composant le référentiel et les

interactions qu’elles entretiennent.

6

18

24

29

37

42

44

45

Page 6: Le décisionnel

Dossier & Interviews

6 IT-expert n°68 - juillet/août 2007

Panorama de l’offredécisionnelle et architectured’une solution décisionnelle

Dresser un panorama de l’offre sur les solutions

décisionnelles nécessite de rappeler les principaux

éléments qui composent l’architecture d’un système

décisionnel.

L’architecture d’un système décisionnel au sens de l’état

de l’art peut être représentée par le schéma page 8.

La chaîne du projet décisionnel se décompose

systématiquement en 3 grands composants :

l’alimentation, le stockage et la restitution.

Nous allons présenter dans la suite de l’article,

l’état de l’offre pour chacun de ces composants ainsi

que les principales orientations du marché.

Page 7: Le décisionnel

7IT-expert n°68 - juillet/août 2007

• Comment enrichir mes mesures avec des dimensions d’ana-lyse inexistante dans le système source ?

Transformation des données• L’enrichissement des données• L’application de règles plus ou moins complexes de traitement

et de calcul des données (ordre, consolidation, croisement…)

Qualité des données• Comment assurer et garantir la cohérence et la pertinence

des données de l’application décisionnelle face à des sourcesmultiples, hétérogènes ?

• Comment identifier les rejets fonctionnels et techniques etquelles règles pour leur recyclage ?

Traçabilité et historisation• Identification de l’origine de ma donnée• Historisation des données sources

Documentation des processus d’alimentation : Documenta-tion technique pour l’exploitation et la maintenance des traite-ments et fonctionnelle (documentation fonctionnelle duprocessus d’alimentation et des règles de construction des indi-cateurs).

Alimentation : l’ETL, une évidence dansl’architecture fonctionnelle et techniquedes SI décisionnels

Il y a quelques années, l’utilisation d’un ETL pour alimenter lesapplications décisionnelles n’apparaissait pas comme une prio-rité encore moins comme une évidence. L’importance de l’ali-mentation et du stockage des données dans la chaîne d’uneapplication décisionnelle n’était pas ressentie comme un élé-ment clef du système d’information décisionnel. Nombre de pro-jets exploitaient et exploitent encore des développementsspécifiques (scripts sql loader et PL/SQL pour les bases de don-nées ORACLE, scripts BCP pour Microsoft…).

Quelle est la situation actuelle ? Force est de constater que lesproblématiques d’alimentation et de stockage des données sontdevenues des points clefs des projets. Les problématiques sontles suivantes :

Réconciliation et enrichissement des données• Comment croiser les données élémentaires provenant de sys-

tèmes sources distincts ?• Comment gérer des sources de données dont les référentiels

(client…) sont distincts ?

Page 8: Le décisionnel

8 IT-expert n°68 - juillet/août 2007

Maintenabilité et exploitabilité des traitements : Facilité laprise en main et le transfert de compétences à destination deséquipes techniques en charge.

Pour répondre à ces problématiques, l’ETL est-il la seule solu-tion ? Quid des EAI ? L’EAI offre une vision plus orientée proces-sus, information et données au sens unitaire et mode defonctionnement temps réel. Si son utilisation dans le cadre deprojets BAM n’est pas à discuter, les principes mêmes d’une ali-mentation d’un système d’information décisionnel (grand volumede données, alimentation dont la périodicité est en générale quo-tidienne, hebdomadaire ou mensuelle…) tendent à privilégierl’utilisation d’un ETL (extraction, transformation et chargement dedonnées de masse).

En synthèse, les solutions ETL, dont les bibliothèques de fonc-tionnalités et de modules répondent à l’ensemble de ces besoins,sont devenues un passage indispensable pour traiter la logiqued’alimentation des systèmes d’information décisionnels.

Stockage : SGBDR et M-OLAP

Le stockage est un autre composant clef des applications déci-sionnelles. Deux solutions techniques peuvent être utilisées pourle stockage : les SGBDR et les moteurs M-OLAP.

� Les SGBDR

Dans une architecture décisionnelle que l’on pourrait qualifier de« best pratice » le SGBDR joue un rôle prépondérant au niveau del’alimentation (Operationnal Data Store) et du stockage des don-nées élémentaires (Datawarehouse).

L’Operationnal Data Store (ODS) est la base de stockage desdonnées temporaires. A ce niveau, les données font l’objet decontrôle qualité (contrôle de la cohérence et de la pertinence desdonnées par rapport à des règles fonctionnelles et techniques) etsubissent des traitements de réconciliation (enrichissement desdonnées par rapport à des axes d’analyse, réconciliation par rap-port à des référentiels d’entreprise…) et de transformation (cal-culs, tris…). La base ODS permet de stocker les données auxdifférentes étapes du chargement, le stockage des données derejets et le stockage d’informations de suivi sur les traitements.Le terme ODS est parfois source de confusion avec le Dataware-house. Il s’agit ici d’abord d’une étape de préparation/mise encohérence des données, on parle avant tout de « staging area ».L’entrepôt de données (DTW) est la base de stockage des don-nées définitives. Au-delà de l’aspect logiciel, le point clef résidedans la modélisation adoptée. L’état de l’art consiste en la miseen œuvre d’une modélisation particulière appelée modélisationen étoile. Cette modélisation, dans un premier temps peu répan-due voire décriée, s’impose désormais dans les projets décision-nels parce que cette modélisation est, si elle est bien appliquée,compréhensible par les métiers et elle offre des gains de perfor-

Application de gestion sources

ReportingMétier

ODS(Sas de

chargement)

Entrepôt

Référentielsméta-données

CubeMOLAP

• Planification des extractions• Mécanismes de filtre• Calculs

Base relationnelle avec Modèle en étoile

Extraction etchargement

Mise encohérence

Système décisionnel SID

Data Marts

CubeMOLAP

StockageETL

Port

ail

Rapp

ort p

rédé

finis

Outil

OLA

PRe

quêt

es a

d ho

cSi

mul

atio

n,ou

tils

spéc

ialis

és…

DiffusionStockage et agrégationAlimentation

ROLAP(tables

d'agrégats)

Page 9: Le décisionnel

9IT-expert n°68 - juillet/août 2007

mance, aisément vérifiables, par rapport à une modélisationtransactionnelle.

La modélisation est la pierre angulaire de l’application décision-nelle. La pérennité, l’évolutivité et les performances de l’applica-tion reposent essentiellement sur la modélisation de la basedécisionnelle. Elle requiert un savoir faire très particulier, alimentépar la théorie (ouvrages de Ralph Kimball) mais surtout par l’ex-périence et la capitalisation sur les projets. Cette expertise à fortevaleur ajoutée est à introduire dès la phase de conception desprojets ; la modélisation de l’entrepôt de données ne doit pasêtre considérée comme un livrable technique mais bien commeun livrable fonctionnel qui requiert un travail conjoint de la maîtrised’ouvrage et de la maîtrise d’œuvre appuyé par une expertise surle sujet.

Le stockage des données élémentaires n’est pas l’étape finale destockage pour les données d’un système décisionnel. Les tablesd’agrégats permettent le stockage de données consolidées àdes fins de performance et de présentation restreinte des don-nées (vue métier, Datamart).

� Les moteurs M-OLAP

OLAP pour Online Analytical Processing. Ce terme désignedes principes de stockage différents de l’OLTP (désignant lessystèmes transactionnels). Les principes que doit respecterune base de données OLAP ont été définis par Ted Codd en1993 au travers de 12 règles.

Le terme d’OLAP est actuellement beaucoup utilisé à tort ou àraison. Afin d’apporter de la clarté, il paraît important de distin-guer :

• L’implémentation d’une modélisation « OLAP » dans unebase de données SGBDR classique : R-OLAP

• L’implémentation d’une modélisation « OLAP » dans unebase de données spécifique : M-OLAP.

• Le H-OLAP est une solution hybride exploitant R-OLAP et M-OLAP.

Exemples de bases M-OLAP : Microsoft AnalysisServices, Hyperion Essbase, Cognos Powerplay,SAS OLAP Server, APPLIX TM1…

Exemples de bases R-OLAP : Microstrategy OLAPServices, Informix MetaCube…

Les bases de données M-OLAP offrent, de par leur conception,des performances optimisées et la possibilité pour les utilisa-teurs de naviguer entre les différents niveaux de consolidationdes données (navigation multidimensionnelle).L’évolution des besoins vers des analyses « temps réel » et por-tant sur des volumes de données de plus en plus importants ren-force l’utilisation de la technologie OLAP.

Peut-on imaginer une architecture décisionnelle reposant unique-ment sur un stockage M-OLAP ? L’ODS et l’entrepôt de donnéessont des composants clefs de l’architecture décisionnelle. L’emploid’une technologie OLAP pour ces deux étapes n’est pas envisa-geable. Si l’OLAP constitue un choix judicieux dans une logique dedatamart et pour répondre à des besoins tels que la simulation, ledatamining, la prévision et l’élaboration budgétaire, l’emploi d’unSGBDR reste la solution technique pour la chaîne de stockage enamont des datamarts (ODS et entrepôt de données.)

Enrichissement et diversificationde l’offre de restitution

L’évolution récente du marché des solutions de restitution tendvers une diversification et un enrichissement. Paradoxalement, siles fonctionnalités de ces outils sont en net progrès, leur prix està la baisse, la plupart des principaux éditeurs étant arrivé à unniveau satisfaisant de maturité. L’enrichissement de l’offre répondà des cibles utilisateurs différentes (dirigeants, analystes, res-ponsables et utilisateurs opérationnels…) et à des usages diffé-rents.

Exemple de segmentation pour catégoriser les usages (Oresys)

1. Tableaux de bord : la mise à disposition de tableaux de bord statiques ou dynamiques aux utilisateurs soit par push (dif-fusion) soit au travers d’une solution de consultation (portail…).

2. Requêtes ad hoc : la possibilité pour les utilisateurs de définir leur propre rapport.3. Analyse multidimensionnelle : cet usage est à rapprocher des fonctionnalités OLAP. Concernant la restitution, il s’agit des

besoins d’exploration des données et d’analyse multidimensionnelle (élaboration de tableaux de bord, navigation dans lesdifférents niveaux hiérarchiques des dimensions par drill up ou drill down).

4. Simulation : ces solutions exploitent un historique de données, permettent l’introduction de données (paramètres) et ladéfinition de règles de calculs et produisent et restituent des données relatives aux simulations et prédictions.

5. Statistiques avancées : le besoin d’implémenter des fonctionnalités statistiques afin de déduire par exemple des com-portements comme dans le cas du Datamining.

6. Elaboration budgétaire : la saisie des différentes versions budgétaire, la gestion de workflow de validation et de conso-lidation des données, la restitution des données budgétaire et de réalisé.

Page 10: Le décisionnel

10 IT-expert n°68 - juillet/août 2007

EPM (Entreprise Performance

Management)CPM

(Corporate PerformanceManagement)

Termes Marketing

Simulation

Datamining

Rolling Forecast,Elaboration budgétaire

Information Delivery Analytics

BAM/BPM

Managementde la

performance

Offre BO Offre Cognos Autres offres éditeurs

BODashboard

BOPlanning

BOCartesis

BO XI Crystalreport

BO XI desktopintelligenceBO XI webintelligence

COGNOS 8BI

intelligence(Metrics

manager)

COGNOS 8Planning

COGNOS 8BI

intelligence(report studioquery studio)

COGNOS 8 controllerCOGNOS 8 workforce

performance

MicrosoftPerformance

point,Microstrategy

Dynamic Enterprise

Dashboard…

SAS StrategicPerformanceManagement,APPLIX TM1…

MicrosoftReportingServices

Microstrategy 8

Scorecard

Indicateurscroisés

Simulation

Datamining

Construction Budgétaire

Pilotage Opérationnel

FINANCES COMMERCIAL VENTESRH

INFORMATIQUESUPPLY CHAIN

Syst

èmes

Déc

isio

nnel

s

Syst

èmes

Tran

sact

ionn

els

Repo

rtin

g M

étie

rPi

lota

ge

Mét

ier

Pilo

tage

En

trep

rise

Dir. GénéraleManagers/ Dir. Fonctionnelles

TB ScorecardKPI

Pilotage AnalytiqueCross Domaines

Simulation

Datamining

Construction Budgétaire

Pilotage Opérationnel

FINANCES COMMERCIAL VENTESRH

INFORMATIQUESUPPLY CHAIN Reporting Métier

Reporting Opérationnel

Cibles Utilisateurs

Management/Audit

Experts métiers/ Contrôle de gestion

Statisticiens

DF

Utilisateurs expert

Tous les utilisateurs

Utilisateurs Opérationnels

U1

Usages

U1/U2/U3

U4

U5

U6

U3

U1

U1

Syst

èmes

Déc

isio

nnel

s

Syst

èmes

Tran

sact

ionn

els

Repo

rtin

g M

étie

rPi

lota

ge

Mét

ier

Pilo

tage

En

trep

rise

U2

Cette diversification des offres peut être représentée de la manière suivante (Vision ORESYS des offres)

Les termes marketing et quelques exemples d’offres éditeurs

L’offre éditeur sur la restitution suit cette diversification.

Page 11: Le décisionnel

11IT-expert n°68 - juillet/août 2007

Les éditeurs proposent généralement des modules spécifiquesqui permettent de couvrir toute la « palette » des besoins et typesde projets BI.Parmi les offres qui se développent ces dernières années, l’offresur l’élaboration et la prévision budgétaire ainsi que l’offre sur lessolutions Balanced Scorecard/Corporate Performance Manage-ment méritent que l’on s’attarde et que l’on en précise le contenu.

Etat de l’offre : élaboration et prévisionbudgétaire

Les annonces récentes de rachat des éditeurs importants dumarché de l’élaboration budgétaire Outlooksoft et Cartesis parrespectivement SAP et Business Objects témoignent d’un inté-rêt croissant du marché pour les solutions d’élaboration et deprévision budgétaire.

Qu’entend-on par élaboration et prévision budgétaire ?Les principales fonctionnalités d’une application d’élaborationbudgétaire peuvent être synthétisées de la manière suivante :• Saisie des différentes versions budgétaires,• Définition de workflow de consolidation et de validation des

données,• Suivi et gestion des versions du budget,• Simulation budgétaire.

Ce type de solution adresse un périmètre restreint d’utilisateurs :contrôleurs de gestion, responsables du budget et un périmètrefonctionnel très ciblé des données (données de réalisé et de bud-get sur des données soit financières soit ressources humaines).La démarche d’études et d’intégration de ce type de solution estparticulière. Comme pour les autres projets décisionnels, ladémarche comporte :• Une réflexion métier (maîtrise d’ouvrage) sur la modélisation,• Une démarche itérative. La présentation de résultat concret

dans la solution technique cible en parallèle des travaux d’étu-des de conception générale ou détaillées est un point impor-tant de la démarche.

Mais il faut également prendre en compte des spécificités inhé-rentes à ce type de projet, notamment la description du proces-sus de saisie des versions et scénarios du budget, mais aussi ladescription des workflow de saisie, de contrôle, de validation etde consolidation des budgets.

Plusieurs facteurs concourent à l’émergence et à un intérêt crois-sant pour ce type de solution :• Le raccourcissement des périodes et des délais pour la

construction des budgets,• Un besoin croissant de simulation et de reprévision,• La facilité d’utilisation et d’implémentation (utilisation d’excel

pour la définition des formulaires de saisie et des tableaux debord, exportation et diffusion des tableaux de bord au niveaud’un portail web…),

• La complétude des offres (offres intégrées conjuguant l’en-semble des fonctionnalités intégration, stockage, restitutiondes données, workflow, administration et sécurité),

Page 12: Le décisionnel

12 IT-expert n°68 - juillet/août 2007

• L’évolution et l’arrivée à maturité de certaines technologies(notamment la technologie OLAP en RAM).

Etat de l’offre : Balanced Scorecard,Corporate Performance Management(CPM)

La définition d’un système de pilotage pour les dirigeants reposesur trois grands principes que sont la description des objectifsstratégiques pour l’entreprise, la mise en place d’un système de

mesure (indicateurs stratégiques) pour s’assurer de l’atteinte desobjectifs et de la déclinaison des objectifs et indicateurs stratégi-ques en objectifs et indicateurs opérationnels et en actions ouprojets opérationnels.

Ces principes déclinent peu ou prou de la méthodologie « Balan-ced Scorecard » définie par Norton et Kaplan à partir de 1993.La mise en œuvre de ces trois principes dans le cadre d’un pro-jet Balanced scorecard ou CPM donne lieu à la production de 4principaux livrables (cf schéma ci-dessous).

3: Concrétiser2: M

esurer

Points Clefs

Input: Identité, Valeurs, Vision

• Clarifier la Stratégie(positionnement, concurrence, environnement,facteurs différenciant, nos valeurs, notre vision à 3 ou 5 ans)

Objectifs Stratégiques

• Déclinés suivant plusieurs Axes(cas général : Finance, Client, Processus interne, Apprentissage et développement des compétences)

Indicateurs et scorecard Stratégiques

Objectifs, indicateurs et tableaux de bord opérationnels

(Déclinaison de la vision stratégique en objectifs pour les organisations, processus…)

Actions opérationnelles

(Alignement avec le processus d’élaboration et de suivi budgétaire)

Livrables

• Carte Stratégique• Objectifs Stratégiques

• Indicateurs Stratégiques• Scorecards Stratégiques

• Objectifs Opérationnels• Indicateurs Opérationnels• Tableaux de bord Opérationnels

• Plan (s) d’actions Opérationnels

Cycle de vie3 à 5 ans

Cycle de vie< 3 à 5 ans

(année, semestre…)

1: Décrire

La démarche préconisée par ORESYS (inspirée de la démarche de Norton & Kaplan)

1. La carte stratégique et les objectifs stratégiques. L’illustration des objectifs stratégiques répartis suivant 4 axes (finance,client, processus interne, ressources). La force de la carte stratégique est de permettre une vision synthétique des objectifsstratégiques et des liens (causes, impacts) entre ces objectifs.

2. Les indicateurs et la scorecard stratégiques. Le tableau de bord restituant les indicateurs stratégiques suivant différentsmodes de représentations (tendances…). Deux mesures clefs sont à définir pour les indicateurs, le réalisé et l’objectif.

3. Les indicateurs et les scorecard opérationnels. L’une des plus value les plus significatives d’un projet Balanced Scorecardréside dans la synergie entre le pilotage à un niveau stratégique (atteinte de mes objectifs stratégiques) et le pilotage opéra-tionnel (pour atteindre mes objectifs stratégiques, quels objectifs opérationnels dois-je atteindre ?).

4. Le plan d’actions. Les initiatives (actions, projets) que l’entreprise met en place pour atteindre les objectifs opérationnelset donc par impact les objectifs stratégiques.

Page 13: Le décisionnel

13IT-expert n°68 - juillet/août 2007

Peut-on envisager de ne traiter qu’une partie des points évoquésci-dessus ? La réponse est oui mais en perdant en efficacité et enpertinence. En effet, sans les indicateurs stratégiques, la défini-tion seule d’objectifs stratégiques reste un exercice théorique etabstrait, sans la déclinaison au niveau opérationnel, il est difficilede mesurer les raisons de l’atteinte ou non de mes objectifs stra-tégiques, enfin sans la définition de plan d’actions, commentpermettre au management opérationnel d’atteindre les objectifsopérationnels ?

Quelle réponse est apportée par les éditeurs ? Les solutions CPMrépondent aux besoins de mise en œuvre et de définition desscorecards. Par rapport au cycle de vie des indicateurs stratégi-ques et opérationnels, les fonctionnalités disponibles permet-tent la modification et la création de nouveaux indicateurs. La

définition et le suivi des plans d’actions vont plutôt être adresséspar des outils de gestion de projet. Dans des cas de complexitéimportante d’actions requérant des arbitrages, on fera appel àdes solutions spécifiques (Portfolio Management…) Quelles sontles plus values d’un projet Balanced Scorecard ou EPM ?• L’obligation induite par la démarche de pouvoir synthétiser et

simplifier la stratégie d’entreprise (une carte doit pouvoir s’ex-primer sur une feuille A4).

• La synergie entre pilotage stratégique et opérationnel.• L’« adhésion de tous à la stratégie d’entreprise ». Il ne s’agit

pas de l’outil du Directeur et du Comité de Direction mais bienun support au management partagé et compris par tous.

Au-delà des offres logicielles, la démarche Balanced Scorecardest un projet avant tout métier qui requiert des expertises fortes

Objectif stratégique

Augmenter le CA sur les accessoires

Indicateurs Stratégique

Chiffre d’affaires accessoires

Réalisé (Valeur cumulée de janvier à juin 2007)

10 M€

Objectifs (année 2007)

15 M€

Objectifs Opérationnels

Augmenter la vente de packs produit et accessoires

Indicateurs Opérationnels

% des ventes de produis hors pack produit + accessoire

Nombre d’offre pack produit + accessoire

Líatteinte ou non de mes objectifs opérationnelsconditionne l’attente de mes objectifs

Les actions identifiées contribuent à l’atteinte de mes objectifs

Réalisé (Valeur cumulée de janvier à juin 2007)

55 %

80

Objectifs (année 2007)

64,5 %

100

Caus

alité

Ca

usal

ité

Impa

ctIm

pact

Actions/ProjetsProjet « Réactivité du Marketing au Marché »

(permettre de proposer plus vite des offres pack)Plan de formation spécifique

pour les vendeurs « Offres Pack »

Illustration de la déclinaison objectifs stratégiques => objectifs opérationnels => actions et des liens (causalité, impact)

Page 14: Le décisionnel

14 IT-expert n°68 - juillet/août 2007

lors de la constitution de la carte stratégique, lors de l’identifica-tion des indicateurs et la définition des scorecards. Une applica-tion pragmatique des principes définis par Norton et Kaplan etl’expertise de projets sur ces sujets (capitalisation) nourrissentcette expertise.

Panorama des offres éditeurs

� Maintien de la logique de concentration par leséditeurs spécialisés

La logique de concentration initiée par les éditeurs spécialisés audébut des années 2000 se poursuit. Le nombre d’éditeurs spé-cialisés sur le marché décisionnel est donc désormais très limité.On peut désormais distinguer deux grandes catégories d’édi-teurs spécialisés :• « Des éditeurs d’offre intégrée ». La logique de rachats permet

désormais à ces éditeurs de proposer une offre couvrant un spec-tre large de fonctionnalités, sur toute la chaîne décisionnelle.

• « Des éditeurs d’offre spécialisée (niches) ». On pourrait pres-que parler d’espèces en voie de disparition. Suite aux multi-ples rachats impulsés par les éditeurs d’offres intégrées, il nereste plus que quelques éditeurs d’offres spécialisées.

Exemples :- ETL : Informatica…- Performance Management, élaboration et prévision

budgétaire, simulation : APPLIX TM1…- Datamining : Kxen…

� Le bouleversement induit par les éditeursde SGBDR

Les éditeurs de SGBDR (Microsoft, Oracle, IBM) coupent le marchésous le pied des éditeurs spécialisés avec un argument de poids :« quand on a acheté une base de données et que l’on dispose avecla même licence de tous les outils pour réaliser et déployer l’appli-cation décisionnelle, pourquoi aller voir ailleurs ? ».

La stratégie du « tout en un » s’avère payante pour Microsoft etconfirme la puissance commerciale de cette offre. Constatantl’efficacité de cette stratégie, Oracle et IBM, les deux autresgéants de la base de données, ont choisi de s’aligner avec un peude retard, ce qui explique les rachats à marche forcée pour

acquérir les « briques » manquantes : rachat de Sunopsis etHyperion par Oracle, rachat d’Ascential par IBM.

L’importance de cette montée en puissance des éditeurs deSGBDR bouscule fortement le marché décisionnel et ne pourraqu’avoir de forts impacts sur le marché pour les années à venirtant au niveau des acteurs que des offres.

� L’émergence d’offres métiers spécialiséesautour des ERP

A l’instar des offres tout intégrées autour du SGBDR, l’offre toutintégrée ERP + solution décisionnelle gagne en performance eten maturité et constitue une autre Nemesis pour les éditeurs desolutions spécialisées.

Parmi les cas notables citons deux cas :• SAP avec le module BW qui propose une solution décision-

nelle de plus en plus aboutie (SAP NETWEAVER 7.0) pour lesentreprises exploitant de multiples modules SAP au sein deleur SI. SAP bénéficie d’une base installée très importantedans les grands comptes, qui facilité la transition vers les pro-jets décisionnels sous SAP BW, un relais de croissance impor-tant pour l’éditeur.

• L’offre BI d’ORACLE profite naturellement aux modules ORA-CLE Application. SIEBEL (ERP CRM racheté par ORACLE)propose un module décisionnel intégré, SIEBEL Analytics.

Si les éditeurs d’ERP investissent désormais le marché décisionnelen intégrant des modules à leurs offres, les éditeurs spécialisés s’in-téressent aux développements d’offres spécifiques autour des ERP(COGNOS – HR Access, COGNOS – Peoplesoft…).

� Quelle est la situation des offres open source ?

L’offre open source décisionnelle évolue à l’image de celle deséditeurs spécialisés. Dans un premier temps, composée de mul-tiples solutions couvrant chacune une des grandes fonctions del’architecture décisionnelle, la logique de regroupement est dés-ormais la tendance pour l’offre open source. Parmi les offres inté-grées, on peut noter le projet PENTAHO qui regroupe un ETL(Kettle), un moteur OLAP (Mondrian), des solutions de restitu-tions (Eclipse BIRT, JasperReports, JFreeReport, JFreeChart),une solution d’analyse multidimensionnelle (JPivot), un portailweb (Jboss Portal).

Editeur

Business Objects

Cognos

Microstrategy

SAS

ETL

SGBDR Moteur OLAP

EPM et CPM

Diffusion de tableaux de bord

Requêtes Ad Hoc

Analyse OLAP

Simulation

Statistiques avancées

Elaboration budgétaire

Usages en restitutionStockageAlimentation

Décomposition des offres sur quatre des principaux éditeurs spécialisés proposant des offres transverses

Page 15: Le décisionnel

15IT-expert n°68 - juillet/août 2007

Certaines offres proposent désormais une solution open sourceet une solution payante (la solution payante intégrant alors plusde fonctionnalités notamment sur l’aspect installation et adminis-tration) tel que Pentaho.

L’Open Source est-il un réél challenger par rapport aux solutionséditeurs ? En premier lieu, cette offre s’est fortement renforcée etpropose des solutions intégrées (alimentation, stockage, restitu-tion). Pour autant, les fonctionnalités proposées demeurent infé-rieures à l’offre actuelle des éditeurs de solutions décisionnelles.L’installation et la mise en œuvre nécessitent l’emploi de compé-tences techniques fortes et induisent une charge d’implémenta-tion et d’administration plus importante que dans le cadre d’unesolution éditeur du marché.

En conclusion, l’évolution de l’offre open source, même siaujourd’hui inférieure à celle des éditeurs, reste à surveiller. Choi-sir actuellement une solution open source reste un pari risquépour lequel il importe de bien avoir au préalable analysé et com-paré les impacts en terme de fonctionnalités, de coût de mise enœuvre, de maintenance et d’exploitation et de pérennité avec lessolutions éditeurs.En 2007, leur diffusion en entreprise reste confidentielle.

� Vers une offre intégrée logicielle & matérielle

Autre tendance récente du marché décisionnel, des groupe-ments à l’initiative soit des constructeurs de matériels informati-ques soit des éditeurs de solutions décisionnelles proposentdésormais l’achat d’une solution décisionnelle intégrant à la foisle matériel (serveur) et le logiciel.

Pour prendre un exemple, HP propose une offre matérielle com-binée avec chacun des principaux éditeurs du marché(COGNOS, Microsoft, SAS…) : l’offre HP NEOVIEW.Cette tendance du marché reste récente et ne constitue pas uneoffre concurrente mais bien un complément hardware à l’ensem-ble des autres offres du marché.

Conclusion : une diversification desoffres et des solutions de plus en plusintégrées

Devant un renforcement et une diversification de l’offre pour lemarché décisionnel, on ne peut que constater une évolution dessolutions proposées vers des solutions de plus en plus unifiées etintégrées.Aux éditeurs spécialisés s’opposent désormais deux compéti-teurs dont les offres viennent bouleverser le marché décision-nel ; les éditeurs de SGBDR (Oracle, Microsoft, IBM) et leséditeurs d’ERP (SAP, ORACLE Applications…).

La forte montée en puissance de ces nouveaux acteurs et lapression générée sur le marché auront de forts impacts sur lemarché dans les années à venir. On peut revenir sur la logique derachat même si désormais les « acteurs spécialisés de niche » nesont plus légion dans le panorama actuel. A la concentration des

offres impulsée historiquement par les éditeurs spécialisés, vien-nent s’ajouter les offres plus complètes des éditeurs SGBDRpour proposer des solutions tout intégrées.

Quels sont les impacts de l’évolution des offres sur les projets ?Deux aspects clefs des projets décisionnels se trouvent désor-mais renforcés :• La nécessité d’une forte implication des métiers sur les projets

et sur tout le cycle du projet sans phase d’interruption. La sim-plification des technologies proposées permet de se concen-trer désormais sur la réponse aux objectifs, enjeux et besoinsdes utilisateurs,

• L’application d’une démarche itérative proposant des résultatsconcrets tout au long des projets. Les technologies décision-nelles rendent plus aisées la production de maquettes et deprototypes. Pouvoir présenter rapidement un résultat concretdans la technologie cible dès la phase de cadrage des besoinsconstitue un facteur clef de succès pour les projets de mise enœuvre d’une application décisionnelle. �

ORESYS Solutions propose des prestations de définition et de mise en œuvre de

solutions de pilotage pour les Entreprises et Administrations.

Conseil et étude préalable en conception de système,Urbanisme des Systèmes d’In-

formation décisionnels,Conseil en architecture technique,Expertise en modélisation

décisionnelle, assistance maîtrise d’ouvrage pour la conduite de projets.

Mise en œuvre par prototypage de solutions de pilotage sur les technologies leaders

du marché.

ORESYS Solutions est une entité du groupe ORESYS.

Laurent PECQUEUXConsultant, expert fonctionnelet technique des Systèmesd’Information Décisionnel

Page 16: Le décisionnel

Pour compléter votre bibliothèquede référence technique,commandez vite les anciens numéros*d’IT-expert à tarif préférentiel !

IT-expert n°56Juillet/août 2005

DOSSIER : La veille et ses outils• L’interopérabilité des systèmes d’informations :

fantasme ou perspective ?• SQL Server 2005• Les clés du succès en gestion desmétadonnées• Interview SCOR• Consolidation de messagerie, dimensionnement

du réseau : Le juste équilibre

IT-expert n°60Mars/avril 2006

DOSSIER : La qualité des applicationsdéveloppées en technologies objet• L’industrialisation des développements au secours

des échecs projets• Environnements de Développement Intégrés• Urbanisme des Systèmes d’Information versus

Architecture d’Entreprise• Interview de Monsieur SAINT-ALME,

Responsable NTIC chez AG2R• Contrôle d’accès au réseau

IT-expert n°59Janvier/février 2006

DOSSIER : Vers un standard pour le pilotagedes coûts informatiques - Un levierde performance économique : AB C/ABM• Contrôle des développements externalisés

& solutions de gouvernance• K9a : une nouvelle grille de lecture pour la conduite agile

de projets de systèmes d’information• Interview de Jérôme Dupont, Directeur Conventions &

Projets du GIP-MDS• La guerre des processeurs aura-t-elle lieu ?

IT-expert n°58Novembre/décembre 2005

DOSSIER : L’intégration de contenu,un problème bien réel• Les JavaServer Faces face à Struts• Sybase Adaptive Server Enterprise 15• Interview de Nicolas Maquaire,

Président de l’éditeur Français EntropySoftZoom client SAINT-GOBAIN

• Informatique et téléphonie :à quand la convergence ?

IT-expert n°61Mai/juin 2006

DOSSIER : Optimiser innovations ettransformations en gérant le portefeuille de projets et d’applications• Subversion : le grand départ ?• L’accessibilité numérique• Wi-Fi

IT-expert n°65Janvier/février 2007

DOSSIER : Web 2.0 entreprise, quelles réalités ?• ITIL et ISO20000• Logiciel libre :Qu’exiger de son prestataire informatique ?• Les wikis : définitions fonctionnelles et techniques• Interview de Monsieur Kabla, DSI de Dassault

Systèmes Ventes France• Une approche structurée de la certification du réseau :

l’audit automatique du réseau et la validation deschangements des configurations

IT-expert n°64Novembre/décembre 2006

DOSSIER : Capital Immateriel• Windows Vista : le nouveau système

d’exploitation de Microsoft• Les curseurs sous SQL Server• Interview de Mme Seigneur, Directeur

Informatique du Conseil Général de Vendée• Wimax

IT-expert n°63Septembre/octobre 2006

DOSSIER : La géolocalisation• Géolocalisation, les techniques alternatives

au GPS• Le positionnement par GPS• Géolocalisation, tout n’est pas permis…• Interview de Me Gérard HAAS, Docteur en droit• Recyclage des e-déchets

IT-expert n°66Mars/Avril 2007

DOSSIER : Sécurité : Les applications,le talon d’Achille des entreprises• RIA (Rich Internet Application) : définitions et pano-

rama des solutions• Gestion des droits numériques en entreprise avec

RMS• Un observatoire pour mesurer l’urba• Interview d’Hubert Tournier, Senior Manager

chez Deloitte Consulting & Risk Services• Les DRM : une introduction*

Dan

s la

lim

ite d

es s

tock

s d

isp

onib

les

LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE

Page 17: Le décisionnel

www.it-expertise.com

Je souhaite acheter les numéros suivants

Adresse d’expédition & de facturationIT-expert n°62Juillet/août 2006

DOSSIER : Panorama sur les techniques Agiles• PHP5, une alternative à .NET et J2EE ?• Eclipse : le Big Bang Callisto• Test Driven Development• Interview d’Elisabeth Le Boité, Responsable Qualité

et Système d’Information du SIBSyndicat Interhospitalier de Bretagne

• Qui arrêtera Google ?

IT-expert n°57Septembre/octobre 2005

DOSSIER : Equiper les forces de terrain d’unesolution mobile• La gestion des utilisateurs centralisée ou le provi-

sioning• Les alternatives à la suite bureautique Microsoft• Les Tags RFID : révolution technologique ou cau-

chemar• Les solutions Linux

IT-expert n°67Mai/Juin 2007

DOSSIER : SOA, l’état de l’art• SOA :Architectures & outils• Imprimez moins, maîtrisez vos coûts !• Qualité interne de ses logiciels : mythes et réalités• Interview de Philippe VIALLETELLE et Franck DUPONT

de la société STMicroelectronics, site de Crolle• L’univers étrange des unités d’œuvre

Année 2005� N° 56� N° 57� N° 58

Année 2006� N° 59� N° 60� N° 61� N° 62� N° 63� N° 64

Pour commander les anciens numéros d’IT-expert, il vous suffitde nous renvoyer ce document à l’adresse suivante :

IT-Expert3, rue Marcel Allégot - 92190 Meudon - France

Tel : +33 (0)1 46 90 21 21 - Fax : +33 (0)1 46 90 21 20

� Mme � Mlle � M.

Nom

Prénom

Société

Fonction

Adresse

CP

Ville

E-mail

Tél

Fax

� Chèque joint à l’ordre de Press & Communication France

� Règlement à réception de facture

Date :Signature obligatoire :

Offre Spéciale

Tarifs TTC (TVA : 5,5 %)� 1 exemplaire : 8€ � 10 exemplaires : 60€

� 5 exemplaires : 35€ � Autre quantité :

Année 2007� N°65� N°66� N°67

Page 18: Le décisionnel

Technique

18 IT-expert n°68 - juillet/août 2007

Du décisionnel à la gestionde la performance

Dans un marché fortement concurrentiel, la performance d’uneentreprise repose sur sa capacité à prendre les bonnes décisionsquant à ses activités quotidiennes mais aussi à identifier et àmesurer les vecteurs de croissance qui lui permettront d’accroî-tre ses parts de marché.Ces prises de décisions, tant opérationnelles que stratégiques,requièrent une disponibilité accrue de toutes les données de l’en-treprise ainsi qu’une mise en forme « intelligente » permettant deprendre la bonne décision au bon moment.

Les solutions utilisées à cet effet, sont classées sans distinctionsous les termes «d’aide à la décision», de «décisionnel » ou encore

ou, comment mesurer la contributiondes activités de l’entreprise à sa stratégie business ?

de « business intelligence ». Ces appellations correspondent à unensemble de solutions informatiques utilisé pour analyser les don-nées de l’entreprise afin d’en dégager de nouvelles informationsqualitatives et quantitatives à l’aide desquelles les décisions serontprises qu’elles soient d’ordre tactiques ou stratégiques.

Depuis une dizaine d’années, l’intégration de ces solutions amodifié en profondeur l’organisation et les processus des entre-prises ainsi que leurs systèmes d’information.

Les outils ont évolué en s’orientant vers la diffusion aux utilisa-teurs d’une information toujours plus riche. Les entreprises ont

Page 19: Le décisionnel

19IT-expert n°68 - juillet/août 2007

accompagné ce mouvement en cherchant à diffuser l’informationsans forcement étudier la contribution de la « business intelli-gence » à la définition et au pilotage de la stratégie d’entreprise.Cette démocratisation de l’informatique décisionnelle a amenéles différentes directions métiers à se doter de leur propre outil dereporting mais sans pour autant chercher à capitaliser, mutualiserou partager leurs efforts. Ces solutions n’ont plus seulement étéréservées aux directions financières. Les directions marketing,RH, la gestion commerciale ont cherché à se doter de leur propresystème d’aide à la décision. Cette demande a été accompagnéepar les éditeurs du marché qui se sont adaptés à ces nouveauxbesoins en proposant des outils en lien avec le marketing, leCRM, etc. Cet accompagnement s’est caractérisé par un proces-sus de concentration du marché par lequel les éditeurs de BI ontcomplété leurs offres.

Après cette période du « tout décisionnel », le bilan reste mitigé.Les investissements réalisés au cours des dix dernières ont eupour résultat un empilement d’outils ou de solutions décisionnel-les mais, pour autant, le niveau de maturité des entreprises enmatière de BI reste faible.Les enjeux de demain concernent maintenant la rationalisationde leurs infrastructures et leur convergence vers celles des sys-tèmes « classiques » de type ERP. Mais, ils concernent aussi lesévolutions nécessaires qu’elles devront apporter à leurs outils« décisionnels » existants dans une volonté d’anticipation. Eneffet, les outils actuels de « business intelligence » permettent auxutilisateurs d’analyser les données passées de l’entreprise maislimitent leurs capacités à anticiper l’avenir.

Ces entreprises devront se doter de solutions de simulation, d’es-timation et de suivi de l’information prévisionnelle. Classés sousle terme de « Corporate Performance Management » (CPM), cesméthodes et outils sont au décisionnel ce que l’ERP fut il y aquelques années aux environnements opérationnels.

Désormais, les entreprises doivent appréhender de nouveauxmodes de management orientés vers la gestion de la perfor-mance qui leur permettront d’identifier, de mesurer et d’améliorerleurs activités porteuses de croissance.

Le décisionnel en l’an 0

Les entreprises manipulent dans leur système d’information d’im-portants volumes de données. Mais compte tenu de ce volume, cesdonnées restent bien souvent inexploitées. Lorsqu’elles le sont, il estdifficile de leur donner un sens, d’identifier des tendances, des for-ces ou des faiblesses alors même que ces éléments doivent êtreconnus pour prendre les bonnes décisions.

Les outils d’aide à la décision ou systèmes décisionnels aidentavant tout à analyser et à comprendre les données afin d’y déce-ler des informations pertinentes perdues dans la masse.Mais la diversité et la complexité de mise en œuvre de ces outilsont bien souvent noyé certaines entreprises dans des projetslongs, fastidieux et dont les gains escomptés sont, pour certainsprojets, encore difficilement mesurables.

� Des outils essentiellement techniques

A l’origine, le monde du décisionnel était peuplé d’une multituded’acteurs spécialisés dans différentes briques logicielles quiconstituaient alors les applications décisionnelles.Ces éditeurs adressaient le monde du décisionnel, avant tout demanière technique, selon quatre grands domaines :

• Les outils d’extraction et d’alimentation (ETL)Outils de récupération des données du système d’informationet de centralisation dans une base de données spécifique.

• Les outils de centralisation, d’historisation et de stockage(Datawarehouse, Datamart, etc.)Bases de données recueillant et gérant toutes les donnéescollectées, transformées et préparées à des fins de traitementdécisionnel.

• Les outils d’analyse et de restitution (Reporting)Outils d’analyse exécutant des instructions et produisant destableaux de bord, indicateurs voulus, ou reporting en fonc-tion des besoins d’information.

• Les outils d’analyse multidimensionnelle (OLAP, etc.)Outils permettant de modéliser l’activité d’une entreprise sui-vant différents axes ou paramètres.

Les différents éditeurs de l’époque, étaient spécialisés par com-posant décisionnel ce qui imposait aux entreprises de faire unchoix difficile entre la multitude d’outils alors disponibles et àdevoir faire cohabiter ces nouveaux outils avec leur système d’in-formation existant.

Page 20: Le décisionnel

20 IT-expert n°68 - juillet/août 2007

� Une intégration difficile et des premiersbilans contrastés

Les systèmes décisionnels étaient essentiellement perçuscomme des briques techniques assemblées pour traiter des don-nées et en ressortir des informations dites « décisionnelles ».L’intégration de ces briques avec les applications existantes nese faisait d’ailleurs que rarement et les systèmes décisionnelsn’étaient connectés au reste du système d’information qu’aucours des périodes d’alimentation de l’entrepôt ou des magasinsde données.

Les difficultés d’intégration de ces systèmes décisionnels étaientperçues dès la naissance de ces projets.En effet, les principes de gouvernance, qui avaient alors cours,consistaient à piloter et à suivre classiquement ces projets demanière autonome. Les projets de conception et d’implémenta-tion de systèmes décisionnels étaient appréhendés de manièremonolithique sans qu’une véritable réflexion n’ait été menéeconcernant l’apport « business » de ces solutions et leur impactsur les processus métiers de l’entreprise.

L’ambition des projets était souvent très élevée avec des projetscomplexes voulant à la fois moderniser l’existant et identifier desservices et des débouchés à ces applications :

• Les concepts manipulés par les directions métiers n’étaientpas toujours totalement stabilisés et leurs besoins évoluaientavec leur degré de maîtrise du sujet. Les expressions debesoins manquaient de précision et les indicateurs demandésrestaient très généraux.

• Les Directions des Systèmes d’Information, quant à elles,devaient appréhender de nouvelles technologies pour les-quelles elles ne disposaient pas forcément de toutes lesconnaissances requises en interne. Elles devaient jouer leurrôle de conseil aux directions métiers sur des solutions qu’el-les ne maîtrisaient pas totalement.

Les résultats étaient souvent en deçà des attentes des métierspour lesquels le retour sur investissement était difficilementmesurable.Les applications décisionnelles ainsi construites servaient peules métiers et les processus opérationnels des entreprises nes’appuyaient que très épisodiquement sur ces outils d’aide à ladécision, réservés à une élite de décideurs. Les informations pro-duites par ces systèmes venaient alimenter les tableaux de bordessentiellement financiers des dirigeants sans pour autant queleurs collaborateurs n’utilisent ces informations pour leurs activi-tés opérationnelles.

Les dispositifs en vigueur consistaient à interroger des tableauxde bord prédéfinis, souvent figés et qui ne laissaient pas de véri-table latitude à leur utilisateur en cas d’évolution de son besoin.Le modèle retenu était une diffusion d’information « prémâ-chées ». En outre, étant donné que les décideurs-utilisateursn’étaient pas aussi autonomes dans la constitution de requêtesque ce qui était annoncé, ils devaient se tourner vers la DSI quiétait chargée de les assister dans leurs travaux.

La démocratisation des outils d’aideà la décision

Les solutions décisionnelles ont, pendant longtemps, été exclu-sivement réservées aux fonctions financières qui s’appuyaientsur ces dernières pour leurs seuls travaux budgétaires ou comp-tables.Cependant, les autres métiers des entreprises ont très tôt perçul’intérêt de ces solutions dans leurs travaux quotidiens et notam-ment les fonctions marketing, ressources humaines, GRC, etc.Un mouvement de démocratisation de ces outils a eu lieu suivantdeux axes : fonctionnel et hiérarchique. L’utilisation de ces outilsn’a plus été réservée aux détenteurs des cordons de la boursemais ils ont été mis à disposition de toutes les fonctions de l’en-treprise et de tous les niveaux hiérarchiques.Ce regain d’intérêt a été accompagné par les principaux éditeursdu marché qui ont développé des outils spécifiques et adaptésaux besoins des métiers.

Les différentes directions des entreprises se sont alors dotées deleurs propres outils de reporting en retenant le principe du « Bestof Breed ». Tout est devenu décisionnel mais avec une construc-tion d’applications en silo sans avoir recours à des pratiques demutualisation, de partage et de capitalisation des expériences.

� Les entreprises et les éditeurs se sont foca-lisés sur l’information dite « décisionnelle »

Les entreprises, accompagnées par les éditeurs du marché, ontavant tout cherché à promouvoir la « business intelligence » en sefocalisant plus particulièrement sur la mise à disposition d’infor-mations au plus grand nombre.Elles ont fortement investi dans les outils de restitution d’informa-tions sans réellement identifier leur apport et contribution au pro-cessus de l’entreprise.Elles n’ont pas cherché à étudier les synergies potentielles duesà l’intégration des infrastructures ou encore les gains envisagea-bles liés au domaine de l’analyse (Datamining, Modèle prédictif,etc.).

Chaque direction ou métier de l’entreprise s’est constitué soninfocentre, ou datawarehouse en conservant jalousement sesdonnées avec pour résultat une juxtaposition de systèmes etd’applications. Celle-ci n’a pas été accompagnée de projet d’ur-banisation et d’intégration fonctionnelle des données.Ces modes de fonctionnement ont engendré divers soucis auxdirections métiers. Elles ont connu des difficultés liées à la multi-plication des sources d’information et notamment lorsqu’il fallaitsavoir quel système faisait référence. Etant donné l’hétérogé-néité des applications, il n’était pas aisé de dire si les résultats desventes de la direction financière étaient toujours en phase avecles estimations de la direction commerciale.

Les Directions des Systèmes d’information ont, elles aussi, souf-fert de ce mode de fonctionnement avec une explosion du nom-bre d’utilisateurs, du volume de données avec des contraintes entemps de réponse exprimées par les utilisateurs de l’ordre de laseconde, une diminution de la disponibilité des systèmes, etc.

Page 21: Le décisionnel

21IT-expert n°68 - juillet/août 2007

� Les entreprises sont encore peu maturesen matière de BI

Les investissements en systèmes d’information décisionnels ontété réguliers depuis dix ans mais les responsables se retrouventsouvent face à un ensemble d’outils juxtaposés ou empilés ; aumieux reliés les uns aux autres par des interfaces permettantnormalement d’éviter les ressaisies ou transferts manuels.Le bilan qui est fait de la maturité des entreprises en matière debusiness intelligence reste faible.

Selon une étude conduite par le Gartner en avril 2007, environ60 % des entreprises interviewées indiquent utiliser leurs systè-mes décisionnels pour répondre de manière satisfaisante à desbesoins spécifiques (niveau 3).

Mais seules 7 % d’entre elles pensent avoir élaboré de véritablesstratégies BI qui soient alignées avec leurs objectifs business(niveau 4).

Cette analyse globale montre l’absence de vision claire sur l’uti-lisation de ces solutions dans l’entreprise et leur réelle contribu-tion à la création de valeur ajoutée. D’où une remise en cause dubien fondé de ces investissements et une redéfinition du rôle dessystèmes d’information décisionnels.

Le passage du décisionnel auCorporate Performance Management

La « business Intelligence » a été victime de son succès. Lesentreprises cherchent maintenant à rationaliser leurs infrastructu-res et à standardiser leurs processus et technologies décisionnel-les. Un nouveau mouvement de concentration est actuellementen train d’apparaître sur le marché de la BI. A l’instar des éditeursd’ERP, les acteurs historiques se positionnent en qualité de four-nisseurs « all inclusive » avec leur stratégie de rachat commeBusiness Objects (rachat de Cartesis, de Crystal Décisions, etc.)ou encore d’Oracle (rachat d’Hyperion, etc.).

Integration

Business Intelligence Platform

Information Delivery Analysis

• Reporting• Dashboards• AD Hoc Query• Microsoft Office Integration

• BI Infrastructure• Metadata Management• Development Environment• Workflow and Collaboration

• OLAP• Visualization• Predictive Modeling and Data mining• Scorecarding

Composants BI

Source : Gartner (Avril 2007)

Modèle de maturité de la business intelligence et de la gestion de la performance

Source : Gartner (Avril 2007)

Total lack ofawareness

Spredsheetand information

anarchyOne-off report

requests

No business sponsor;IT executive in charge

Limitedusers

Data inconsistency and

"stovepiped" system

Successfullfocus on a specific

business need

Funding frombusiness units

on a project-by-project basis

Specific set ofusers are

realizing value

BICC inplace

Business objectivesdrive BI and performancemanagement strategies

Hybridtechnologies

Governance policies are defined

and enforced

Effective useby users driving business strategy

Information is trustedacross the company

Use of BI is extented to suppliers,

customers andbusiness partners

BI Integrated into enterprise architecture

and applicationdevelopment processes

Level 3Focused

Level 4Strategic

Level 5Pervasive

Level 2Tactical

Level 1Unaware

Page 22: Le décisionnel

niables. D’autres domaines de l’entreprise ont fait le choix de setourner vers ces méthodes de gestion de la performance commeles ventes qui s’appuient maintenant sur des solutions de « SalesPerformance Management ».Au même titre que les solutions de « business intelligence » enleur temps, les solutions de CPM commencent à remporterl’adhésion de l’ensemble des directions métiers des entreprises.Mais cet intérêt croissant et sa traduction en projets de systèmesd’information méritent d’être réfléchis et étudiés afin que lesentreprises ne se retrouvent pas dans une situation similaire àcelle qu’elles ont connue au moment de l’apparition des applica-tions décisionnelles.Les méthodes et solutions de business intelligence ou de gestionde la performance restent avant tout des projets culturels qui enl’absence d’une volonté du management risqueront de restersans issue. L’instauration de telles pratiques doit être accompa-gnée d’une véritable réflexion sur leur contribution à la stratégiebusiness et sur leur capacité d’intégration au sein des organisa-tions et des processus métiers des entreprises.Bien que les grands métiers historiques des entreprises commele marketing, la gestion commerciale ou encore les RH soientsusceptibles de s’appuyer sur de telles démarches, c’est seule-ment soutenu par une vision managériale forte que ces méthodeset outils permettront de produire une réelle valeur ajoutée auxentreprises qui les adopteront. �

22 IT-expert n°68 - juillet/août 2007

Ces éditeurs de BI ne veulent plus seulement se positionner surle créneau de la production d’informations mais ils cherchent àproposer des solutions décisionnelles qui soient totalement inté-grées au reste du système d’information et qui puissent contri-buer à la performance de l’entreprise.

Les outils décisionnels actuels limitent souvent les capacités desutilisateurs à faire des simulations ou des analyses poussées.Même si de nombreuses initiatives permettent d’enrichir cesoutils comme l’approche « Balanced ScoreCard », leur appropria-tion et leur application concrète restent encore peu développées.D’autres outils sont apparus. Ils intègrent des fonctionnalités desimulation, d’estimation et de suivi de l’information prévision-nelle et permettent aux entreprises d’adopter des méthodes pré-visionnelles performantes.Ces nouveaux outils, permettent d’unifier dans un seul environ-nement les aspects traditionnels de restitution et de reporting duréalisé avec les fonctionnalités d’élaboration budgétaire, de simu-lation voire de consolidation et d’intégration de données selonune vision stratégique de l’entreprise.

Rangés sous le terme de « Business Performance Management »(BPM) ou de « Corporate Performance Management » (CPM),ces environnements sont au décisionnel ce que l’ERP fut il y aquelques années aux environnements opérationnels.

Le CPM cherche à relier le passé au futur afin de pouvoir prévoir,budgéter et définir un plan stratégique. Le CPM permet unemesure en temps réel de la performance de l’entreprise grâce àdes indicateurs clés financiers mais aussi opérationnels.

Mais, même si le CPM suppose la fin des silos d’informations endécloisonnant les domaines d’activités et en intégrant les systè-mes entre eux, un important travail d’unification des systèmesd’information et de modernisation des modes de managementdoit encore être accompli.

Conclusion

Généralement demandées par les directions financières et decontrôle de gestion des entreprises, les solutions de CPM sontplus souvent intégrées aux processus financiers alors que lesgains qu’elles peuvent apporter aux autres métiers restent indé-

A propos de Deloitte :

Avec 135 000 collaborateurs et associés, Deloitte est un cabinet d’enver-

gure mondiale, présent dans près de 150 pays, sur les métiers de l’audit,

du conseil, de l’expertise comptable et de la finance.

En France, Deloitte Conseil et Risk Services regroupe 350 collaborateurs,

au sein d’un réseau mondial constitué de 25 000 consultants qui inter-

viennent dans des domaines recouvrant :

• Stratégie et opérations, Systèmes d’information, Efficacité commer-

ciale, Fonction Finance, Management des risques, Externalisation,

Ressources Humaines.

Deloitte accompagne les organisations publiques et privées dans leurs

projets de transformation et leur recherche de la performance.

A partir de la compréhension des enjeux stratégiques et des métiers de

ses clients, Deloitte les aide à concevoir et à mettre en œuvre les organi-

sations, les processus et les systèmes d’information au service de leur

stratégie.

Romain Vilbert, Manager au seindu cabinet Deloitte ConseilResponsable de l’offre « Informa-tion dynamics » au sein de l’activité« Technology advisory »

CorporatePerformanceManagement

System

Financial PerformanceManagement Systems

Operational BusinessIntelligence Systems

Enterprise ResourcePlanning Systems

Page 23: Le décisionnel

Et toujours des informations sur nos partenaires,sur les sommaires des numéros d’IT-expert

http://www.it-expertise.com :un complément d’informationsà la version papier que vous receveztous les 2 mois !

LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE

www.it-expertise.com

Et retrouvez de nouveaux services :• un moteur de recherche pour trouver les informations techniques qui vous intéressent• une nouvelle offre d’abonnement qui vous permet d’accéder aux anciens numéros

d’IT-expert en format pdf• les livres blancs techniques d’éditeurs de logiciels, de SSII, de nos partenaires…

dans une rubrique « téléchargements » ouverte à tous !

Page 24: Le décisionnel

Actualités internationales

24 IT-expert n°68 - juillet/août 2007

Actualitésinternationales

La récente annonce par des bloggeurs de la décou-verte de trois images holographiques de moins d’unmillimètre carré chacune, sur les DVD de WindowsVista a fait couler beaucoup d’encre. L’une d’elle mon-tre trois hommes non identifiés, les deux autres destableaux classiques. Une enquête interne aurait mêmeété diligentée au sein de Microsoft pour découvrir lamanière dont les photos auraient été insérées dans le pro-cessus de fabrication. En définitive, les théoriciens ducomplot en seront pour leur frais. Le blog d’un employé deMicrosoft affirme qu’il s’agit d’une des nombreuses mesu-res anti-piratage prise par l’éditeur pour contrer les contre-façons de ses produits.

Un intéressant livre blanc de Microsoft intitulé« Licensing Microsoft Server Products with Vir-tual Machine Technologies » est désormais dis-ponible sur le site de l’éditeur. Il a le mérite declarifier le système de licences applicable aux ser-veurs Windows 2003 R2, lorsqu’ils sont utilisés avecdes logiciels de virtualisation. Le modèle de licencesdevrait toutefois être différent lorsque Windows Ser-ver 2008 – aujourd’hui en version bêta 3 – sera dispo-nible. Celui-ci embarque en effet directement unetechnologie de virtualisation et ne nécessite pas delogiciel supplémentaire.

Après avoir écumé le marché des entrepri-ses, Microsoft se tourne désormais verscelui des particuliers avec Windows HomeServer. La première version candidate à ladistribution (RC1) est désormais disponibleen téléchargement pour les cent mille tes-teurs enregistrés. Ce nouveau système d’ex-ploitation, dérivé de Windows Server 2003,cible les foyers qui détiennent déjà plusieursordinateurs et souhaitent centraliser la ges-tion des sauvegardes et restaurations, desimprimantes et de l’accès à distance auxmachines. Initialement prévu pour n’être dis-ponible qu’avec des machines de stockageprêtes à l’emploi que préparent plusieursintégrateurs pour cet automne, Microsoft adécidé depuis, de proposer le logiciel à lavente pour satisfaire ceux qui souhaiteraientréemployer une ancienne machine.

Les officiels français et leurs conseillers, se sont vus rappelerl’interdiction d’utiliser des terminaux BlackBerry. Un premieravis négatif avait déjà été donné il y a deux ans par le SecrétaireGénéral à la Défense Nationale. L’interdiction découle du fait quetous les messages échangés à partir de ces terminaux passent pardes serveurs situés en Amérique du Nord. Ils seraient, à ce titre,sujets à interception par les services de renseignements des Etats-Unis. RIM, éditeur du terminal, juge l’analyse infondée, arguant ducryptage des messages (AES 256 bits) et de l’impossibilité deconnaître l’expéditeur d’un message. Il fait en outre valoir que leBlackBerry est approuvé par le gouvernement anglais et parl’OTAN pour la transmission sans fil de messages à diffusion res-treinte. L’arrivée de nombreux nouveaux venus à la suite des récen-tes élections françaises est à l’origine de ce rappel du règlement. Laplupart des élus de fraîche date à l’Assemblée Nationale ne serontsans doute pas au bout de leurs peines avec les systèmes d’infor-mation puisqu’il leur faudra aussi s’accoutumer avec la suite delogiciels libres qui équiperont leurs ordinateurs.

Les futurs microprocesseurs d’Intel n’utiliseront plusde plomb. La gamme des puces à 45 nanomètres seraconcernée dès cette année. Celles à 65 nanomètressuivront dès l’an prochain. L’élimination de ce métalhautement toxique qui entre encore pour 20 milligram-mes dans chaque puce était initialement prévue pour2010. Elle aura coûté au moins 100 millions de dollars.

Page 25: Le décisionnel

Actualités internationales

25IT-expert n°68 - juillet/août 2007

La livraison annuelle de la fondation Eclipsese dénomme Europa cette année. Elleenglobe 21 projets en source libre et comptabi-lise plus de 17 millions de lignes de code et estdisponible depuis fin juin. Il s’agit de la secondelivraison simultanée de cet ensemble de logi-ciels. Cette coordination est censée favoriserl’adoption par les entreprises de l’environne-ment de développement en renforçant l’assu-rance de la compatibilité des outils regroupésdans l’IDE. Parmi les principales nouveautésd’Europa, nous retenons :• Equinox, une implémentation du framework

OSGi 4 pour les applications serveur,• Des outils de travail collaboratif, centrés sur les

tâches, pour les équipes de développement,• Une amélioration des fonctionnalités de

reporting pour la partie BI,• Le support du langage Ruby

La Chine a franchi fin juin la barrière symbolique des500 millions d’abonnés au téléphone mobile, soit un tauxde pénétration d’environ 38%. L’abandon récent de la fac-turation des appels reçus et les discussions en cours surcelle des coûts de roaming (réception hors zone d’abonne-ment) devraient permettre un accroissement du rythme men-suel de plus de 6 millions de nouveaux abonnés.

Bien que destiné au grand public, le nouveau joujou d’Apple :l’iPhone, titille déjà les services informatiques de plusieursentreprises. Ceux-ci s’attendent à voir rapidement arriver lesdemandes de quelques dirigeants hauts placés qui souhaiterontutiliser leur dernière acquisition pour consulter leurs emails. Mal-heureusement, celui-ci ne supporte ni Notes, ni Outlook et pro-pose en lieu et place un accès web à la messagerie. A cela, ilconvient d’ajouter que le périphérique nécessite pour fonctionnerla présence d’un compte iTunes, ce qui placerait les entrepriseshébergeant de tels comptes dans la position de fournisseur d’es-pace de stockage de contenu électronique. On imagine déjà lesconséquences juridiques éventuelles en découlant pour l’entre-prise, relativement à la légalité des contenus ainsi stockés. Compa-rée à l’iPhone, les problèmes rencontrés lors de l’arrivée desBlackberry pourraient donc n’être qu’une aimable plaisanterie.

Après Red Hat et Canonical (éditeur d’Ubuntu),le français Mandriva a déclaré qu’il n’était pasintéressé par la signature d’un accord avecMicrosoft pour éviter les poursuites dont ce der-nier menace les éditeurs de systèmes d’exploita-tion Linux. De plus petits éditeurs tels que Linspire etXandros ont, quant à eux, préféré ne pas prendre lerisque d’un procès et ont conclu un accord avecMicrosoft, suivant en cela le chemin tracé par Novell.Dans le domaine de l’électronique grand public, desaccords similaires ont été signés par Microsoft avecLG Electronics, Samsung et Fuji-Xerox.

L’Allemagne a renforcé son arsenal législatif contre le crimeinformatique en augmentant les peines qui peuvent désor-mais atteindre 10 ans de prison. L’accès illégitime à des don-nées sécurisées devient ainsi en lui-même un crime alorsqu’auparavant le vol des données en question était nécessairepour être ainsi qualifié. La nouvelle loi définit également comme uncrime les dénis de service et les sabotages à l’encontre des indi-vidus et non plus seulement ceux qui visaient les entreprises ou lesorganismes publics. Enfin, sont définis comme criminels les indi-vidus et organismes qui, de manière intentionnelle, créent, diffu-sent ou acquièrent des outils conçus pour mener des activitésillégales. Cette nouvelle loi apparaît dans le contexte particulière-ment sensible déclenché par le Ministre de l’Intérieur WolfgangSchäuble qui entend donner à l’Office Fédéral de Police Criminellela possibilité de s’introduire à leur insu dans l’ordinateur des sus-pects. Cette intention, décrite par le Ministre comme un moyen derenforcer la lutte contre le terrorisme et le crime organisé a suscitéde nombreux débats en Allemagne.

IBM s’intéresse de prèsaux moyennes entreprisestraitants d’importants volu-mes d’informations. Pourcela, le constructeur parie sursa gamme z9 de mainframesavec un argument choc par rapport aux serveurshaut de gamme de Hewlett-Packard ou de Sun : uneconsommation électrique moindre. Le premier tri-mestre de l’année a vu le chiffre d’affaire d’IBM croî-tre de 6,6 % et le bénéfice net de 8 % dans cesecteur. IBM a par ailleurs prévu d’investir 100 mil-lions de dollars sur les 4 prochaines années dans lasimplification de son système d’exploitation. Uneversion améliorée de l’environnement de virtualisa-tion z/VM, ainsi que la nouvelle suite zSecure deTivoli pour la surveillance des menaces et le suivi deconformité aux polices d’entreprise constituent lesdeux premiers éléments concrets, et d’ores et déjàdisponibles, de cette démarche.

Page 26: Le décisionnel

Actualités internationales

26 IT-expert n°68 - juillet/août 2007

Fait inhabituel, l’annonce du pro-chain service pack pour WindowsVista n’est pas venue de Microsoft,mais du Département de la Justiceaméricain. Un document de 27pages fait état de la mise à dispositionen version bêta de celui-ci d’ici la finde l’année, ainsi que de la venue d’unfutur SP3 pour Windows XP, sans tou-tefois préciser de date pour ce dernier.Le SP1 de Vista incorporera notam-ment les modifications qui découlentde la plainte de Google fin 2006 concernant les entraves àla mise en place d’un logiciel d’indexation et de recherchedu contenu de l’ordinateur autre que celui proposé parMicrosoft lui-même. Le SP3 pour Windows XP prendraen compte pour sa part les plaintes concernant le verrouil-lage du choix des programmes par défaut pour le surf surinternet, la consultation des courriers électroniques, le chatet l’accès aux CD musicaux. Le Département de la Justiceaffirme que les mesures proposées par Microsoft satisfontles plaignants, sous réserve d’une implémentationconforme aux spécifications.

La Conférence des Développeurs Profession-nels (PDC), événement bi-annuel de Microsoft,qui devait se tenir en octobre à Los Angeles aété repoussée à une date ultérieure non préci-sée. Cette conférence est traditionnellement l’oc-casion pour Microsoft de présenter en grandepompe les nouveautés de sa plate-forme de déve-loppement. Windows Server 2008, Katmai – la pro-chaine version de SQL Server et Orcas la prochaineversion de Visual Studio devraient être à l’honneurà cette occasion. Les retards subis par ces diffé-rents produits ne permettaient apparemment pasde maintenir la date initialement prévue.

En dernière minute, Microsoft a décidéde ne pas lever la restriction concer-nant la virtualisation des versions d’en-trée de gamme de son derniersystème d’exploitation : WindowsVista. La règle ne change donc pas etseules les versions Business et Ultimatepeuvent être hébergées légalement surun environnement virtualisé. Les versionsHome du système d’exploitation sevoient interdire cette possibilité par leurlicence d’utilisation – bien qu’il n’existe

aucune impossibilité technique pour cela. Microsoft argueque cette dernière possibilité n’intéresse personne, ce à quoiles analystes répondent : « alors pourquoi l’interdire ? ». Ilsemble que l’origine du revirement soit à chercher en partiedans la faiblesse des systèmes anti-piratage de Microsoftlorsqu’ils se trouvent confrontés à un environnement virtuel.

Une enquête annuelle du groupe Gartner montre le ren-forcement de la position de leader occupée par Oraclesur le marché des bases de données, au détrimentd’IBM. Au terme de cette enquête, l’ensemble des ventes delicences sur l’année 2006 s’élève à 15,2 milliards de dollars,dont 47,1 % pour Oracle. Si la part de marché d’Oracle restestable, ses revenus dans ce secteur sont en augmentationde 14,9 % sur l’année. La seconde place revient à IBM avec21,1 % de parts de marché et des revenus en hausse de8,8 %. Microsoft demeure troisième avec 17,4 % de parts demarché et 28 % de progression de ses revenus. Teradata etSybase avec 3,2 % de parts de marché chacun closent lepeloton de tête. Les revenus utilisés pour ces calculs incor-porent les nouvelles licences, les mises à niveau, les loca-tions et les prestations hébergées, le support technique et lamaintenance. En ce qui concerne les systèmes d’exploita-tion, Unix avec 34,8 % des revenus et Windows avec 34,5 %restent loin devant Linux avec 15,5 %. Ce système d’exploi-tation enregistre toutefois une croissance de 67 % par rap-port à l’année précédente !

Pourquoi donc Apple a-t-il décidé de développer une version pour Windows de son navigateurSafari ? La question anime de nombreux forums et a fait son chemin jusqu’aux plus grands

médias anglo-saxons, à commencer par la BBC. La théorie en vogue chez les bloggers et lesjournalistes tient aux revenus que pourrait glaner Apple par l’intermédiaire d’un partenariat

avec Google dont la barre de recherche figure dans le navigateur. Les analystes sont enrevanche sceptiques sur cette explication et préfèrent généralement y voir une tentatived’accroître la couverture de Safari qui constitue un des piliers de Mac OS et surtout del’iPhone. En agissant ainsi, Apple espérerait rendre plus attractif pour certains dévelop-peurs le fait de concevoir des applications qui ciblent spécifiquement ce navigateur qui

représente aujourd’hui 5 % de la base installée des navigateurs. Selon Apple, plus d’un mil-lion de copies de la version bêta pour Windows auraient été téléchargées durant les premiè-

res 48 heures de sa mise à disposition. Manque de chance, durant la même période, lesexperts en sécurité qui se sont penchés sur le produit ont découvert une demi-douzaine de vulné-

rabilités dont 3 au moins permettraient la prise de contrôle totale de l’ordinateur de l’utilisateur.

Page 27: Le décisionnel

Actualités internationales

27IT-expert n°68 - juillet/août 2007

La version bêta d’Adobe Integrated Runtime (AIR)est disponible depuis début juin. Précédemmentconnu sous le nom de code Apollo, il permet le dévelop-pement avec les langages Html, Flash et Flex d’applica-tions internet riches (RIA) s’exécutant sur le poste detravail de l’utilisateur et faisant appel aux technologiesAjax. L’environnement d’exécution supporte les princi-paux systèmes d’exploitation présents sur les postes detravail. Il dispose par ailleurs d’une base de donnéesembarquée utilisant le produit en source libre SQLite etsupporte bien entendu les documents au format PDF.La version finale du runtime est attendue d’ici à la fin del’année. Dans le même temps, Adobe annonçait la dis-ponibilité, également en version bêta, de l’outil gratuitFlex Builder 3 et du SDK qui l’accompagne, pour le déve-loppement des applications utilisant ce langage.

La fibre optique de 560 Mbit/sec qui relie le Viet-nam à Hong-Kong et à la Thaïlande est l’un desdeux principaux canaux d’accès du pays à l’in-ternet. Des pêcheurs croyant avoir à faire à uncâble de cuivre ont tenté début juin de l’arracherpour récupérer le métal dont le cours mondial necesse de grimper. Les 61 miles de câble endomma-gés nécessiteront plus d’un mois de délai pour leurréparation. Il s’agit de la cinquième affaire au Viet-nam depuis le début de l’année, dont l’arraisonne-ment par les autorités d’un bateau de pêchetransportant près de 80 tonnes de câble constituel’affaire la plus retentissante.

Après la XBox et le lecteur MP3 Zune, Microsofta dévoilé fin mai le troisième de ses projets à des-tination du marché de l’électronique grandpublic. Le projet Milan, devrait entrer en productionau début de l’année prochaine. D’ici là, deux chaînesd’hôtels devraient commencer à déployer ce nou-veau matériel qui se présente comme une tablebasse dont le plateau est constitué d’un écran tactilede 30 pouces. La synchronisation avec d’autresmatériels électroniques s’effectue par Bluetooth. Unsystème d’exploitation Windows Vista auquel a étéajoutée une infrastructure spécifique anime la table.

Les solid-state disks (SSD) ont tenu le haut du pavé au salon Com-putex qui rassemble chaque année les principaux constructeurs dematériel informatique et les fabricants de composants. Plus légerset moins consommateurs d’énergie que les disques durs, les SSDdeviennent de plus en plus attractifs, du fait de la chute du prix de lamémoire flash qui a perdu près de 25 % en moins de six mois. Lesmeilleurs modèles proposés au salon atteignent désormais les 64 Go.Des capacités supérieures sont d’ores et déjà possibles, bien que leurprix soit encore aujourd’hui trop élevé pour être compétitifs. Les disquesactuels peuvent être utilisés en remplacement des disques durs de 1,8et 2,5 pouces, sans autre modification de l’électronique d’un PC. Lesmois et les années à venir devraient voir une montée en puissance desSSD, en particulier dans le secteur des ordinateurs portables. Unerécente étude considère qu’un pourcent des ordinateurs portables ven-dus d’ici la fin de l’année sera équipé de cette technologie et que fin2009 cette proportion atteindra 60 %. Les disques durs ne sont cepen-dant pas encore morts comme en témoignent les nouveautés présen-tées au salon. Toshiba propose ainsi un disque 1,8 pouce de 100 Gotandis qu’Hitachi montrait un disque 2,5 pouces pour ordinateurs por-tables d’une capacité de 250 Go.

Google a mené une étude sur 70000 domaines internet qui distribuentde manière active des contenus malveillants ou exploitent des faillesdes navigateurs web. Celle-ci conclut que deux tiers d’entre eux sonthébergés par des serveurs IIS de Microsoft dont les 4/5 utilisent la version6.0. Pour autant, plusieurs analystes en sécurité estiment qu’il convient dene pas en tirer de conclusions hâtives quant à la vulnérabilité d’IIS 6.0 quijouit d’une très bonne réputation en la matière. Parmi les facteurs cachésqu’ils relèvent, figure la prépondérance d’IIS parmi les sites asiatiques quidiffusent ces contenus malveillants et l’hypothèse que nombre de cessites fonctionnent sur des copies pirates de Windows Server 2003 qui, à cetitre, se voient bloquer l’accès à la plupart des mises à jour produites parMicrosoft. D’autres analystes font remarquer qu’une part significative dessites web qui utilisent le serveur Apache fonctionnent sur des plates-formesUnix ou Linux sur lesquelles les producteurs de code malveillants ont plusde mal à s’introduire du fait notamment de compétences moindres dans cedomaine.

La suite Office de Microsoft est intrinsèquement insuffisammentsécurisée. Telle est la conclusion que l’on peut tirer d’une nouvellefonctionnalité de Word, Excel et PowerPoint dans leurs versions 2003 et2007. Baptisée « File Block », cette fonctionnalité installée au moyen desmises à jour Office est ensuite activable par mise à jour de la base deregistre ou par une police d’entreprise. Elle permet alors de bloquerl’ouverture de certains types de fichiers dans les logiciels concernés. Cenouvel outil, salué par plusieurs fournisseurs d’antivirus, constitue uneréponse au nombre croissant d’attaques très ciblées enregistrées l’an-née dernière par le biais de documents spécifiquement conçus pourdéclencher un bogue jusque-là inconnu dans la suite bureautique. Lesdestinataires de ces documents sont en général des dirigeants d’entre-prise ou des administrateurs réseau. Un second outil : Microsoft OfficeIsolated Conversion Environment (MOICE) vient compléter l’arsenal dedéfense. Il effectue une double conversion des documents reçus auformat 2003 vers le format 2007, puis de nouveau vers le format 2003afin d’éliminer les exploitations de vulnérabilité qu’ils pourraient conte-nir. Cette conversion s’effectue dans un environnement virtuel isolé afinde contenir les éventuelles exploitations.

Page 28: Le décisionnel
Page 29: Le décisionnel

29IT-expert n°68 - juillet/août 2007

Quoi de neuf Docteur ?

La visualisationde l’informationà des fins d’aideà la décision

En annonçant le rachat de l’éditeur de logiciel spécialisé dans letext mining et la visualisation d’information Inxight Software en maidernier, Business Objects a clairement manifesté sa volonté d’élar-gir le périmètre de ses solutions d’analyse décisionnelle aux infor-mations non structurées : documents bureautiques, emails… Il estvrai que l’information non structurée constitue un enjeu majeur pourl’informatique décisionnelle. Aujourd’hui, de plus en plus d’entrepri-ses souhaitent utiliser tous les types d’informations à leur disposi-tion pour prendre les meilleures décisions possibles et parvenir àoptimiser les performances de leur entreprise.

L’information non structurée constitue une part très importante del’information gérée par les entreprises. Or celle-ci n’est que très peuexploitée du fait du manque d’outils informatiques dédiés à sonanalyse. Heureusement avec l’arrivée à maturité des technologiesd’analyse textuelle et surtout de visualisation de l’information, cettelacune pourrait vite être comblée.

Page 30: Le décisionnel

30 IT-expert n°68 - juillet/août 2007

Qu’est-ce que la visualisationde l’information ?

Créée en 1967 par le cartographe Jacques Bertin (1), la visualisa-tion de l’information propose une solution originale et efficaceau problème de prise de connaissance d’un ensemble d’informa-tions : la conversion de l’information en une représentationvisuelle tirant au mieux partie des capacités de perception desindividus.

En d’autres termes, la visualisation de l’information cherche àfaciliter, au travers de l’utilisation de certains outils, notre compré-hension d’un nombre plus ou moins important d’informations enréduisant au minimum l’effort intellectuel à fournir pour cettemême compréhension.

Plus précisément, nous pouvons définir la visualisation de l’infor-mation de la manière suivante : « La visualisation de l’informa-tion est l’utilisation informatisée de représentations visuellesinteractives de données abstraites de manière à amplifier lacognition (2) ».

Deux éléments fondamentaux constituent le socle de la visualisa-tion de l’information :

• la représentation visuelle, qui part du principe que la représen-tation visuelle d’un problème, d’un fait ou encore d’un objetest beaucoup plus facile à comprendre et assimiler qu’unelongue explication ;

• la cognition externe qui repose sur l’utilisation de notre envi-ronnement comme support externe à la pensée pour faciliterun processus mental. Par exemple, le mécanisme qui consisteà poser une opération sur papier pour la résoudre est unmécanisme de cognition externe.

Les caractéristiques d’unebonne représentation visuellede l’information

Dans le cadre de l’informatique décisionnelle, la visualisation del’information doit répondre à trois exigences :• présenter une vision globale et exhaustive de l’ensemble des

informations à analyser ;• montrer à l’utilisateur les concepts les plus représentatifs de

ces informations ;• aider à la compréhension pour faciliter la prise de décision.

Pour répondre à ces exigences, la représentation visuelle de l’in-formation qui nécessite la mise en œuvre de méthodes et detechniques découlant des lois de la perception visuelle (théoriedes signes eta sémiotique) doit être universelle et immédiate.Universelle, c’est-à-dire que la représentation visuelle doit êtrecompréhensible par tous, indépendamment de la culture ou duniveau intellectuel. C’est une propriété indispensable au succèsd’un outil de visualisation de l’information.Immédiate parce que l’information doit être entièrement perçueen un temps bref. Malheureusement, la représentation visuelleadoptée par certains outils n’est pas toujours facile d’accès etdemande parfois de véritables efforts de réflexions pour en com-prendre la logique.

Ces deux propriétés impliquent que la visualisation de l’informa-tion se concentre sur trois aspects : l’échelle, l’interactivité et lestâches.

L’échelle

La représentation visuelle doit s’adapter à la taille du corpus d’in-formations à traiter. Quelle que soit cette taille, la représentation

La cognition : Terme de lapsychologie, relatif aux

processus de la connaissance :acquisition, stockage, utilisationet traitement de l’information.

Différents objectifs, différentes approches

En pratique, le recours aux technologies de visualisationde l’information peut poursuivre deux objectifs distincts :• communiquer efficacement des informations au tra-

vers d’une représentation graphique ;• créer ou découvrir des connaissances issues de l’ana-

lyse d’une masse plus ou moins importantes d’informa-tions provenant généralement de documents.

Ces deux types d’utilisation font appel à deux types d’ap-proches. D’une part, les cartes cognitives dont la vocationest de représenter graphiquement des idées, concepts ouinformations. Et d’autre part, les cartes sémantiquesdédiées à la création automatique de représentation gra-phiques d’informations et de leurs relations.

Les deux approches de la visualisation de l’information

Page 31: Le décisionnel

31IT-expert n°68 - juillet/août 2007

visuelle doit reposer sur une échelle lui permettant d’être perti-nente d’un seul coup d’œil.

L’interactivité

La représentation visuelle doit être en mesure de montrer lesinformations suivant différentes perspectives. Ceci se traduit parla possibilité offerte aux utilisateurs d’interagir avec la carte pourvoir les informations suivant différents points de vues et niveau dedétails (du panorama général à la structure fine).

Les tâches

Il ne s’agit pas simplement de créer une représentation graphiqueesthétiquement réussie. L’objectif est de réaliser une représenta-tion qui soit utile à l’utilisateur pour l’aider à :• rechercher une information précise ;• naviguer dans un gros corpus d’informations hétérogènes ;• analyser les informations ;• prendre une décision ;• faire des comparaisons ;• identifier des problèmes éventuels ;• localiser les causes d’un problème ;• détecter et suivre une évolution ;• etc.

Visualisation de l’informationet Business Intelligence

Dans un contexte de surcharge d’information au quotidien, lesacteurs confrontés à un tissu informationnel complexe sont à larecherche de leviers leur permettant de les aider dans leurs prisesde décision. La visualisation de l’information s’est donc peu à peuimposée comme une technologie efficace de présentation etd’analyse de l’information pour communiquer et supporter laprise de décision.

Ainsi, certaines technologies de cartographies décisionnellespermettent :• la synthèse des ressources observées, grâce à la création de

cartes de l’environnement synthétiques et interactives, sur lemodèle des cartes géographiques,

• le couplage de ce type d’informations non géographiques auxtraditionnels SIG, en passe de devenir une commodité dansde nombreuses organisations,

• l’exploration de réseaux volumineux ou complexes (réseauxd’individus ou d’entreprises).

Malheureusement, les utilisateurs de solutions de Business Intelli-gence traditionnelles n’ont généralement pas à leur disposition desoutils de visualisation aussi fonctionnels. En effet, la création derapports est souvent malaisée dans la mesure où les rapports obte-nus privent notamment les utilisateurs d’un contexte de référence.

Pour être plus performantes, les interfaces de visualisation d’in-formation de nouvelle génération, plongées dans un contextedécisionnel, doivent travailler sur trois axes bien spécifiques.

Focus et contexte

La visualisation de nouvelle génération appliquée à la BusinessIntelligence doit fournir des techniques d’interaction de types« focus » et « contexte » permettant, lors de la navigation dans unensemble d’information, de gagner du détail sur une partie del’espace (le focus) tout en maintenant une vue globale (lecontexte).Par exemple, ces techniques permettent d’accéder directementà un document tout en le situant dans le contexte fourni par unehiérarchie ou un système de classification.

Les techniques de fisheye, qui permettent de déformer localementune partie de la vue, sont un exemple pour une telle approche.

Vue connectée

La visualisation doit fournir une vue « connectée » de l’informa-tion. Trop souvent le contexte est perdu parce que les tableaux debord ne fournissent qu’une vue partielle et figée. Or les processusde décision ne se contentent pas de recherche par mots-clés oude vues statiques sur une seule dimension de l’entreprise, il fautpouvoir donner aux décideurs le pourvoir de s’immerger dynami-quement dans l’information.

Ceci peut par exemple s’obtenir en visualisant l’information defaçon associative, c’est-à-dire en passant d’un centre d’intérêt àun autre de proche en proche, via des composants de visualisa-tion de type relationnel (cf. figure page suivante).

Une autre approche consiste à fournir des connexions entre desmodes de représentations différents : il n’existe pas en effet uneseule bonne visualisation, mais des modes complémentaires.Ainsi l’étude des séries temporelles, permettant de comparer desindicateurs sur une période de temps définie, est particulière-ment bien assistée par des histogrammes juxtaposés. Maisquand il s’agit d’aller explorer le détail d’une série, que l’histo-gramme ne peut fournir, une autre interface, sans doute plus mul-tidimensionnelle, est nécessaire.

Exemple d’utilisation de technique de Fisheye

Page 32: Le décisionnel

32 IT-expert n°68 - juillet/août 2007

Vue à plusieurs niveaux d’échelle

Enfin, et peut-être de façon la plus importante, il faut permettrevisuellement à l’analyste d’observer l’information à plusieursniveaux d’échelle.

Dans une première phase d’analyse, son besoin se concentresur une vision synthétique des données pour être en mesure devisualiser des tendances. Une analyse plus approfondie l’amè-nera ensuite à naviguer dans le détail de la vue pour avoir unemeilleure compréhension de ce premier niveau d’indices.

Ce besoin propre à l’analyse des systèmes complexes apparaîtdans de nombreux domaines. C’est par exemple le cas dans lesréseaux sociaux qui, bien que définis à partir d’interaction entreindividus, contiennent et décrivent implicitement une dynamiqueinter-groupes. Ou bien dans l’analyse des grands réseaux « spa-tiaux » : réseaux de transports, réseaux de filiations d’entreprises,migrations alternantes.

Exemples d’applications

Application à l’intelligence territoriale

L’intelligence territoriale se propose de relier la veille et l’action publi-que au service du développement économique et industriel d’unterritoire. Les collectivités territoriales (les chambres de commerce,d’industrie ou d’artisanat ; services de développement économiqueau niveau région ou département) ont un besoin grandissant d’ou-tils d’analyse de plus en plus en plus opérationnels pour :• mieux gérer leurs territoires et mieux maîtriser leurs ressources ;• développer une capacité de réaction rapide face à des situa-

tions de crise ;• maîtriser leurs infrastructures (routes, réseaux…) ;• recenser les bonnes pratiques d’autres territoires à des fins de

« benchmarking » ;• posséder la connaissance des savoir-faire et des produits du

territoire pour réaliser un marketing territorial.

Certains outils de visualisation d’information proposent une solu-tion cohérente avec les objectifs et les besoins de la veille territo-riale. La catégorisation des informations est restituée au traversd’une vue tabulaire multi-niveau exploitant un paradigme devisualisation, le treemap, ayant fait ses preuves.

L’analyste qui emploie cet outil dispose d’une interface de visua-lisation d’information multidimensionnelle, lui permettant vérita-blement de plonger dans l’information pour l’explorer de façoninteractive sous toutes ses facettes.

Visualisation d’une base de données CRM

Vue « drilled down » sur des indicateurs territoriaux

Exemple d’analyse visuelle des échanges aériens mondiaux de passagers : zoom sur l’Asie

Page 33: Le décisionnel

33IT-expert n°68 - juillet/août 2007

Application aux activités de renseignements

Dans le cadre de la gestion d’enquêtes et au sens large l’adminis-tration de bases dites de « renseignements », dans des domainesvariés, que ce soit celui de la lutte contre le blanchiment d’argent,du contre-espionnage industriel ou de la riposte contre-terro-riste, il est nécessaire de construire intuitivement des basesd’analyse, manipuler facilement d’importants volumes d’infor-mations et concevoir sa propre matrice d’analyse.

La recherche de « grappes de connectivité » c’est-à-dire la déter-mination automatique de la présence de réseaux au sein d’ungraphe complexe (graphe au sens d’interactions entre individus,et personnes morales) peut largement être facilitée par des outilsde visualisation.

De même la recherche des liaisons les plus directes ou les plusplausibles entre deux entités (en fonction de critères paramétra-bles) peut apparaître immédiatement dans un logiciel mettant àprofit la visualisation d’information.

Visualisation intégrée des informations hiérarchisées, et accès facilité aux informations à des fins de consultation

ou d’annotation.

Exemple de recherche de chemins dans un réseau de personnes

Page 34: Le décisionnel

34 IT-expert n°68 - juillet/août 2007

Christophe DOUY

PrésidentPikko

Christophe DOUY (SUPELEC 88) a débuté sa carrière comme ingénieur R&D chez

THOMSON puis chez BRITISH TELECOM.

Il rejoint l’éditeur américain POWERSOFT en 1992,où il occupe des fonctions de software

engineer sur la gamme AMC*Designor. En 1996, Christophe fonde et dirige jusqu’en

2000 la Web Agency POLYDEME à Montpellier, acquise par le groupe Keyrus pour son

expertise e-business.

Depuis 2002,Christophe dirige PIKKO,éditeur de logiciels décisionnels et spécialiste de

la visualisation de l’information.

Gilles BALMISSE, a travaillé dans les départements R&D de grands groupes bancaires.

Il a notamment participé à l’introduction d’outils de knowledge management et de veille

au sein de différentes filiales du Groupe BNP Paribas. Gilles BALMISSE intervient régu-

lièrement dans des conférences et séminaires. Il est également chargé d’enseigne-

ments sur les outils du KM dans de nombreux établissements.

Il est par ailleurs l’auteur de l’ouvrage « Recherche d’information en entreprise »,

Hermès-Lavoisier (2007), ainsi que de livres blancs et d’articles sur les aspects informa-

tiques du knowledge management

Les acteurs de la visualisation

C’est sur le continent américain que l’on compte le plus de socié-tés développant et proposant des produits qui intègrent les tech-nologies issues de la visualisation d’information : TOWSAWYER,INXIGHT, SMARTMONEY, HIVEGROUP, etc.

Dans ces outils de première génération, une métaphore visuelleunique était développée le plus souvent. De plus, l’accent n’étaitpas mis sur la portabilité et l’intégration du composant de visua-lisation à un système d’information existant en entreprise maisreposait, le plus souvent, sur une technologie dédiée. Ces socié-tés ont néanmoins été précurseurs dans leur domaine.

Avec l’engouement actuel pour des outils de cartographie tradi-tionnelle (« terrestre ») en ligne (portail IGN en France, ou Google-Maps) ou embarqués (guidage GPS), le concept de visualisationinteractive bénéficie aujourd’hui d’un intérêt plus « grand public ».Ainsi, le domaine de la visualisation sort peu à peu de la confiden-tialité.

Conclusion

Aujourd’hui le marché est mûr pour une nouvelle génération d’ou-tils visuels, qui simplifient l’exploration ou l’analyse de donnéesnombreuses, hétérogènes et/ou changeantes. La capacité àexplorer visuellement, à trier l’information à même les métapho-res graphiques et à organiser interactivement l’informationrépond à un réel besoin de l’analyste, et pendant toutes les éta-pes de son travail : des premiers pas de l’exploration, en passantpar l’annotation, et jusqu’à la publication des hypothèses et deséléments confirmatoires.

De nouveaux acteurs adoptent aujourd’hui un positionnementprécurseur, en proposant la mise en place de plates-formesexploitant en profondeur la métaphore visuelle. On pourra citer lasociété suédoise Panopticon, et en France, l’éditeur de logicielPIKKO qui propose un large panel d’outils de visualisation et dessolutions de couplage à la plupart des systèmes d’informationexistants. �

Gilles BALMISSEDirecteur AssociéKnowledgeConsult

Pour en savoir plus :

Publications1 « Sémiologie graphique : Les diagrammes - Les réseaux- Les cartes », Editions de l’Ecole des Hautes Etudes enSciences2 « The use of computer-supported interactive visual repre-sentations of data to amplify cognition », Card, Mackinlay,Schneiderman – 1999.3 « Graph Visualisation and Navigation in InformationVisualisation : A Survey. » Herman, I., M. S. Marshall, et al.(2000). IEEE Transactions on Visualization and ComputerGraphics

Ressources WEBBlog de Claude Aschenbrenner :http://www.serialmapper.com Table périodique des méthodes de visualisation :http://www.visualliteracy.org/periodic_table/periodic_table.html

Page 35: Le décisionnel

IT-expert, la référence techniquedes professionnels de l’informatique

Bimestriel de conseil et d’expertise technique,

IT-expert vous offre l’information essentielle pour

vous former et décider.

IT-expert, soudain tout est clair…

www.it-expertise.com

Pour tous renseignements : IT-expert - 3, rue Marcel Allégot - 92190 MEUDON - FRANCE

Tél. : +33 (0)1 46 90 21 21 - e-mail : [email protected]

LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE

Page 36: Le décisionnel

Bon d’abonnement à faxer au+33 (0)1 46 90 21 20

ou renvoyer au Service Abonnements3, rue Marcel Allégot

92190 MeudonFrance

LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE

� Mme � Mlle � M.

Nom

Prénom

Société

Fonction

Adresse

CP

Ville

E-mail

Tél

Fax

�Je m’abonne 1 an au bimestriel IT-expert. Je recevrai 6 numéros pour 89 € TTC

�Je m’abonne 1 an à IT-expert version papier + accès au pdf en ligne* pour 120 € TTC

� Chèque joint à l’ordre de Press & Communication France

� Règlement à réception de facture

Date :Signature obligatoire :

Abonnez-vous à IT-expert

Abonnez-vous sur www.it-expertise.com/Abonnement

* Vous recevez dès sa parution un exemplaire d’IT-expert par la poste à l’adresse de votre choix et vous aurez accès à l’ensemble des anciens numéros d’IT-expert en version PDF sur le site webd’IT-expert : http://www.it-expertise.com

Page 37: Le décisionnel

37IT-expert n°68 - juillet/août 2007

Comment ça marche ?

Les grandesétapes d’unechaîne d’ETL

Plaisir d’essence…

Il ne vous viendrait évidemment pas à l’idée de faire le plein devotre véhicule avec du pétrole brut, outre les difficultés à manipu-ler cette substance noirâtre, votre moteur risquerait de pâtir sanstarder de votre bévue !

Une phase de raffinage est nécessaire pour transformer cemélange en un état acceptable pour votre moteur, et de façonplus générale, pour transformer le pétrole en sous-produits utili-sables sous diverses formes.

De surcroît, en plus des qualités requises pour produire un carbu-rant de qualité, une kyrielle de réglementations impose aux raffi-neurs d’enrichir l’essence dégagée du raffinage d’additifsdivers…

Et bien il est de même pour les données de l’entreprise. Un affluxsoudain de données brutes, issues des bases de production, ris-querait de gripper les belles mécaniques de décisionnel ou dereporting mises en place dans l’entreprise, et transformer les indi-cateurs clés, chers à nos décideurs, en arbre de noël !

C’est ce processus de raffinage et d’enrichissement des don-nées que nous allons étudier, avant d’en suivre le cheminementjusque dans les dédales des mécaniques décisionnelles et autresqu’elles iront alimenter.

Question de sens

Réglons de suite une question de vocabulaire, évidemment on neparlera pas de raffinage des données, nos chers octets méritentun autre traitement que ce pétrole, et puis à chaque métier sonvocabulaire ! Non on parlera d’ETL, comme Extraction, Trans-formation, Loading (chargement) des données. On trouvera ausside temps en temps dans la littérature le terme datapumping.

Ce processus couvre toutes les étapes, depuis l’extraction desdonnées des tréfonds des bases de production, de fichiers tex-tes, de fichiers bureautiques… en passant par leur transforma-tion, agrégation, sélection, jusqu’au chargement dans desentrepôts spécialisés que, sans effort d’imagination, nous appel-lerons entrepôts de données (ou datawarehouse).

Page 38: Le décisionnel

38 IT-expert n°68 - juillet/août 2007

� Extraction

La donnée, dans un système d’information, souffre d’une mala-die honteuse, l’hétérogénéité : si je veux par exemple calculer lamarge associée à tel ou tel produit, afin de la mettre à dispositiondes équipes commerciales ou marketing, il me faudra calculer leprix de revient. Pour cela, j’irai chercher le coût des matières pre-mières dans la base des achats, les coûts salariaux dans la basedes RH, le prix de vente chez les équipes commerciales, et lescoûts liés à la promotion des produits dans les équipes marketinget communication. Gageons que ces bases seront d’éditeurs dif-férents, auront une structure de données différente, et que trèscertainement certains éléments pourront d’ailleurs être stockésdans des fichiers plats… l’industrie des finances est trèsconsommatrice par exemple de fichiers Excel, dont les donnéesdoivent être consolidées. Le ver est donc dans le fruit, la donnéeest là, mais multiforme, diverse, cosmopolite, plurielle… et il fau-dra composer avec.

A cette diversité technique pourra s’ajouter un problème de voca-bulaire (que d’aucuns appelleraient cohérence de la donnée), leprix de vente est-il le prix HT ? TTC ? Le facturé ? L’encaissé… ?Question de point de vue, mais l’entreprise regorge de ces pointsde vue, tous aussi pertinents les uns que les autres.

On introduit donc la deuxième étape du processus…

� Transformation

La transformation va consister à préparer les données issues desdiverses sources alimentant l’entrepôt de données pour les ren-dre cohérentes techniquement et logiquement, et préparer leurinjection vers la base (ou destination) cible. Différents aspectsdevront être traités. Dans un premier temps, il sera nécessaire derendre cohérentes les données, au niveau technique et logique.

• Cohérence technique : c’est la plus facile, elle est générale-ment prise en charge par la couche d’interfaçage entre lemoteur d’ETL et les sources de données. Dans les autres cas,on passera soit par des exportations des données sourcesdans un format connu (fichier .csv par exemple), soit par desinterfaces développées pour l’occasion quand l’outil le per-met.

• Cohérence logique : cette phase est extrêmement impor-tante, car ne perdons pas de vue l’essentiel, ces données sontdestinées, d’une manière ou d’une autre, à être utiliséescomme critère de décision, autant donc qu’elles soient perti-nentes. La connaissance métier, d’une part des données d’ori-gine, et d’autre part du contexte dans lesquelles elles serontutilisées, est donc cruciale. Elle implique la participation defonctionnel dans le projet, et peut se prolonger dans une logi-que plus globale de gestion des données (ou Master DataManagement). La mise en cohérence logique de ces donnéespeut être quelquefois à elle seule une bonne raison de menerun projet ETL !

ETL sans interdits

Mais l’ETL a une vocation plus large que l’alimentation des entre-pôts de données, il peut aussi être utilisé pour synchroniser entreelles des bases de données (même s’il existe évidemment destechnologies plus efficaces !), participer à l’intégration des pro-cessus par les données, être lié à des projets EAI ou EII (Enter-prise Information Integration), faire partie d’une phase demigration d’une base…Nous nous appliquerons ici à considérer la chaîne ETL dans uncontexte d’utilisation lié à l’alimentation d’entrepôts de donnéesassociés à des applications décisionnelles ou de reporting.

La logistique efficace des systèmes d’information ne tardant pasensuite à tirer parti du contenu de ces entrepôts pour servir tan-tôt des applications métier, tantôt des applications de reporting,ou autres applications décisionnelles multidimensionnelles(OLAP). Voire même, comble de la consécration, des applica-tions de datamining, ultime niveau de raffinement pour ces don-nées venues de si loin…

Passons donc quelque temps à analyser ces différentes étapes,et à recenser quelques-unes des difficultés rencontrées danschacune d’elle.

Le processus ETL dans la chaîne décisionnelle

Entrepôt de données, magasin de données,datawarehouse, datamart

Un petit point de vocabulaire.Dans la littérature sur l’ETL on lira les ter-mes d’entrepôt de données, de magasin de données, de dataware-house et de datamart, qui est qui et pourquoi ?

L’entrepôt de données est la traduction de datawarehouse, le magasinde données est la traduction de datamart. La différence entre les deuxtient au fait que l’entrepôt de données a une vocation plus généralisteet transverse que le magasin de données, ce dernier est orienté sur unmétier de l’entreprise ou une thématique. Il peut être intéressant decréer des magasins de données à partir des entrepôts de donnéespour des besoins fonctionnels ou des contraintes de performance.

Page 39: Le décisionnel

39IT-expert n°68 - juillet/août 2007

in fine des décisions sur une base mensuelle, il pourra être inté-ressant d’effectuer un cumul par mois avant d’injecter les don-nées dans l’entrepôt de destination.

Et l’on pourra encore aller plus loin en utilisant cette étape pourvérifier, par exemple à l’aide de technologies de Datamining, queles données traitées sont valides. Là aussi prenons un exemple,si le processus d’ETL a pour but de générer une base de pros-pects à partir de formulaires saisis via un formulaire Web, il pourraêtre intéressant de recourir à un algorithme de datamining, quel’on aura préalablement étalonné, pour s’assurer de n’injecterdans la base que des formulaires qui ont une probabilité forte decontenir des données valides.

Cette étape de transformation est donc une réelle opportunité detravailler profondément sur la cohérence des données de l’entre-prise et de profiter de ce projet pour établir des définitions com-munes de leur signification. C’est une façon de capitaliser sur lepatrimoine d’information de l’entreprise car, comme l’a soulignéen Bill Inmon un des pères du concept des entrepôts de don-nées, « Un datawarehouse ne s’achète pas, il se construit. »

� Chargement

Cette ultime étape va donc consister à injecter dans une basecible les données, nettoyées, agrégées, voire triées. Si l’opérationest techniquement relativement simple, il faudra néanmoins pren-dre garde à la volumétrie des données à injecter. Outre les effetsque cela pourra avoir sur les performances de la base cible, unegestion transactionnelle de cette opération peut être nécessaire.En effet, un plantage de l’alimentation d’un entrepôt de donnéesdoit pouvoir faire l’objet d’un retour en arrière, si possible sansrevenir au tout début de l’alimentation.

Processus général

En déroulant le triptyque Extraction-Transformation-Chargement,nous nous sommes aperçus qu’en fait les opérations qu’il com-prenait constituaient un processus complet, dont certaines peu-vent être conduites parallèlement, que certaines opérationsdépendaient du succès des opérations précédentes, et qu’il doit

A qui s’adressent les applications de reporting ?

Adossée à une base décisionnelle ou relationnelle, une application dereporting présente les données sous diverses formes : matrices,tableaux, courbes, histogrammes, indicateurs clés… Elles représen-tent un vecteur à privilégier pour diffuser l’information vers les collabo-rateurs de l’entreprise.L’explosion des applications de reporting ces dernières années a per-mis d’étendre la diffusion des rapports aux opérationnels, et notam-ment, en complément de la diversification des frontaux de restitutionpossibles, de faire sortir le décisionnel de la tour d’ivoire dans laquelleil était enfermé.

Preuve de cet engouement, la possibilité pour l’utilisateur de créer lui-même ses propres rapports, et par là même de s’approprier plus avantles données.Nombre d’éditeurs généralistes se sont d’ailleurs positionnés sur cecréneau des reports builders, autrefois plutôt réservé à des éditeursspécialisés.La possible intégration des infrastructures de reporting avec le portailde l’entreprise pour l’accès aux rapports (génération, visualisation,positionnement d’alertes…) est un élément supplémentaire concur-rent à cette généralisation des applications de reporting.

Exemple de rapport

Lors de cette étape de transformation on pourra aussi en profiterpour effectuer des agrégations, des tris, ou autres consolida-tions. Par exemple si l’on intègre dans cette étape des donnéesissues de tickets de caisse encaissés au jour le jour pour prendre Exemple de processus ETL complet modélisé

Page 40: Le décisionnel

40 IT-expert n°68 - juillet/août 2007

être possible d’effectuer un retour en arrière de tout ou partie duprocessus.

De surcroît, aux opérations logiques appliquées sur les donnéeslors de l’exécution d’un processus d’ETL, peuvent s’ajouter desopérations liées à l’administration générale de la base de don-nées (réindexation, sauvegarde…), voire même de la base multi-dimensionnelle (recalcule d’un cube ou des indicateurs clés…).L’ensemble du processus devra donc être orchestré en tenantcompte à la fois des contraintes techniques classiques, mais enintégrant des contraintes métier, sur le traitement général desdonnées ainsi que sur le planning d’exécution dudit processus.

En conclusion

Le traitement d’une chaîne ETL doit s’envisager sous deux axes :• Comme un véritable processus métier, il est crucial, car de

cette étape dépend la pertinence des informations qui serontrenvoyées par les applications adossées aux entrepôts dedonnées.

• Un axe technologique où interviennent des éléments liés auxperformances, à l’interopérabilité.

Même si, évidemment, une chaîne ETL revêt un caractère asyn-chrone qui sied mal aux besoins de plus en plus exprimés dedécisionnel en quasi-temps réel, gageons que les projets de cetype ont encore un bel avenir !! �

Calipia

Calipia est un cabinet de conseil spécialisé dans les Nouvelles Technologies de l’In-

formation. Ses axes privilégiés d’activités se situent autour de :

• L’aide à la décision : capacité de synthèse des offres, mise en perspective, critè-

res de choix, impact.

• Le conseil marketing (de la stratégie à l’opérationnel).

• La formation (forces de ventes ou décideurs).

• La sensibilisation des décideurs aux grands enjeux :sécurité,mobilité, travail col-

laboratif…

http://www.calipia.com

Pascal ParéAssocié de la société Calipia.

Quelques clés pour choisir un bon outil d’ETL

A la lumière de la description des différentes étapes des processusETL,voici quelques critères de choix qui permettront de sélectionner unbon moteur d’ETL.

• Ouverture : l’outil devra pouvoir se connecter à la fois à toutes lessources de données possibles au sein de l’entreprise (autant en ter-mes de structure de données, que d’éditeur, pour les bases dedonnées par exemple), qu’à tous les types de destinations possi-bles. En cas d’impossibilité de se connecter à des sources ou desdestinations de données avec les outils fournis en standard, ilpourra être intéressant de disposer d’API permettant d’étendre lespossibilités initiales de connexions de l’outil.

• Performance : les scénarios de mise en place d’un ETL sont nom-breux,d’une utilisation one shot à une utilisation régulière et plani-fiée. Dans tous les cas, les performances d’exécution desopérations seront importantes.Elles dépendront, soit de la capacitéà monter en charge lors des traitements logiques dans le cas de trisou d’agrégations, soit de la capacité de l’outil à injecter et manipu-ler de gros volumes de données. En termes de machine, cela sedéclinera dans la capacité de l’outil à tirer parti des capacités detraitement parallèle (multi cœurs,multi processeurs…) ou à exploi-ter la mémoire disponible (notamment grâce aux machines 64bits) ; et en termes de logiciel, de la qualité des interfaces deconnexions aux sources et cibles de données.Précisons au passage que certains ETL proposent des outils per-mettant l’optimisation des requêtes d’extraction, notamment enciblant les chaînes ETL où le temps laissé à l’exécution des phasesd’extraction ou d’injection est compté.

• Outil de dessins des lots : la complexité du processus ETL, on l’avue, peut aller d’une extraction/injection simple à la mise en placed’un processus complexe mettant en œuvre un workflow d’ac-tions diverses travaillant dans un contexte transactionnel. Dans cedernier cas, un outil de conception graphique et de fonctionne-ment riche sera un atout important. Il devra de plus intégrer desoutils de debugging, particulièrement si l’on utilise du code pourmanipuler les données.

• Dictionnaire de données : ce peut être un élément intéressant si leprojet ETL intègre une dimension ayant trait au référencement desdonnées de l’entreprise.

Les 4 critères de choix d’un ETL

Page 41: Le décisionnel

www.oresys.com

ORESYS,ENSEMBLE POUR LA RÉUSSITE

DE VOS PROJETS

Des

ign

> w

ww

.eno

la-c

reat

ion.

fr

_Notre savoir-faireNotre savoir-faire s’étend de la définition d’une stratégie à sa mise en ouvre opérationnelle,en intégrant les dimensions organisation, accompagnement du changement et systèmesd’information. Oresys dispose des compétences et des outils pour assister ses clients surtous les aspects de la conduite de grands projets de transformation.

Acteur majeur du conseil en management et organisation, ORESYS s’engage auprès des

grandes entreprises pour accompagner leurs projets de transformation et l’amélioration

de leurs performances. Nos 200 consultants experts s’engagent en synergie avec les

équipes internes. Leur originalité tient dans une multi compétence tant sur les volets

métiers, fonctionnels que technologiques.

Page 42: Le décisionnel

Fenêtre sur cour

42 IT-expert n°68 - juillet/août 2007

Interviewde Didier FleuryDSIchez CEGEDIM

Fondée en 1969, CEGEDIM conçoit des bases de don-nées exclusives et des solutions logicielles. Présentedans 75 pays, CEGEDIM a réalisé un chiffre d’affaires de541 millions d’euros en 2006. Ces compétences s’exer-cent dans deux divisions : « santé et données stratégi-ques » qui regroupent les services dédiés aux laboratoi-res pharmaceutiques, aux professionnels de santé et auxintervenants de l’assurance santé – et la division « tech-nologies et services », multi-sectorielle.Leader en Europe sur son cœur de métier historique,CEGEDIM accompagne les plus grands laboratoirespharmaceutiques mondiaux dans leurs projets de CRM(Customer Relationship Management) et mesure l’effica-cité de leurs actions marketing-vente. Avec ses outils deCRM, fortement valorisés par les bases de données stra-tégiques du Groupe, CEGEDIM apporte aux départe-ments marketing et ventes un éclairage avisé sur leurmarché et leurs cibles, afin d’optimiser leurs stratégies etleur retour sur investissement.Nous avons eu le plaisir d’interviewer Monsieur Fleury,DSI du groupe CEGEDIM sur la mise en œuvre de leurprojet décisionnel.

Pourriez-vous nous présenter le métier de CEGEDIM ?Didier FLEURY : Tout d’abord, un nouvel élément important dansla présentation de CEGEDIM est le récent rachat de notreconcurrent américain, DENDRITE. La taille de CEGEDIM va pra-tiquement doubler et notre présence va s’accentuer dans certai-nes zones, notamment en Asie et aux US.Le métier de CEGEDIM est de fournir des données aux laboratoi-res (bases de données des médecins, spécialistes…) mais éga-lement de proposer des logiciels à nos clients (CRM, gestion decabinets médicaux, d’officines de pharmacie, de contrats d’assu-rances complémentaires).

Comment la DSI est-elle organisée ?Didier FLEURY : La DSI est découpée en 4 pôles : IT gouver-nance et systèmes, IT architecture, IT opérations et la R&D. Nousavons mis en place un schéma directeur en 2004 sur une duréede 3 ans et avons intégré de « bonnes pratiques » sur la based’ITIL et de CMMI.La DSI se doit de fournir les meilleurs services possibles à nosBusiness Units.

Page 43: Le décisionnel

43IT-expert n°68 - juillet/août 2007

Dans quel environnement technique travaillez-vous ?Didier FLEURY : Une grosse partie de notre production est opé-rée par des mainframes. Nous sommes dans un environnementWindows avec active directory, SQL Server mais aussi Linux,Oracle, Java J2EE… L’environnement est hétérogène mais nousle rationalisons beaucoup.

Quel était l’enjeu de votre projet décisionnel ? Sur quels outilsvous êtes-vous appuyés ?Didier FLEURY : Il s’agit d’un projet décisionnel par rapport ànos clients et non par rapport à notre informatique interne. Nousavons une multitude de technologies chez CEGEDIM. Dans ledomaine des outils décisionnels et de restitution, nous avionsdes produits développés en interne et tous types d’outils en ter-mes de restitution (BO, Cognos, Microstrategy…) parce que nousdevons nous adapter aux technologies et outils utilisés chez nosclients.

L’objectif de ce projet était de synthétiser l’ensemble et de propo-ser à nos clients une offre à plusieurs niveaux c’est-à-dire quenous pouvons leur fournir des donnés mais aussi leur constituerdes datamarts et enfin leur fournir des cubes par axes d’analy-ses : activités, ventes, etc. Sur ce dernier point de l’offre nousavons choisi Microsoft SQL server pour une raison simple : lanouvelle version excel 2007 est devenue un vrai outil de restitu-tion analytique parfaitement intégré à SQL Server. D’autre partpresque tous nos clients ont le pack office sur les postes de leursutilisateurs. Cela évite donc de redéployer une application. Lasuite Microsoft nous a paru flexible et malléable.

Globalement, nous avons donc fait le choix de Microsoft pourtout ce qui est proche de l’utilisateur (restitution). Quant à la pro-duction lourde, elle est basée sur des technologies telles qu’Ora-cle, Linux… et Informatica pour la partie ETL.

Comment s’est passée la mise en œuvre du projet ?Didier FLEURY : Du fait de notre métier la mise en œuvre de ceprojet est en perpétuelle évolution. Nous avons eu une approchepar étapes et en fonction du choix du client nous avons adapténotre projet. C’est un projet « à la carte » : soit nous proposons lesdonnées brutes, soit des datamarts soit des cubes. Nous avonsplusieurs projets au sein de ce projet décisionnel.Certains projets sont plutôt orientés métiers, sur ce que doiventêtre les datamarts, les cubes sur, par exemple, l’activité de CRM.Nous avons également une approche outillage. Par exemplenous avons trouvé une insuffisance d’excel 2007 sur la partierequêtage dynamique avec le MDX, nous avons donc développéun plugging qui permet de faire du MDX dynamique. Cela permetà nos différentes filiales et donc à nos clients d’aller plus loin avecl’outil.Nous avons deux volets dans l’approche, un orienté données etl’autre complément d’outils autour d’excel.

Quel bénéfice avez-vous retiré de ce projet ?Didier FLEURY : Le vrai bénéfice a été d’arrêter de parler d’outilet de se concentrer sur le fonctionnel et le contenu.

Quelles difficultés avez-vous rencontré ?Didier FLEURY : Compte tenu de notre métier, nous avons tou-jours des difficultés à introduire des outils sur nos projets. Eneffet, nos clients utilisent des technologies diverses et les outilsque nous proposons doivent pouvoir s’intégrer dans cette multi-tude de technologies.

D’autre part, la mise en place de CMMI implique une gestion parprojets qui est quelquefois difficile à intégrer par les BusinessUnits impliquant un problème de langages, d’interface.Enfin la dernière difficulté est de trouver, notamment pour lesfiliales, la frontière entre l’informatique et le business. Jusqu’oùdevons-nous, pouvons-nous nous engager en terme de SLA ?Nous devons donc fixer des limites à notre « ingérence » dans lesspécificités métier mieux maîtrisées par nos filiales. Nous leurfournissons donc les outils pour qu’elles puissent travailler avecles spécificités locales de ses clients.

Quels sont vos prochains chantiers ?Didier FLEURY : Le principal objectif est de réussir l’intégrationde DENDRITE et des 3000 personnes qui la composent… D’au-tre part, nous avons choisi de construire notre prochaine offreautour du framework .Net. C’est un projet sur lequel travaillaitDENDRITE et que nous allons continuer.

Pour conclure, quels sont les éléments à prendre en compteavant de se lancer dans ce type de projet ?Didier FLEURY : Comme dans tous les projets décisionnel ouautre, il faut un bon sponsor en interne, un bon pilote et une com-munication sur la gestion du changement : rien d’original maisc’est néanmoins très important ! �

Didier FLEURYDSI chez CEGEDIM

Page 44: Le décisionnel

44 IT-expert n°68 - juillet/août 2007

Livres

Gestion des identitésUne politique pour le système d’InformationPar Nicolas Debaes, Pierre Pezziardi, Bruno VincentPrix public : 39,00 EUR - 214 pages - ISBN10 : 2-9525895-1-8Editions Octo Technology

Pro SQL Server 2005 Service BrokerUne politique pour le système d’InformationPar Klaus AschenbrennnerPrix public : 48,90 EUR - 450 pages - ISBN : 9781590598429Editions APress

Gestion des identités

Fruit de la collaboration de plusieurs architectes de la société Octo, cet ouvragetraite de la sécurité des applications. A l’approche sécuritaire qui se propose detout interdire a priori, les rédacteurs proposent une approche moins courante,pilotée par les risques et fondée sur la journalisation de toutes les actions desutilisateurs. Au fur et à mesure des pages, nous suivons les aventures d’unsympathique architecte œuvrant pour une chaîne de magasins de sport (devi-nez lesquels). Au fil des ans, les demandes se succèdent et les besoins d’inté-gration se multiplient. Fort heureusement, les patterns que lui propose Octo etl’approche par les risques l’aideront à se tirer des pires embûches.Le ton humoristique adopté lors de la rédaction facilite encore, s’il en étaitbesoin, la lecture de ce livre au graphisme soigné et imprimé sur un papier peucourant pour ce type d’ouvrage.

Pro SQL Server 2005 Service Broker

Le Service Broker est une des nouvelles fonctionnalités de SQL Server 2005.Elle est malheureusement peu connue. Ce livre vient bien à propos en explorerles tenants et aboutissants. Son originalité vient de la possibilité qu’elle offre dedévelopper des applications de messagerie applicative directement prises encharge par le moteur de base de données et ce dans un environnement trans-actionnel et distribué. Après avoir rappelé les fonctionnalités de base d’un sys-tème de messagerie et les difficultés architecturales qu’un tel système doitrésoudre, l’auteur passe en revue les fonctionnalités du Service Broker et endémontre toute la puissance en l’illustrant de nombreux exemples de code.L’exposé, clair et exhaustif, s’adresse en priorité aux gestionnaires de bases dedonnées et aux architectes. Ces derniers y découvriront ou approfondirontleurs connaissances des apports et des limitations d’une Architecture de basede Données Orientée Service (SODA).

Page 45: Le décisionnel

Rubrique à brac

45IT-expert n°68 - juillet/août 2007

PPhhiilloossoopphhiieess dd’’IITTIILL eett aapppprroocchhee ccoommmmuunneeddeess ddiisscciipplliinneess

Les processus de gestion des services informatiques (le servicedevant s’entendre comme l’ensemble des fonctions fournies parl’informatique aux domaines commerciaux, non comme un élé-ment d’organisation) existaient avant ITIL. Bien que la formalisa-tion de ces processus soit finalement peu répandue, et doncqu’un champ de pratique assez étendu existe, les exigencesaccrues en matière de qualité, de disponibilité, de rationalisationdes coûts et de rapidité d’évolution des services informatiquespoussent nombre d’organisation à se doter d’outils existantsaussi proches que possible du « prêt à l’emploi ». ITIL est pourautant loin d’être un livre de recettes de cuisine : la philosophiequi sous-tend l’ensemble des travaux des professionnels qui

rédigent et maintiennent cette bibliothèque est celle des meil-leures pratiques : « à quoi veut-on arriver ? » plutôt que « com-ment ».

QQuu’’aappppoorrttee IITTIILL ??

La bibliothèque ITIL promeut une orientation interne orientée versle service par l’intermédiaire d’une vision commune et d’un lan-gage commun. Sous-traitants, services informatiques internes etutilisateurs disposent ainsi d’un cadre de travail suffisammentsouple pour être adapté. ITIL propose onze disciplines (*), à la foissuffisamment découplées pour pouvoir être mis en œuvre sépa-rément et de façon incrémentale, mais également profondémentinterdépendantes. La richesse fondamentale d’ITIL provient de la

Déployée par le gouvernement britannique dans la dernière

décennie du 20e siècle, ITIL est aujourd’hui massivement

adoptée en France par un grand nombre d’organisations

qui vont des multinationales aux grandes PME en passant

par l’administration. Au-delà de l’énumération et de la des-

cription fastidieuse des onze fonctions et processus, cet

article a pour ambition de présenter la cohérence de l’orga-

nisation des disciplines, les liens et les dépendances qui

existent entre elles. Bien qu’on ne puisse échapper pour

rester lisible à une description sommaire de ces disciplines,

on pourra se reporter aux URL qui figurent à la fin de cet arti-

cle pour en connaître le détail.

ITIL :entre meilleurespratiqueset référentielholistique

*La gestion de la sécurité peut être incorporée aux autres modules ou traitée comme une discipline à part entière. Cet article prend le parti de la dilution de la gestion de lasécurité pour simplifier la description du référentiel.

Page 46: Le décisionnel

46 IT-expert n°68 - juillet/août 2007

cohérence de l’ensemble (chaque processus/fonction enrichitles autres), tout en préservant la mise en œuvre par étape et lareprise de l’existant. Cette notion d’approche itérative est sou-vent illustrée par le cercle de qualité de Deming (figure 1) où cha-que phase est structurée en quatre parties et sert de point dedépart à la phase suivante.

IInnttrroodduuccttiioonn àà ll’’oorrggaanniissaattiioonn ddeess sseerrvviicceess

Les fonctions et les processus d’ITIL sont répartis en deux sec-tions fondamentales : la prestation de services et le support desservices. Cette répartition est organisée en fonction de la duréedes cycles de gestion : court terme/opérationnel pour le supportdes services, moyen terme/tactique pour la prestation de servi-ces. La prestation de services regroupe les gestions des niveauxde service, des capacités, des disponibilités, de la continuité deservice et des finances. Le support des services traite quant à luile bureau d’assistance, la gestion des incidents, des problèmes,des configurations, des modifications et des mises à jour.

� Service support

Le schéma de principe du support des services apparaît dans lafigure 2. La gestion de configuration, qui est responsable de lagestion de la CMDB (Configuration Management Data Base) joueun rôle particulier : elle soutient toutes les autres disciplines. Un fluxnaturel s’établit dans l’ordre du centre de service vers les proces-sus de gestion des incidents, des problèmes, de la gestion deschangements et des mises en production. D’autres interactionsexistent : le centre de service travaille par exemple avec la gestiondes changements afin de traiter des demandes de modificationsde l’environnement qui puissent avoir un impact sur les métiers.

Le centre de service (d’autres dénominations comme le bureaud’assistance sont parfois utilisées) a pour objectif de fournir unseul point de contact pour tous les utilisateurs informatiques. Cen’est donc pas un processus mais une fonction, la seule desonze disciplines d’ITIL. Son rôle d’interface entre l’informatique etles métiers, fondamental pour ITIL, justifie sa présence en tantque module à part entière.

La gestion des incidents et celle des problèmes diffèrent dansleurs objectifs. La première cherche à rétablir par tous les moyensle service, la seconde s’attache à l’analyse et à la résolution per-manente des problèmes. La gestion des incidents fera par exem-ple appel à des solutions de contournement, la gestion desproblèmes cherchera à identifier des solutions pérennes.

La gestion des configurations comprend l’enregistrement deséléments informatiques nécessaires à la gestion des servicesinformatiques. Son rôle pivot rend son champ d’action délicat àdéfinir : il risque de gêner la mise en œuvre des autres processuss’il est trop restreint, et devenir ingérable si le périmètre couvertest trop important. De nombreux éditeurs ont investi l’activité deconstitution et de gestion de la base de données des configura-tions (CMDB – Configuration Management Data Base).

La gestion des modifications gère l’ensemble des modificationsde l’environnement informatique (donc de la CMDB) susceptibled’influencer la qualité des services informatiques fournis. On trou-vera dans ce processus des mécanismes d’approbation et decontrôle, qui doivent permettre de minimiser les incidents liés àdes modifications.

La gestion des versions est responsable de l’intégrité de l’envi-ronnement informatique. Elle apporte une vision d’ensemblecohérente des modifications informatiques. Les activités de ceprocessus sont donc orientées autour de la planification et ducontrôle des déploiements matériels et logiciels.

� Prestations de services

Les processus qui composent les disciplines de prestations deservices et leurs relations sont schématisés sur la figure 3.

La gestion de service (Service Level Management – SLM) est lepoint d’entrée des autres processus de la prestation de servi-ces. La mission du SLM est de conserver et d’améliorer la qualité

Centre deServices

Gestion desincidents

Gestion desproblèmes

Gestion deschangements

Gestion des misesen production

Gestion desconfigurations

Base dedonnées de gestion des

configurations

Figure 2 : Relations entre les disciplines des services de support

Performance

Temps

Planifier

Mettreen

oeuvre

Améliorer

Contrôler

Figure 1 : Cercle de Deming

Page 47: Le décisionnel

du service informatique via un cycle de négociation, de définitionet de gestion des services informatiques. Les objectifs de ce pro-cessus sont de cataloguer les services informatiques, de définirles objectifs, d’améliorer les niveaux de service et de réviser lesaccords et les contrats.Les objectifs principaux de la gestion des disponibilités sont deconcevoir des services informatiques en fonction des accords de

47IT-expert n°68 - juillet/août 2007

Gestion desniveaux de service

Gestion dela capacité

Gestion financièredes services

informatiques

Gestion dela disponibilité

Gestion de la continuité des services informatiques

disponibilité et du budget prévu. L’objectif de la gestion de la conti-nuité de services informatiques est de veiller à ce que ces dernierspuissent être rétablis après un désastre dans les délais prévus. Elleest donc un sous-ensemble du Plan de Continuité d’Activité dont lechamp est extérieur à ITIL. Gestion des disponibilités et de la conti-nuité sont deux processus qui diffèrent par leurs livrables. Le plan decontinuité spécifie le niveau des services fourni en cas de désastre,le temps convenu de leur restauration, les mesures préventives,etc. (les activités de ce processus sont illustrées dans la figure 4). Lagestion de la disponibilité vise à réduire la fréquence et la durée desincidents ayant un impact sur la disponibilité, en particulier à partirdes analyses de risques.

Les deux objectifs de la gestion de la capacité sont d’une part deveiller à ce que les capacités de l’infrastructure (réseau, stockage,etc.) puissent répondre aux besoins de l’entreprise, dans le pré-sent mais aussi dans le futur. Le second volet de la mise en œuvrede ce processus est de pouvoir assurer sur une échelle tempo-relle que la capacité informatique soit appropriée. Une surcapa-cité coûte cher et augmente le coût des services, une souscapacité entraînera des problèmes de performances. Les activi-tés de la gestion des capacités sont détaillées sur la figure 5. Lesentrées du processus sont de trois ordres :• Les données liées aux besoins des métiers, c’est-à-dire les

évolutions ou hypothèses de variation de l’activité

Initiation de la gestion de la continuité des métiers

Analyse de l’impact sur les métiers

Évaluation des risques

Stratégie de la continuité de services

Planification de l'organisation et de la mise en oeuvre

Développement des plans de reprise

Développement des procédures

Premiers tests

Mise en oeuvre des mesures de réduction des risques

Mise en oeuvre des dispositifs de secours

Assurance

Formation

Gestion deschangements

TestAudit

Éducation etsensibilisation

Figure 4 : Les quatre phases de la gestion de la continuité de services

Figure 3 : Relations entre les processus de prestations de service

Page 48: Le décisionnel

Gestion de la capacité des métiers

Gestion de la capacité des services

Gestion de la capacité des ressources

Activitésitératives Gestion

de la demande

ModélisationDimension-nement des applications

Stockage dedonnées de

capacité

Production du plan de capacitéBase de données

de la capacité CDB

Couverture de tous les aspects de la gestion des capacités Business,

des services et des ressources

Figure 5 : Activités de la gestion des capacités

48 IT-expert n°68 - juillet/août 2007

• Les données liées aux services rendus et documentés par leSLM

• L’utilisation des ressources informatiques (par exemple le tauxd’utilisation des baies de stockage)

Enfin, la gestion financière informatique encadre l’établissementdu budget et la comptabilité informatique. Une troisième activitéde la gestion financière, optionnelle pour ITIL, consiste à définirles mécanismes de récupération des coûts informatiques par lafacturation des clients pour les services fournis.

CCoohhéérreennccee ddeess ddiisscciipplliinneess dd’’IITTIILL

Il n’est pas interdit de se limiter à la mise en œuvre de certainsmodules. ITIL préconise d’ailleurs une approche incrémentalede l’implémentation de la gestion des services. Cela signifie à lafois que tous les modules ne seront pas implémentés en paral-lèle, et que chaque module passera par des phases de matura-tions de plus en plus élaborées. Selon une étude de Forrester, lesprocessus de gestion des incidents et le SLM (Service LevelManagement) sont déployés en priorité, suivis de la gestion desconfigurations et de la gestion des disponibilités. Cela n’est passurprenant, la valeur donnée aux différents processus et fonc-tions augmente avec la « proximité » du client (« celui qui paye »)et des utilisateurs. La bonne place donnée à la gestion des confi-gurations provient de son rôle pivot dans la gestion des servicesde support.

Pour autant, la richesse d’ITIL se trouve dans la cohésion et l’in-teraction entre les disciplines. Même si certains modules sontdans un premier temps exclus du périmètre de mise en œuvre,les fondations existent pour que les autres disciplines puissents’intégrer au fur et à mesure dans l’ensemble des processus exis-tants sans que les travaux effectués ne doivent être remis encause.

Prenons à titre d’exemple le SLM et la gestion des incidentscomme fil conducteur des relations inter processus.

� Relation du SLM avec les autres processus ITIL

Gestion des incidents et centre de services

Le centre de services peut détecter les écarts par rapport auxaccords et influe sur la définition des critères de sévérité des inci-dents. La gestion des incidents peut identifier les services défi-cients, qui seront inclus dans le programme d’amélioration desservices (SIP) géré par le SLM. Les procédures d’escaladesappliquées par le centre de service et la gestion des incidentssont définies par le processus de SLM et sont documentées dansles SLA (Services Level Agreements – accords sur les niveaux deservices).Le SLM définit pour la gestion des incidents les caractéristiquesdes temps de réponses aux incidents, la définition des impacts,les temps négociés de rétablissement du service, la définitiondes services, etc.

Page 49: Le décisionnel

49IT-expert n°68 - juillet/août 2007

Enfin, les statistiques établies par le centre de services servent àétablir et à contrôler la réalisation des SLA.

Gestion des problèmes

Le gestionnaire des problèmes est responsable de la mise enœuvre de certaines des procédures définies dans le SLM,comme par exemple les procédures d’escalade.

Gestion des configurations

Le SLM connaît les composants intégrés dans la CMDB qui fontl’objet d’accords spécifiques en interne ou de contrats externes(contrats de supports et de maintenances, délais d’intervention oude remplacement de pièces, etc.). La gestion des configurations estinversement responsable de l’enregistrement de tous les compo-sants des services fournis par l’informatique. Elle répertorie en par-ticulier le catalogue des services, les SLA, les contrats sous-jacents,le plan de qualité de service, les renseignements sur les organisa-tions et les fournisseurs.

Gestion des changements

Les modifications apportées aux services informatiques, à l’infra-structure ou aux logiciels peuvent avoir un impact sur la réalisa-tion des niveaux de services définis dans les SLA. Lesmodifications apportées au catalogue des services, aux SLA etplus largement à tous les documents produits par le SLM sontsous le contrôle de la gestion des changements.

Gestion de la disponibilité

La gestion de la disponibilité est garante de la disponibilité desservices fournis par l’informatique. Elle fixera les contraintes dedisponibilité aux acteurs internes et externes, et prendra encharge les négociations de contrats qui concernent les temps derestauration des services et la réparation des éléments défec-tueux avec les fournisseurs extérieurs. La gestion de la disponi-bilité fournira également au processus de SLM les statistiques dedisponibilité des services afin de les comparer aux accords et auxcontrats.

Gestion des capacités

Il est bien évident que les capacités (serveurs, stockage, réseau,etc.) peuvent avoir une influence sur les temps de réponse et les

débits que peuvent supporter les infrastructures. La gestion de lacapacité a également pour mission d’anticiper les changementsafin d’éviter que l’entreprise soit en sous capacité. Elle est doncà ce titre l’un des soutiens fondamentaux du SLM en ce quiconcerne les cibles de performances. La gestion des capacitéslivre les rapports et les statistiques qui permettent de comparerles cibles et les réalisations. Enfin le SLM livre à la gestion descapacités une partie des informations nécessaires à la prévisiondes performances.

Gestion financière

Ce processus maintient les éléments financiers concernant l’uti-lisation et le coût des services informatiques. Il va donc fournir auSLM les éléments qui permettront de mettre en regard la qualitédes services et les coûts qu’ils représentent. Les éléments finan-ciers présents dans les SLA et les catalogues de services sont lesrésultats des négociations entre la gestion financière et le SLM.

Gestion de la continuité de service

La gestion de la continuité de service, qui doit minimiser l’impactdes incidents majeurs ou des situations de désastre informatiquefait normalement l’objet de SLAs gérés par le SLM. Le responsa-ble du SLM sera informé des plans de recouvrement d’activité etdu résultat des tests.

� Relation de la gestion des incidents avec lesautres processus ITIL

Centre de services

Le centre de services gère les incidents : il reçoit les rapportsd’incidents (manuels et automatiques), assigne des priorités auxincidents, en effectue l’investigation initiale et le suivi, déclencheles escalades, et produit enfin les rapports et les statistiques duprocessus de gestion des incidents.

Gestion des problèmes

Les problèmes causent des incidents, qu’ils constituent un risquede dégradation des services ou une détérioration réelle. Les solu-tions apportées aux problèmes empêcheront les incidents de sereproduire. La gestion des problèmes maintient de son côté labase de données des erreurs connues, qui permettra à la pre-mière ligne de support de résoudre certains incidents.

Page 50: Le décisionnel

50 IT-expert n°68 - juillet/août 2007

Gestion des configurations

La CMDB permet l’identification des composants défectueux etl’évaluation de l’impact des incidents. La CMDB peut égalementêtre utilisée pour identifier les populations d’utilisateurs qui pâti-raient d’un problème particulier et les groupes de support encharge de tel ou tel incident. Elle contient enfin des informationssur les contournements disponibles. La gestion des catégoriesd’incidents met de son côté à jour les statuts des composantsdéfectueux de la CMDB.

Gestion des changements

Une RFC (Request For Change – demande de modifications) estémise par la gestion des incidents lorsqu’un changement doit êtreintroduit pour mettre en œuvre un contournement ou la résolutiondu problème sous jacent. Le FSC (Forward Schedule of Change –planning prévisionnel des changements) est également mis à jourpour tenir compte des modifications demandées par la gestion desincidents. Cette dernière prendra en charge les incidents qui appa-raissent parfois à la suite de la mise en œuvre des changements.

Gestion de la disponibilité

L’une des tâches de la gestion des incidents est d’identifier dansl’intervalle qui existe entre la détection de l’incident et la remise àdisposition du service le plus gros contributeur (analyse, restau-ration, temps d’activation des procédures, etc.) afin de minimiserles temps d’indisponibilité.

Gestion des capacités

Certains incidents sont déclenchés par des problèmes de capa-cités. La gestion des capacités peut être amenée à développerdes contournements afin de résoudre ces incidents.

Gestion financière

Les indicateurs de quantité de travail et plus généralement lescoûts de résolutions des incidents sont des informations primor-diales pour l’établissement des budgets et des comptabilitésanalytiques. L’établissement des coûts réels de fourniture desservices informatiques en dépend, ainsi que le calcul des TCO(Total Cost of Ownership – coût total de possession calculé surune période donnée).

Gestion de la continuité de service

Une partie importante des informations utilisées par le processusde gestion de la continuité de services provient des enregistre-ments et de l’historique des incidents.

QQuueelllleess ppeerrssppeeccttiivveess ppoouurr IITTIILL ??

Ce panorama des interactions entre les modules d’ITIL est biensûr loin d’être exhaustif. Outre les généralités et les nécessairessimplifications propres à la rédaction d’un article consacré à une

bibliothèque de plus de trente volumes, les liens entre processusont uniquement été décrits sous l’angle des relations entre leSLM (gestion des niveaux de service) et de la gestion des inci-dents avec les autres processus. Les relations entre les autresprocessus n’ont pas été évoquées ici.

Il n’est pas non plus question de faire d’ITIL le Graal de la gestionde services informatiques (ITSM – IT Service Management) aveclaquelle elle ne se confond d’ailleurs pas, ni même de la considé-rer comme une méthodologie qui incorporerait tous les aspectsde la gouvernance IT.

Il reste qu’ITIL a été pensé comme une unité par l’OGC, qui la définicomme un ensemble de documents qui aident à la mise en œuvrede la gestion des services : « une liste étendue de meilleures prati-ques cohérentes entre elles pour la gestion des services » *.

ITIL V3 est en cours de publication à la date de la rédaction de cetarticle. Cette nouvelle version donne une importance accrue à lamise en place des services et à leur gestion dans le temps, etélargit le champ des pratiques consacrées à l’alignement « Busi-ness – IT ». Elle fournit en particulier un modèle d’intégration deprocessus qui renforce la cohérence de l’ensemble des modules. �

Ingénieur de l’Ecole Supérieure d’Electronique de l’Ouest et diplômé du MBA IEFSI-

EDHEC, Christian Bilien a 16 ans d’expérience en ingénierie des systèmes et des

bases de données, acquise chez les constructeurs et dans des grands comptes. Il

s’est spécialisé dans les performances, la continuité d’activité et la disponibilité. Il

délivre des prestations ITIL pour Hewlett Packard.

Mail : [email protected]

Site : www.enezis.com

Blog : http://christianbilien.wordpress.com

Christian BILIEN

Pour en savoir plus :

Forum de la Gestion de Services Informatiques :http://www.itsmf.fr/ITIL Service Management Forum : http://www.itsmf.org/ITIL open guide : http://www.itlibrary.org/ITIL/Office of Government Commerce :http://www.itil.co.uk

*"a consistent and comprehensive documentation of best practice for IT ServiceManagement": - extrait des livres bleus et rouges

Page 51: Le décisionnel

VITAMINEZvos compétences sur

les technologies Microsoft

ib - groupe Cegos Service Conseil Clients au 0 825 07 6000 ou [email protected]

Pour en savoir plus, contacteznotre Service Conseil Clients

Retrouvez toutesces formations surwww.ib-formation.fr

Fo r m a t i o n s a u x t e ch n o l o g i e s e t m é t i e r s d e l ' i n f o r m a t i q u e

� Windows Server 2008 - Évaluer les apports dela plate-forme

� Windows Server 2008 - Mise à jour descompétences d’infrastructure

� Windows Server 2008 - Mise à jour descompétences Active Directory

� Windows Server 2008 - Mise à jour descompétences de gestion de la plate-formeapplicative

Formations Windows Server 2008

Cet été, prenez une longueur d’avanceDu 28 au 30 août, ib-groupe Cegos vous propose uneoccasion unique de découvrir le nouveau systèmed’exploitation de Microsoft. Basé sur une alternance deconférences, d’ateliers et de phases d’échanges, cetévénement vous permettra d’appréhender les apportsréels et concrets de Windows Server 2008.

Retrouvez le programme détaillé de notre universitéd’été sur www.ib-formation.fr

Renseignements et inscriptions au 0 825 07 6000

� Windows Vista - Les nouveautés

� Windows Vista - Installation et configuration

� Windows Vista - Configuration des applicationset des outils pour la mobilité

� Windows Vista - Assurer le support grand public

� Windows Vista - Déploiement

� Windows Vista - Maintenance et dépannage

� Windows Vista - Pré-installation du système etpackaging des applications

Formations Windows VistaUniversité d’étéWindows Server 2008

Page 52: Le décisionnel

Top Related