general electric healthcare 437 rue des apothicaires 283 ...oulhaj.com/doc/memoire.pdf · 4.3-le...

121
EPSI Montpellier 437 rue des Apothicaires 34090 Montpellier. Comment l’informatique décisionnelle peut-elle améliorer la qualité de service client ? Directeurs de recherche Directrice de communication : Mme Nathalie Camus Directeur technique : M. Laurent Léger Tuteurs de stage : M. Laurent Ayach , M.Olivier Robert Promotion 2008-2009 Soutenance en Septembre 2009 Mémoire de fin d’études réalisé par Tarik Oulhaj General Electric Healthcare 283 Rue De La Minière 78530 Buc Yvelines.

Upload: buikhanh

Post on 18-Apr-2018

213 views

Category:

Documents


0 download

TRANSCRIPT

EPSI Montpellier 437 rue des Apothicaires 34090 Montpellier.

Comment l’informatique décisionnelle

peut-elle améliorer la qualité de service

client ?

Directeurs de recherche

Directrice de communication : Mme Nathalie Camus

Directeur technique : M. Laurent Léger

Tuteurs de stage : M. Laurent Ayach , M.Olivier Robert

Promotion 2008-2009

Soutenance en Septembre 2009

Mémoire de fin d’études réalisé par Tarik Oulhaj

General Electric Healthcare

283 Rue De La Minière

78530 Buc Yvelines.

Introduction : ........................................................................................................................................... 1

1-L’information une ressource stratégique ............................................................................................. 10

1.1-Les différentes catégories d ‘informations .................................................................................... 10

1.1.1-L’information formelle .......................................................................................................... 10

1.1.2-L’information informelle ........................................................................................................ 12

1.1.3- Le Croisement des deux sources d’informations ................................................................... 13

1.1.4-L’information existante concernant le projet réalise .............................................................. 14

1.2- Evolution de l’information et des techniques de visualisations. ................................................... 18

1.2.1 –Historique ............................................................................................................................ 18

1.2.2- Symon : une solution d’affichage et de visualisation efficace. ............................................... 25

1.3-L’Information au centre de la décision en entreprise. ................................................................... 30

1.3.1-La prise de décision. .............................................................................................................. 30

1.3.2-Cas pratique : La prise de décision par les managers des calls center a la General Electric. .... 32

1.3.3-Evolution croissante du besoin d’aide a la décision. ............................................................... 33

2- La business intelligence pour un meilleur management de la qualité de service. ................................ 37

2.1- BI et intelligence économique : un abus de langage ? .................................................................. 37

2.1.1- Définitions ............................................................................................................................ 37

2.1.2- Les impacts de l’informatique décisionnelle sur la qualité de service .................................... 39

2.1.3- ITIL : Un référentiel et un outil supplémentaire pour l'optimisation de la qualité de service .. 43

2.2- Un service d’intégration : le Datawarehouse ............................................................................... 45

2.2.1-Concepts généraux ................................................................................................................ 45

2.3-Une Analyse multidimensionnelle : Le datamining ....................................................................... 46

2.3.1-OLAP et la fouille de données ................................................................................................ 46

2.3.2-Analyse et représentation des données du projet .................................................................. 48

3-Caractéristiques du mécanisme de centralisation des données par ETL. .............................................. 49

3.1- Le marche et les catégories d'outils ETL ....................................................................................... 49

3.1.1- Approche et définition des ETL ............................................................................................. 49

3.1.2 – Histoire et marche actuel des ETL ....................................................................................... 53

3.1.3 - ETL vs EAI: L'EAI n'est pas l'ETL, et vice-versa. ...................................................................... 55

3.2- Les ETL : un besoin de normalisation : Les causes du phénomène en 3 étapes ............................. 56

3.3- Mise en place pour le projet du processus ETL ............................................................................ 57

3.4-Impacts de la solution déployée : « le visual management » ......................................................... 70

4-Une méthode pour une meilleure qualité de service client : Lean Six Sigma ........................................ 71

4.1- Lean Six Sigma : un système qui aide à "prévoir" pour ne pas être obligé de "revoir" .................. 71

4.2- Une méthodologie par étapes le « DMAIC » :define mesure analyse improove control ............... 73

4.2.1-Define ................................................................................................................................... 74

4.2.2-Mesure .................................................................................................................................. 76

4.2.3-Analyse ................................................................................................................................. 78

4.2.4.- Improve/Verify .................................................................................................................... 79

4.3-Le "DFSS": Design for six sigma ..................................................................................................... 79

4.4- Impact de la méthode sur la qualité de service client .................................................................. 80

4.4.1-Bénéfices pour les entreprises ayant adopte cette méthode ................................................. 80

4.4.2-Impact de la méthode sur le projet réalisé ............................................................................. 81

Conclusion ............................................................................................................................................. 84

Glossaire ................................................................................................................................................ 92

Table de figures ..................................................................................................................................... 97

Table des matières ................................................................................................................................. 98

Annexes ................................................................................................................................................. 99

Bibliographie........................................................................................................................................ 113

Je tiens à remercier tout d’abord M. Surya Kunduri qui m’a accepté à General

Electric Medical Systems pendant six mois pour effectuer ce stage de fin

d’études. Cette mission m’a permis d’appliquer et de consolider mes

compétences techniques et surtout de couvrir trois domaines ceux du

développement du réseau et enfin le dernier celui des systèmes de

téléphonie des calls centers qui m’était totalement inconnu.

Je remercie également mes directeurs de projet M. Laurent Ayach et M.

Olivier Robert qui m’ont été d’un grand soutien, tant d’un point de vue

technique que relationnel. Ils ont su me motiver et m’aider durant toute la

durée du stage en étant disponibles afin de répondre à mes questions et

contribuer au bon déroulement de ma mission.

Les différents membres de l’équipe du support applicatif FASTeam m’ont tout

de suite intégré agréablement, ce qui a participé à un bon équilibre

relationnel. Je les remercie donc tous pour leur sens du relationnel et de la

serviabilité.

Je remercie aussi tout le corps professoral, l’équipe administrative ainsi que

la direction qui m’ont permis d’acquérir trois valeurs essentielles : le savoir,

savoir faire et savoir être nécessaire à la réussite dans une vie.

Enfin je tiens particulièrement à remercier très fortement mes parents, qui

durant ces cinq merveilleuses années faites comme dans la vie de hauts et

de bas, m’ont soutenu et encourage pour faire de ma carrière professionnelle

une carrière réussie en assurant mon avenir.

1

Introduction

L’information : une ressource abondante et partageable

L’information de plus en plus abondante a toujours été considérée comme

source de pouvoir par l’ensemble des dirigeants opérationnels dans un

unique but d’offrir une qualité de service optimale et en adéquation avec le

type de demande.

Les informations sont des éléments de connaissances susceptibles d'êtres

représentées à l'aide de conventions pour être conservées, traitées ou

communiquées. Il s’agit d‘un ensemble de données assujettis à revêtir un

sens particulier pour un utilisateur donné. Bob Metlcaflfe, inventeur de

l’internet formule une loi qui décrit la valeur de l’information comme étant

une fonction du nombre d’utilisateurs et du nombre de départements de

l’entreprise. « La valeur d’un réseau varie en fonction du carré du nombre

d’utilisateurs connectes »

Valeur de l’information = (nombre d’utilisateurs) ^2 * (nombre

de départements de l’entreprise)

2

De cette formule il est aisé de déduire que l’accroissement de la valeur de

l’information est proportionnel à son usage.

« Les sociétés qui utilisent leurs données en tant que ressource stratégique

et investissent dans leur qualité, en tirent déjà un avantage en terme de

réputation et de profitabilité »

Enquête de Price waterhousecoopers réalisée en 2001

L’année 2002 a généré 5 milliard de giga octets d’informations soit un million

de bibliothèques François Mitterrand.

Dans le monde des affaires aucune information n’est plus importante qu’une

information quantitative. Les nombres mesurent la performance, repèrent les

opportunités et prévoient le futur.

L’information seule ne suffit pas, il s’agit également de s’assurer de sa

pertinence ainsi que de sa qualité. Dans une société où l’information et les

exigences en matière de qualité de service sont omniprésents, il serait

intéressant de mettre en évidence les apports d’un domaine particulier de

l’informatique à la qualité de service client : celui du décisionnel. En d’autres

termes comment l’informatique décisionnelle, plus communément connue

sous le nom de business intelligence, peut-elle impacter la qualité de service

client.

Un concept subjectif : La qualité de service

S’il y a bien aujourd’hui une expression que la plupart des clients ont sur les

lèvres c’est bien celle de qualité de service.

On a souvent entendu dire de la part d’un client parlant d’une entreprise « ils

ont un bon service » ou bien au contraire « le service est mauvais ».Mais

3

qu’en est-il exactement de ce paramètre de qualité de service que la plupart

des clients utilisent couramment.

Ce paramètre ce décompose en deux éléments : la notion de qualité et celle

de service.

Les services, aujourd’hui plus connus sous le nom de management de

services marketing, sont un ensemble d’actions qui sont réalisées pour

satisfaire au mieux les Hommes : réparation de véhicules, aller chez le

médecin, assistance téléphonique, autant de tâches de la vie quotidienne

qualifiées de services. Toutefois au delà de cette conception humaine du

service, il serait intéressant de différencier ce que le service produit : le

résultat technique : alimentation, tenues vestimentaires, de la manière dont

le service est fourni : le résultat fonctionnel. En ce sens le service et le bien

ou produit demande sont deux éléments distinct. Il existe spécifiquement

deux dimensions liées à un service : « le comment et le quoi du service ».

Prenons l’exemple d’une personne au restaurant souhaitant commander :

Le service se décomposera en deux processus le « quoi ou résultat

technique » : ce que commandera la personne et le « comment ou résultat

fonctionnel » qui sera la manière de servir le repas, l’attention accordée a la

clientèle lors du repas.

Dans un contexte de mondialisation et un environnement de plus en plus

concurrentiel, il faut savoir contrôler les exigences changeantes et

croissantes du client. La qualité de service devient donc un impératif

économique.

La qualité est un terme ambigu : d’un cote tout le monde sait ce qu’est la

qualité et d’un autre il est difficile de formuler une définition uniforme.

Cependant on pourrait « définir » techniquement la qualité comme étant le

4

nombre de déviations par rapport aux standards du marché ou encore par

rapport aux nombre de défauts. Il s’agit notamment de la politique de zéro

défauts mise en place dans les entreprises au Japon (zéro papier, zéro

défaut, zéro grève, zéro stock, zéro panne).

La qualité d’un service ou produit est déterminée par le client et donc cette

notion même reste subjective et reflète les perceptions individuelles du

client.

Cette notion englobante de qualité de service étant définie voyons à présent

le lien existant avec l’informatique décisionnelle

Système d’information décisionnel

On peut définir la décision comme étant un acte par lequel un ou des

décideurs opèrent un choix entre plusieurs options permettant d’apporter

une solution satisfaisante à un problème donné.

« L’informatique décisionnelle ou Business Intelligence (BI) fédère

les moyens, méthodes et techniques permettant de fournir à un

décideur l’information qu’il recherche, au moment précis où il en a

besoin et sous la forme la plus appropriée. Il s’agit de retrouver ainsi

dans la masse d’information des entreprises, la seule information

pertinente et utile. De nos jours, l’informatique décisionnelle est

toujours plus décisive »

Hervé de MILLEVILLE

Extrait d’interview d'Hervé de Milleville, directeur du département

Informatique et de l'option Décisionnelle des systèmes d'informations à

l'EISTI.

5

La business intelligence va permettre d’exploiter les données de l’entreprise

en vue de faciliter la prise de décision par les décideurs. En ce sens il sera

plus facile pour les dirigeants d’entreprise d’anticiper les actions à mettre en

œuvre pour un pilotage éclairé de l’entreprise. Pour ce faire la business

intelligence va, tout en sécurisant l’accès á l’information, faciliter la prise de

décision grâce à une meilleure qualité et cohérence des données.

Analyse décisionnelle pour une meilleure qualité de service

Le processus de datamining puise ses données dans différentes sources

comme les cubes OLAP.

Le Principal but de L’OLAP (On-Line Analytical Processing) dans l’analyse

décisionnelle est de permettre une analyse multidimensionnelle sur les bases

de données volumineuses du datawarehouse préalablement mis en place.

« Sous l'avalanche ininterrompue d'informations insignifiantes, plus

personne ne sait où puiser les informations intéressantes »

Bernard Werber, Extrait de La révolution des fourmis

Figure 1 : Cube OLAP

6

Il s’agit globalement de mettre en corrélation les données récoltées afin de

dégager des tendances particulières et améliorer directement la qualité de

service client.

Lorsque l’on réalise ce processus de datamining on cherche à définir le

problème à résoudre:

• Un commercial désire prévoir si un client particulier achètera

ses produits.

• Le directeur marketing veut optimiser les coûts d’une

campagne de communication

• Un webmaster qui souhaite connaître la manière avec laquelle

les utilisateurs de déplacent sur le site.

C’est en partant de ce modèle d’analyse et par la suite par la mise en place

d’outils de reporting que les décideurs observent comment vont les choses,

afin de confronter leur stratégie à la réalité. Ils déduisent alors des constats

et prennent en conséquence les bonnes décisions au moyen de ces rapports

mais aussi grâce a l’aide qu’apporte les techniques de visualisations au

domaine du décisionnel.

Les techniques de visualisations : une aide a la prise de décision.

Trois grandes catégories de décisions existent :

• Les décisions stratégiques (à long terme 5 ans et plus)

• Les décisions tactiques ou managériales (à moyen terme 1 a 5 ans)

• Les décisions opérationnelles (à court terme quelques minutes a quelques mois)

Symon est l’entreprise leader mondial dans le domaine des solutions

7

d ‘affichages sur panneaux à LED pour entreprises. Ce produit permet la

mise en place du processus d’extraction d’informations (ETL). Dans le cadre

de ma mission à GE Healthcare, il fournit plus précisément aux managers du

call center de Buc une visibilité sur l’ensemble des données des appels clients

(temps d’attente, nombre d’appels en cours, taux d’abandon… ) ce qui leur

permet d’analyser , de prendre les bonnes décisions et d’agir rapidement

pour une meilleure satisfaction client.

Figure 2 : Panneau Symon

C’est grâce à un ensemble d’outils et de techniques qui seront exposes plus

loin dans ce mémoire que l’informatique décisionnelle impactera fortement la

qualité de service pour une meilleure satisfaction client. Il sera donc

pertinent pour l’ensemble des raisons mentionnés dans cette introduction de

mettre en évidence les apports de l’informatique décisionnelle à la qualité de

service client.

La problématique dont j’ai la charge est de réaliser un Symon allégé pour les

autres calls center de l’entreprise (Italie, Angleterre, Allemagne…) et de

procéder à la centralisation de l’ensemble des données des CMS (système de

gestion d’appels) et des bases du mainframe MUST (qui contient en

particulier les données relatives aux ouvertures d’affaires après vente). Le

processus de business intelligence décrit tout au long de cette introduction

devra donc être mis en application. Enfin une application en java sera

réalisée et déployée sur tous les sites clients, qui affichera toutes les

données CMS (call management system) et MUST pour chaque pays.

8

L’objectif ainsi que le contenu de ce mémoire vise à expliquer et montrer les

apports fonctionnels et techniques de l’informatique décisionnelle, plus

communément connue sous le nom de business intelligence, aux décideurs

pour une meilleure visibilité des informations et une qualité de service

accrue. En ce sens l’apport de cette nouvelle technologie permettra aux

dirigeants de réagir rapidement et efficacement dans le processus

stratégique de prise de décision, en exploitant au maximum et au mieux

l’ensemble des informations de l’entreprise. Je vais articuler ma recherche

autour de quatre grandes parties :

Pour ce faire je commencerai par introduire la notion d’information en

présentant les différentes formes qu’elle peut revêtir en entreprise. Cette

première partie traitera également de la manière avec laquelle les

entreprises s’adaptent à l’évolution croissante des données ainsi que des

moyens qu’elles mettent en œuvre pour pouvoir assurer leur pérennité á

moyen et long terme.

Ce chapitre aura également comme objectif de présenter quelques

techniques de visualisation d’informations et de souligner le besoin croissant

d’aide à la décision.

Pour illustrer ce premier thème l’exemple de la visualisation d’informations

du « call center » du siège européen de la General Electric sera mis en

valeur à travers le leader mondial des solutions d’affichages Symon. Les

autres centres d’appels n’étant pas dotés d’une telle solution, l’exemple de

l’application de visualisation d’informations en temps réel réalisée en java

sera également exposé.

Ces informations avec les différentes techniques de visualisations étant le

cœur même du processus stratégique de prise de décision, il sera intéressant

9

dans une deuxième partie de s’interroger sur un domaine informatique

particulier qui impacte fortement la qualité de service client : celui du

décisionnel.

Cette partie permettra en particulier de mieux comprendre les besoins d’aide

à la décision et les outils qui répondent à ce besoin. Elle aura également pour

objet de montrer clairement le lien existant entre le domaine de la business

intelligence et ses effets en matière qualité de service, qui dans le cas de ma

mission représente la qualité de service client des centres d’appels.

Le chapitre qui suit sera consacre à la description du processus ETL entrant

dans le domaine de l’informatique décisionnelle et de la centralisation des

données. Une analyse de ce processus sera réalisée permettant de mieux

comprendre les raisons pour lesquelles les entreprises y ont recours, ainsi

que les bénéfices et conséquences liées à ce mécanisme. Cette partie sera

notamment illustrée par l’application du processus ETL à travers le produit

que propose Microsoft : SQL serveur intégration services qui a été utilise

pour la centralisation des données de GE Healthcare.

Enfin la dernière partie sera dédiée à un mode de management qui repose

sur une organisation très encadrée dédiée à la conduite de projet : la

méthode SIX SIGMA qui a été appliquée tout au long de ma mission. Ce

dernier chapitre mettra en avant les bénéfices de cette méthode

d’amélioration de la qualité et de la profitabilité reposant sur la maîtrise

statistique des procédés.

10

1-L’information une ressource stratégique

1.1-les différentes catégories d’informations

1.1.1-L’information formelle

L’information formelle représente 40% du volume total d’informations et

reflète le passé et l‘ancien. Afin de pouvoir l’obtenir on se pose des

questions. Ce terme d’‘information peut être décomposé selon un schéma en

trois axes :

Une donnée :

Qui ne subit aucune interprétation et est recueillie par des moyens

techniques. Dans le domaine de l’informatique par exemple, on la considère

comme une représentation conventionnelle permettant d’en faire le

traitement.

L’information elle même :

Il s’agit de données qui ont acquis de la signification en étant insérées dans

un contexte particulier.

La connaissance :

C’est une information à laquelle s’ajoutent la compréhension et les capacités

de l’individu qui se l’approprie.

L‘intelligence économique ou business intelligence qui sera expliquée et

décrite plus loin dans ce mémoire, permet de dissocier l’information formelle

de l’information informelle.

L’information formelle est définie comme étant un ensemble de données

11

existantes sur un support papier, filmographique, informatique. Une telle

information est publiée de façon ouverte a 90% et afin de pouvoir identifier

cette information pertinente dans un flux sans cesse grandissant il est

nécessaire de se doter d’outils informatiques adaptés.

Les supports et formats d’informations sont nombreux et différents :

L’écrit sous forme papier et électronique est le principal support de ce type

d’information.

Avec le développement des nouvelles technologies de l’information, la masse

de données disponibles est devenue énorme. L’information formelle peut être

présente dans de nombreux supports matériels tels que les livres, les

banques de données, les CD-ROM, la télévision, la radio, les brevets, les

informations légales mais aussi les études publiées et réalisées par des

prestataires publics ou privés.

Ces sources d’informations sont généralement accessibles et disponibles et

leur coût d’acquisition est relativement faible excepte pour les recherches de

brevets et quelques banques de données. Les traitements informatiques de

l'information formelle apporte une aide à la veille technologique mais aussi

rend la planification stratégique des petites et moyennes entreprises et des

grands groupes, plus facile et efficace.

La conjoncture économique actuelle impose pour les entreprises de

systématiquement réaliser une veille de l’information formelle, ceci dit une

veille technologique efficace combinée à une bonne stratégie d’innovation

peut donner un avantage compétitif aux petites et moyennes entreprises.

Dans un environnement de plus en plus compétitif l’innovation et la richesse

de l’information formelle sont les facteurs indispensables pour assurer la

12

pérennité et le succès des entreprises. L’information formelle comme étant

un capital intangible et valorisable, reste donc une information que l’on

pourrait qualifier de « physique » ou concrète contrairement à l’information

informelle qui révèle ce coté abstrait obtenu par exemple en participant aux

discussions entre experts lors de congrès , sessions de formation , ou en

réalisant des études de marché.

1.1.2-L’information informelle

« l’individu doit se déplacer, passer du temps, pouvoir entendre,

sentir, toucher »

B.Martinet

Les informations informelles sont généralement collectées sur le terrain par

différents acteurs qui contribuent à la veille technologique. Ce sont toutes les

autres informations autres que formelles. Il s’agira entre autres d’interroger

les acteurs du marche (fournisseurs, sous-traitants , concurrents ) afin de

collecter ce type d’information.

Elles appartiennent au présent et sont liées au futur. Les informations

informelles sont qualitatives, appartiennent essentiellement au domaine de

l’oral et nécessitent un travail important d'analyse, de recoupement avec

d'autres sources, avant d'être retenues comme utiles et pertinentes pour

l'entreprise. Elles peuvent êtres alors diffusées aux responsables et

archivées.

Pour obtenir ces informations, il s’agira plus particulièrement d’axer le travail

sur les personnes tant au niveau interne qu’externe. Une récente étude du

Massachusetts Institute of Technology sur les entreprises américaines,

précise que 80 % de l'information nécessaire existe à l'intérieur de

13

l'entreprise. Tous les spécialistes s'accordent que 90 à 95 % des informations

souhaitées sont disponibles et déjà publiées et sont donc ouvertes.

Il est judicieux dans la recherche de ces informations de savoir précisément

ce que font ces personnes et ce qu’elles comptent faire ainsi que les liens les

unissant vers l’extérieur. La business intelligence repose donc sur une la

complémentarité des informations formelles et informelles.

1.1.3- Le Croisement des deux sources d’informations

Daniel Rouach professeur universitaire et auteur de livres économiques,

notamment sur la veille technologique et Professeur à l'ESCP-EAP European

School of Management, précise dans son ouvrage « La veille technologique

et l’intelligence économique », que pour une collecte de données efficace il

suffit de croiser les sources formelles aux sources informelles. Voici le

modèle de l’Intelligence économique que propose par Daniel Rouach afin

d’optimiser la collecte d’informations :

Figure 1.1: L’information et son environnement

On voit précisément en figure 1.1 que le modèle mis en exergue par Daniel

Rouach va pouvoir couvrir tout les types d‘informations en effectuant la

combinaison information formelle et informelle. Les capteurs sont des

personnes physiques qui recherchent cette information (commerciaux,

acheteurs, DSI…).

14

Figure 1.2: La collecte d’informations

Les informations du projet dont j’ai la charge s’inscrivent totalement dans la

catégorie d’informations formelles.

1.1.4-L’information existante concernant le projet réalise

Plusieurs sources données physiques existent. Le siège européen de GE

Healthcare à Buc possède un « call center » qui reçoit deux types d’appels :

• Les appels clients (hôpitaux, cabinets médicaux) ont majoritairement

pour objet des dysfonctionnements matériels ou logiciels liés aux

équipements d’imageries médicales (IRM, équipements

cardiovasculaires, appareils de mammographie…).

• Les appels FE « Field Engineer » (ingénieurs terrains) qui en cas de

non résolution d’un problème donné à distance par le support

15

technique (HUB), se déplacent sur le site pour corriger les éventuelles

anomalies. A noter que le HUB peut se connecter directement sur les

équipements d’imagerie médicale afin de résoudre un

dysfonctionnement donné. Les appels des FE sont redirigés vers le

centre OLC (online-center) : l’équivalent d’un centre d’appel client

dédié aux FE. Ce centre reçoit les appels FE et les redirige vers des

collaborateurs compétents dans un domaine médical précis (ultrasons,

médecine nucléaire…) qui viennent en aide aux FE présents sur le site

clinique.

Clients Hôpitaux/Cliniques

Cabinets médicaux Support à distance(HUB)

Figure 1.3: Processus de gestion d’appels a GE.

Centre d’appel Ingénieur terrain (FE)

16

L’ensemble de ces informations liées soit aux appels clients soit aux appels

FE sont des données temps réels rafraichies toutes les 3 secondes.

Afin de gérer et traiter ces différents appels le système d’information de

l’entreprise repose sur trois sources de données formelles essentielles qui

permettent en partie de gérer et d’améliorer la qualité de service client :

• Un ACD « Automatic Call Dispatch » : un « PABX » ou commutateur

téléphonique, chargé de réceptionner et d’aiguiller les appels clients ou

FE. Une fois que les appels arrivent sur ce système, un serveur CMS

est lie à cet ACD et aura pour principal objectif de les traiter.

• Le serveur CMS « Call Management System » a pour objectif de

récupérer ces appels et les enregistrer. Il est lié a une base de donnée

informix qui permet de stocker l’ensemble des informations liées aux

appels des clients, des FE , mais aussi la disponibilité des personnes du

centre d’appels ou agents (occupé, absent, en pause…).Parmi Les

informations entrant dans ce processus on trouve les suivantes :

Le nombre d’appels entrants, le taux d’abandon, le temps d’attente

maximal des appels et en particulier le SL « service level » qui est une

information capitale puisqu’il s’agit d’un ratio en pourcentage (nombre

d’appels pris sur le nombre total d’appels entrants) qui mesure la

qualité de service.

Un SL qui atteint 100% indiquera par conséquent une qualité de

service client optimale. Une partie de ces données est gérée et affichée

sur un panneau à LED, par l’ETL Symon qui sera décrit plus loin dans

ce mémoire.

17

Ceci dit le serveur CMS gère les appels mais n’est pas en mesure de

fournir le détail des dysfonctionnements ou « JOBS » qui sont des

tickets d’incidents gérés par le Mainframe MUST.

• MUST est chargé de stocker tous les JOBS qui correspondent à toutes

les ouvertures d’affaires après vente. En ce sens lors d’un appel client

les agents du centre d’appel saisissent l’affaire et l’information est ainsi

directement enregistrée sur MUST.

Figure 1.4: Le traitement et l’affichage des appels.

18

L’ensemble de ces techniques modernes de traitement et de visualisation

d’informations nous amènent à nous interroger sur la manière d’afficher des

informations formelles ainsi que les progrès qui ont été réalisés en la

matière.

1.2- Evolution de l’information et des techniques de visualisations.

1.2.1 –Historique

« L'information peut tout nous dire. Elle a toutes les réponses. Mais

ce sont des réponses à des questions que nous n'avons pas posées,

et qui ne se posent sans doute même pas. »

Jean Baudrillard sociologue et philosophe français

Dans un monde où l’information est de plus en plus abondante il ne s’agit

plus d’être informé et de récupérer l’information brute mais plutôt

d’informer l’information par les techniques de visualisation modernes.

Bernard Liautaud dans son ouvrage « e-business intelligence éditions

19

Maxima» propose une modélisation en trois points concernant l’accès a

l’information :

• La dictature de l’information

• L’anarchie de l’information (sources hétérogènes)

• La démocratisation de l’information : BI, CRM

« Les gagnants seront ceux qui restructurent la manière dont

l'information circule dans leur entreprise. »

Bill Gates

Dans les années quatre-vingt le stockage des données au cours de la période

de « dictature de l’information» se faisait sur des serveurs centraux très

sécurisés.

La transmission de données était difficile dans la mesure où la redondance

était très fortement présente et le stockage volumineux rendait parfois

l’exploitation des données quasi impossible. Pour une exploitation efficace

des données, des équipes d’experts étaient nommées qui réalisaient des

analyses afin d’extraire les informations pertinentes et les transmettre aux

personnes émettrices du besoin. Au cours de ces années la notion

d’infocentres était en vogue , qui se munissaient de tableaux bords

centralisés appelés EIS (Executive Information System).

20

Figure 1.5 : EIS pour le volume de ventes

Un exemple d’EIS permettant de connaître les tendances actuelles des

ventes, les prévisions ainsi que l’évolution du budget et de réagir en

conséquence face à ces données.

Ce système représente en fait une sorte de « tableau de bord » informatisé

pour les cadres supérieurs qui servait à la planification stratégique et à partir

duquel on pouvait produire par exemple des rapports, des graphiques faciles

à consulter rapidement.

Seuls quelques personnes étaient assujettis à l’accès aux données au cours

de cette période. En effet les utilisateurs devaient être en mesure d’avoir le

savoir et savoir faire nécessaire afin de manipuler les systèmes

d’informations automatisés (langage de commande d’interrogation, langage

documentaire, logique booléenne…).Seuls les professionnels de l’information

et documentalistes pouvaient donc se former. A cette époque ce suivi sous

forme de tableaux de bords ne suffit plus. Le pilotage de la fonction

21

commerciale nécessite de mieux maîtriser la force de vente en contrôlant

mieux l’activité. De nouvelles techniques vont alors répondre à cette

problématique de dictature de l’information.

Dans les années 1990 à 1995, les entreprises développent les accès à

distance, la notion de groupes de travail avec des espaces partagés, sous la

forme de répertoires apparaît peu a peu. Les données sont centralisées pour

êtres accessibles par plusieurs personnes simultanément. Les plateformes

logicielles passent du mode autonome à celui du client serveur. L’apparition

d’interfaces permettant la gestion individuelle des comptes, des groupes, de

la communication (messagerie, échanges de groupes), se fait

progressivement. Lors de cette période le client a fini d’appartenir au

commercial, il devient progressivement un actif de l’entreprise.

Figure 1.6: le client un actif de l’entreprise (centralisation sur

serveur des accès).

22

Malgré cette évolution les sources de données restent toutefois hétérogènes

et leur incohérence se fait de plus en plus criante du fait de la diversité des

applications utilisées. Par ailleurs la diversité même de ces applications

rendait difficile la centralisation des données.

Dans un contexte d’inflation de données d’entreprises, plusieurs technologies

modernes vont pouvoir répondre concrètement à l’augmentation des besoins

d’analyse et de prise de décision.

Les techniques modernes actuelles vont permettre de pallier ces problèmes

avec l’émergence des systèmes décisionnels et de leur applications à travers

les CRM et les ERP.

En faisant le parallèle avec la période des années 80 , la business intelligence

va permettre aux utilisateurs de se doter d’outils d’analyse conviviaux et

accessibles en tous lieux même sur internet sans forcement avoir recours a

un spécialiste ou une équipe d’expert comme dans les années 80. En plus du

fait d’assurer la qualité et la pertinence de l’information l’informatique

décisionnelle va aller bien au delà et permettre de découvrir les informations

enfouies dans la masse de données, que l’être humain ne pourrait extraire

seul. Ce processus de business intelligence sera plus amplement détaillé

dans la suite de ce mémoire. Pour améliorer la relation client de plus en plus

d’entreprises ont recours aux CRM (Customer Relationship Management) leur

permettant ainsi d’être plus à l’écoute du client afin de répondre à ses

besoins et le fidéliser.

Le CRM (gestion de la relation client) a pour principal objectif de proposer

des solutions technologiques en vue d’améliorer la relation entre l’entreprise

et le client. Il place le client au centre de la stratégie de l’entreprise et à ce

titre il représente une opportunité importante pour le marketing.

23

Les CRM peuvent prendre plusieurs formes avec entre autres :

• CRM stratégique qui permet de forger des liens forts entre le client et

l’entreprise avec notamment la gestion des commandes, prises de

rendez vous, suivi en temps réel de l’état des stocks…

• Le support utilisateur : qui a pour principal enjeu d’assister le client

par la mise en place de centre d’appels par exemple (gestion des fiches

clients, des demandes d'assistance, des contrats, du suivi qualité…)

• La fidélisation du client : ce sont tous les aspects du marketing qui

vont permettre d’anticiper les besoins et habitudes du client afin de

pouvoir au mieux le satisfaire.

« Le CRM est la capacité à bâtir une relation profitable sur le long

terme avec les meilleurs clients en capitalisant sur l’ensemble des

points de contact par une allocation optimale des ressources»

(Source : Gestion de la relation client - René Lefébure, Gilles Venturi -

Eyrolles - 2004)

En d’autres termes il s’agit pour les entreprises d’augmenter leur chiffre

d’affaire en connaissant parfaitement bien les moyens de communication

préférés de leurs clients.

24

Figure 1.7: La transmission de données sources vers des données de

destination

En parlant de moyens de communication de nombreux centres d’appels

clients ont opte pour des solutions de visualisation d’informations en temps

reel qui leur permettent d’avoir les bonnes informations au bon moment et

ce le plus rapidement possible.

25

1.2.2- Symon : une solution d’affichage et de visualisation efficace.

1.2.2.1-Présentation, apports techniques et fonctionnels de la solution

Symon communications, avec plus de sept mille clients dans le monde, est le

fournisseur leader mondial dans le domaine de la signalisation numérique et

de solutions de communication visuelle. Une question se pose alors : Que

peut englober le terme signalisation numérique ?

La signalisation numérique peut être définie comme tout type de contenu

numérique (texte, graphiques, vidéo, audio) qui peut être géré à distance sur

un réseau IP grâce à des affichages électroniques. Cette méthode peut être

utilisée à des fins d'information ou d'incitation à des changements de

comportement de la part des décideurs. Ce domaine de signalétique

numérique centralisé permet entre autres la planification d’informations

(afficher la bonne information au bon moment), la gestion et l'édition de

médias numériques sur des actifs tels que des écrans LCD, plasma, LED,

panneaux d'affichage extérieur, et même sur une station en local.

26

L’entreprise propose à ses clients des solutions d’affichages et de

visualisation d’informations temps réel. En informatique décisionnelle on

pourrait aisément qualifier cette solution d’ETL puisqu’elle fait partie

intégrante du processus d’extraction de transformation et d’affichage des

données en temps réel provenant de différentes sources d’informations.

Figure 1.8: Traitement et affichage des données par l’ETL Symon.

Ce produit permet notamment aux entreprises d'accroître leur

communication interne et externe par une collecte pertinente d’informations

et de diffuser tout type de contenu multimédia numérique.

En ce sens cette gamme complète de produits de signalisation numérique et

de services permet a GE Healthcare Buc d'offrir à ses clients et également à

ses employés(operateurs des calls center) la bonne information, au bon

moment, sur le bon support, à un coût effectif réduit. Le traitement de

l’information grâce à cette solution sera ainsi optimisé et plus efficace.

Symon est un outil de communication efficace qui permet d’optimiser et

d’améliorer la communication entre les agents du call center buc et ses

clients. Les avantages de la signalisation numérique se sont révélés de plus

en évidents dans les différentes industries dans le monde entier.

Coût efficacité, gain de temps, multi-utilisation , en temps réel des annonces

et des promotions , sont tous des exemples de la manière dont la

27

signalisation numérique peut améliorer le marketing des canaux de

communication et la qualité de service client .Les impacts de la signalisation

numérique sont nombreux avec entre autre sa capacité à fournir un haut

retour sur investissement par le biais de la réduction des coûts.

Cette technologie permet aux entreprises de se doter d’un avantage

concurrentiel non négligeable en améliorant la productivité et la qualité du

travail mais aussi en diffusant la notoriété de l’entreprise. L’utilisation de

Symon représente un retour sur investissement conséquent et capital pour

l’entreprise, qui passe par la réduction des couts d’impression et de

messagerie. Les applications de cette solution sont nombreuses, passant par

son utilisation dans le domaine boursier, avec l’affichage des valeurs des

actions/titres et de l’évolution des marches en temps réel, allant jusqu’au

secteur des centres d’appels clients qui ont adopte définitivement cette

solution très utilisée et répandue dans ce milieu.

1.2.2.2-Impacts de Symon sur le traitement des appels clients.

La solution Symon existe uniquement sur le site de la General Electric à Buc.

Les autres pays (Italie, Angleterre, Allemagne, Ireland...) où l’entreprise est

implantée sont demandeurs de ce type de technologie d’où l’intérêt de la

mission proposée, à savoir le développement de cet outil par une solution

similaire à moindre cout qui sera présentée plus loin dans ce mémoire.

Le site de Buc a choisi de déployer cette solution pour le service « call

center » .Ce dernier recevant les appels clients qui ont pour objet des

dysfonctionnements soit matériels ou logiciels d’équipements d’imageries

médicales (Figure 1.3).

28

Le déploiement d’une telle solution impacte directement la qualité de service

client. La question qui se pose alors est comment cet outil décisionnel peut il

optimiser cette qualité de service

La notion de qualité de service client sera plus amplement décrite dans la

partie dédiée à Lean six sigma, mais on pourrait préalablement commencer

par la définir comme étant

« L’art d’accompagner le client à partir de l’identification de ses

besoins jusqu’à sa fidélisation. »

Pettigrew, sociologue britannique

Pettigrew n’emploie pas ce mot art par simple hasard mais bien parce qu’il

possède un sens ainsi qu’une connotation précise :

A : Représente toutes les activités prévues à effectuer par l’entreprise pour

répondre au besoin du client.

R : reflète le renouvellement, il s’agit en particulier pour l’entreprise de se

diversifier et se démarquer des autres entreprises on peut parler d’avantage

concurrentiel. On parle de changement.

T : Correspond à la transformation de la structure en terme de

comportement et du rôle joué par l’ensemble des collaborateurs. Il s’agit en

d’autres terme de ce que deviendra l’entreprise.

Symon impact directement ce triptyque : En effet la solution permet la

29

visualisation en temps réels des informations qui sont essentielles dans

l’amélioration de la qualité de service avec entre autres :

• Le nombre d’appels clients entrants,

• la durée maximale des appels en attente

• Le taux d’abandon,

• Le Service Level ou qualité de service exprimé en %(ratio nombre

d’appels pris sur nombre d’appels total),

• Le nombre d’appels en attente

A noter qu’il existe d’autres critères qu’il est facilement possible d’intégrer à

ce panneau. Ceci dit l’entreprise a opté pour les critères cites précédemment.

Ces critères ont des seuils prédéfinis et lorsque un seuil est dépassé, on

parle alors de seuil critique et Symon met en valeur ce dépassement par un

jeu de couleur (rouge lorsqu’un seuil est dépassé)

Prenons à titre d’exemple la durée maximale des appels en attente :

Si cette information dépasse un certain seuil préalablement défini Symon est

en mesure non seulement de détecter ce dépassement mais aussi de le

mettre en évidence sur le panneau à LED.

Ce type de comportement permet donc d’agir directement sur l’ensemble des

critères mesurant la qualité de service en l’occurrence dans notre cas

minimiser la durée maximale d’attente, le temps de réponse et donc

améliorer la qualité de service client.

30

En fonction de l’état de l’ensemble de ces critères les managers des call

center sont amener a prendre un ensemble de décisions qui sont facilitées

par cet outil décisionnel. De façon plus générale l’information a donc pour

principal rôle de faciliter la prise de décision.

Ajouté à cela si elle est correctement mise en valeur les décisions se feront

plus rapidement et plus efficacement, impactant ainsi directement la qualité

de service client tout en diminuant les incertitudes.

1.3-L’Information au centre de la décision en entreprise.

1.3.1-La prise de décision.

« On doit prendre les petites décisions avec sa tête et les grandes

avec son coeur. »

H. Jackson Brown

La prise de décision n’est pas comme on pourrait l’envisager un concept

moderne mais une pratique qui d'ores et déjà était répandue au IV siècle où

le philosophe grec Aristote l’abordait déjà comme étant un choix préférentiel.

Le domaine de l’informatique décisionnel juste derrière le marché des ERP

représente au niveau mondial le secteur le plus dynamique de l’informatique

avec plus de 450 millions d’euros de chiffre d’affaire généré (source IDC).

La décision représente plus que jamais le cœur de la stratégie d’entreprise

dans un environnement de plus en plus complexe et concurrentiel ou la

globalisation est en constante accélération. Les prises de décisions se feront

quel que soit le secteur d’activité considéré dans une optique d’optimisation

31

de couts, de délais mais également de qualité du produit ou du service

fournit par l’entreprise.

Lucien Sfez professeur de sciences politiques à l'université de Paris 1 qui

plus récemment a focalise ses travaux sur le pouvoir et la technologie, définit

dans son ouvrage « la décision » la decision comme étant « un processus

d’engagement progressif, connecté à d’autres, marqué par l’existence

reconnue de plusieurs chemins pour parvenir au même et unique but »

En d’autres termes il s’agit donc d’un acte par lequel un ou plusieurs

décideurs opèrent un choix entre plusieurs solutions données permettant

d’apporter une réponse satisfaisante à un problème donné

Le processus de prise de décision peut se décomposer selon 4 axes :

• La connaissance des informations dont dispose le décideur

• Les mesures qu’il effectue sur ces données

• La prévision des futures tendances

• L’action directe qui aboutit directement à la prise de décision

Afin de mieux comprendre le processus de prise de décision et faire le

parallèle avec la business intelligence nous allons mettre exergue l’exemple

d’un plan de vol d’un avion qui arrive à destination dans les délais impartis :

Le plan de vol va correspondre à la stratégie que va adopter l’entreprise par

rapport à son environnement externe mais aussi interne.

La boite noire qui suit touts les événements de l’appareil peut être assimilée

à la partie collecte ou extraction des données qui sera décrite en dans la

partie dédiée aux ETL.

32

Une fois toutes ces informations en possession du décideur, comme les

cadrans et indicateurs fournissent une analyse de la situation, la business

intelligence fournira des outils de reporting et d’analyse avec ce que l’on

appelle la fouille de donnée (datamining).

En fonction de ces outils d’analyse, la décision peut alors être prise et une

action immédiate envisagée (décollage / changement de trajectoire).

1.3.2-Cas pratique : La prise de décision par les managers des calls

center a la General Electric.

Les différents managers des call center de GE prennent essentiellement des

décisions opérationnelles. Ce sont des décisions à court terne puisqu’il s’agit

de gérer des appels clients et de résoudre des problèmes pouvant êtres lies

à :

• Un client non satisfait du service rendu

• Des anomalies techniques de traitement d’appels : appels non

enregistrés, dysfonctionnement du système de téléphonie…Dans ce

cas là ils font appel au support technique en indiquant l’origine du

problème et doivent réagir très rapidement afin d’expliquer la raison

pour laquelle la demande du client n’a pas été prise en compte.

• Une diminution d’effectifs des agents du call center qui contraint à

accélérer le rythme de prise d’appels et motiver les operateurs pour

faire face au nombre d’appels entrants.

Tous ces managers ont une lourde responsabilité puisqu’il s’agit du seul

call center en France dédié aux incidents survenant sur les systèmes

médicaux des clients (radiologues, hôpitaux, cliniques…).Ils doivent donc

rapidement comprendre le besoin du client et prendre les meilleures

décisions possibles en fonction des données dont ils disposent.

33

1.3.3-Evolution croissante du besoin d’aide a la décision.

On peut définir la décision comme étant un acte par lequel un ou des

décideurs opèrent un choix entre plusieurs options permettant d’apporter

une solution satisfaisante à un problème donné.

Trois grandes catégories de décisions existent :

• Les décisions stratégiques (à long terme 5 ans et plus) :

L’entreprise est concernée dans l’ensemble de ses composantes dans les

relations qu’elle entretient avec son environnement (frontières) :

Implantation des unités de production en Chine. Lancement d’un nouveau produit.

• Les décisions tactiques ou managériales (à moyen terme 1 a 5 ans) :

Elles touchent les composantes suivantes de l’entreprise :

Division

Fonction

Unité de production

Mise en place d’une nouvelle organisation du

travail dans une usine (3x8, 4x8 etc)

• Les décisions opérationnelles (à court terme quelques minutes a quelques mois) :

34

Elles touchent les composantes suivantes de l’entreprise :

Service Bureau Atelier Equipe de travail Affectation d’un salarié à une équipe de travail. Organisation d’une réunion de contrôle et de suivi d’activité.

Dans l’informatique décisionnelle la direction générale met en place des

actions opérationnelles. Voici ci dessous de manière synthétique les

principales étapes de la prise de décision dans l’entreprise, ainsi que le cycle

décisionnel permettant aux décideurs d’analyser de décider et d’agir en

conséquence.

Figure 1.9 : Les étapes de la prise de décision dans l’entreprise

Le domaine analytique permet de passer de l’analyse à la décision.

35

Figure 1.9.1 : Le domaine transactionnel et analytique.

« Visualization allows the perception of emergent properties

that were not anticipated. »

Colin Ware, Information Visualization.

Dans le monde des affaires aucune information n’est plus importante qu’une

information quantitative. Les nombres mesurent la performance, repèrent les

opportunités et prévoient le futur.

C’est pour cela qu‘il est essentiel et vital pour l’entreprise de bien

représenter ses données, pour cela un ensemble de techniques existent qui

seront plus amplement détaillées dans ce mémoire.

Bien longtemps l’informatique décisionnelle a été réservée à des secteurs

d’activités utilisant les reporting financiers et tableaux de bords ainsi que les

DOMAINE TRANSACTIONNEL

DOMAINE ANALYTIQUE

36

analyses marketing, tels que les banques, les assurances et plus

généralement les grands comptes. Ces mêmes entreprises étaient les seules

à tirer parti d’investissements lourds aussi bien en termes d’équipes projet

qu’en terme d’infrastructures matérielles et logicielles.

En partant du fait que les ERP ou PGI (progiciels de gestion intégrés) étaient

dans l’incapacité de fournir des éditions ainsi que des rapports synthétiques,

de nouvelles entreprises telles que Business Object et Cognos ont répondu

au besoin de restructuration de l’information.

Avant d’en arriver à cet apport de restitution de l’information de façon claire

et pertinente, on pouvait parler d’anarchie de l‘information. Dans son

ouvrage e-business intelligence Bernard Liautaud, président et PDG de

business Object, explique que chaque collaborateur d’une entreprise donnée

recréer son propre système d’information, ce qui a pour conséquence de

provoquer un véritable chaos de données d’ou le terme d’anarchie de

l’information.

La multiplication et l’abondance des données ont fait que les managers ont

commence à se doter d’outils bureautiques tels que Access ou Excel qui

répondaient à leurs besoins de reporting et de tableaux de bord. Cependant

l’incompatibilité de la communication entre les différentes plateformes

logicielles ou matérielles rendait la centralisation des données difficile et lors

des comites de pilotages internes ou externes, un constat d’incohérence des

données était très fréquemment souligné.

Par ailleurs le simple fait de stocker ces données hétérogènes sur plusieurs

plateformes CRM, ERP, GPAO a rapidement révélé la complexité ainsi que les

limites pour une centralisation et un accès immédiat aux données. Afin de

remédier à ces incohérences d’informations et de pallier le problème

d’incompatibilité des différentes sources de données, l’informatique

37

décisionnelle va simplifier et « démocratiser » l’information. Pour ce faire la

business intelligence va, tout en sécurisant l’accès á l’information, optimiser

la qualité de service grâce à une meilleure gestion des données.

2- La business intelligence pour un meilleur management de la

qualité de service.

2.1- BI et intelligence économique : un abus de langage ?

2.1.1- Définitions

La business intelligence n’est ni un produit ni un système mais une

architecture qui propose un ensemble d’outils et d’applications facilitant le

processus stratégique d’aide à la prise de décision. Au sein de cette

architecture on trouve un ensemble de bases facilitant l’accès aux données.

Les applications d’aide à la décision facilitent de nombreuses activités parmi

lesquelles on trouve :

• L’analyse multidimensionnelle (cubes OLAP)

• Le datamining

• Les prévisions

• Le reporting

• La visualisation d’informations

• Le knowledge management

• L’accès aux tableaux de bords digitals.

On peut définir l’informatique décisionnelle comme étant un ensemble de

processus, de technologies et d’outils nécessaires pour transformer :

38

• Des données brutes en informations pertinentes

Il s’agit notamment dans cette étape de transformation de se demander

quelles sont les données à récupérer, gérer et dans quel contexte.

• Des informations en connaissance

Cumuler l’ensemble des informations de la première étape puis les analyser

pour former une base de connaissance réutilisable par l’ensemble des

collaborateurs de l’entreprise.

• Des connaissances en plans opérationnels qui conduisent a la

prise de décision par des plans d’actions.

Il s’agit de l’aspect le plus important puisque c’est dans ce contexte que

toute la valeur réelle de l’information est utilisée : S’il on utilise la business

intelligence dans le domaine du micro-marketing par exemple , trouver le

bon client pour lui proposer un produit donné, nécessite au préalable que l’on

dispose d’un plan d’action efficace pour la prise de contact sans quoi la

démarche restera superfétatoire

Le terme de business intelligence est souvent traduit littéralement par

intelligence économique, ce qui n’est pas tout à fait exact.

En effet la business intelligence représente un ensemble d’applications et

d’outils qui sont au service de l’intelligence économique. En ce sens

l’intelligence économique est un domaine qui est plus oriente vers l’analyse

d’un système d’information donne ainsi que sur les risques et menacent

auxquels il peut être assujetti. La business intelligence va donc proposer au

domaine de l’intelligence économique un ensemble d’outils (reporting, ETL,

datamining …) qui faciliteront le recours à ce dernier. L’informatique

décisionnelle avec son large éventail d’outils permet également au delà de

39

son impact sur l’intelligence économique, d’impacter directement un autre

secteur : celui des services clients.

2.1.2- Les impacts de l’informatique décisionnelle sur la qualité de

service

« Le client est roi »

« Le client est notre raison d’être »

« Nos clients définissent notre activité »

« Si l’on ne comprend pas nos clients, on ne comprend pas notre

activité »

Autant d’expressions utilisées par de nombreux dirigeants opérationnels qui

insistent sur l’importance de la qualité de service client.

Avant d’aborder les effets que peut avoir la business intelligence en terme de

qualité de service client il sera intéressant en premier lieu de définir cette

notion utilisée couramment par de nombreux clients afin de qualifier le

service d’une entreprise donnée.

Même si le terme de qualité de service client reste tout de même

impondérable et souvent évasif, il est toutefois possible de le définir. Ce qui

prédomine le plus, c’est ce que le client ou consommateur voit et entend

d’un service que propose l’entreprise. La notion même de qualité de service

ne peut être comprise et expliquée que d’un point de vue client .On définira

donc ce concept a travers une vision client.

Les clients ont tendance à évaluer le niveau de service selon deux

dimensions :

40

• Une dimension procédurale

Qui correspond à l’ensemble des procédures et moyens techniques établies

par l’entreprise afin de fournir le produit et/ou service au client. Autrement

dit il s’agit des résultats techniques issus du service proposé.

• Une dimension personnelle

Elle reflète la manière dont le service est rendu attitudes, comportements,

communication verbale, de l’entreprise. En d’autres termes c’est le résultat

fonctionnel du service propose. Le client jugera donc la qualité de service en

fonction de l’effort que réalise l’entreprise suivant ces deux axes.

La figure 2.2 montre clairement la stratégie qu’adopte la plupart des

entreprises en plaçant le client au sommet de la pyramide d’ou la fameuse

expression « le client est roi ».Pour que le client soit roi, l’informatique

41

décisionnelle comme bien d’autres domaines, va permettre d’améliorer la

qualité de service en plaçant justement le client au sommet de cette

pyramide. Grâce aux outils de business intelligence et des composants

d’analyse de données il sera possible d’étudier et de faire « parler » les

données en vue de dégager des tendances précises.

Il s’agira d’extraire dans un premier temps les données grâce à l’ETL dont le

fonctionnement sera plus amplement décrit dans la partie 3.Une fois les

données extraites elles permettront d’étudier le comportement, les habitudes

du client, de dégager des tendances particulières à l’aide du datamining

expliqué en partie 2.3 et de réagir en conséquence afin d’adapter la

demande à l’offre et non pas l’inverse. Grace à l’informatique décisionnelle il

sera donc possible d’anticiper les comportements des clients afin de pouvoir

au mieux les satisfaire.

Figure2.2 : impact de la business intelligence sur la qualité de

service client.

42

Figure 2.3 : exemple de représentation habituelle du modèle

multidimensionnel sous forme de cube.

Ce modèle permet de connaître le nombre de produits vendus (Product axe

y) dans le temps (Time axe x) avec la possibilité de connaître le type de

clientèle par produit vendu (Customer axe z)

Le domaine de l’informatique décisionnelle va également permettre toujours

par le principe d’analyse des données ou datamining de prévoir la perte des

clients pour une entreprise donnée et même les principales actions

nécessaires pour réduire ce taux. Pour ce faire la question de prévision de la

perte des clients est exploratoire, il s’agira donc de conserver un historique

afin de modéliser les comportements d’attrition (un départ volontaire d’un

client par exemple).Il sera intéressant de mettre en place des indicateurs tels

que les délais de paiement, les impayés, les quantités retournées etc. A

noter que la notion temporelle est cruciale dans la mesure où elle permettra

de constater au fur et a mesure du temps des changements qui sont parfois

imperceptibles.

Tous ces paramètres liés à la business intelligence vont donc permettre à

l’entreprise d’être en constante proximité du client et de ses attentes , de

mieux le comprendre et donc d’améliorer la qualité de service en

43

conséquence. De nombreux référentiels existent sur le marché actuel et

proposent également un ensemble de bonnes pratiques afin d’améliorer la

qualité de service client. L’idéal serait de combiner la business intelligence à

un de ces référentiels pour des processus d’activités plus performants. Parmi

eux ITIL, qui propose une démarche d’amélioration de la qualité de service.

Il permet à l’entreprise d'assurer à ses clients un service répondant à des

normes de qualité prédéfinies au niveau international.

2.1.3- ITIL : Un référentiel et un outil supplémentaire pour

l'optimisation de la qualité de service

Fournir des services clients de qualité nécessite la mise en place d’activités.

La qualité de service client dépend fortement de la manière avec laquelle ces

activités sont organisées. William Edwards Deming conférencier et consultant

américain, a amélioré durant la seconde guerre mondiale la qualité de la

production notamment grâce à son modèle portant son nom : « la roue de

Deming »

Figure 2.4: La roue de Deming (PDCA)

La figure fournie un modèle simple et efficace de contrôle de la qualité de

service. Ce modèle suppose que pour une qualité de service optimale il est

nécessaire de mener à bien de façon répétée les étapes suivantes :

44

• Planifier ce qui doit être fait, quand, par quelle personne, comment et

en utilisant quels outils.

• Développer les activées qui ont été planifiées conformément à la

première étape. (actions correctives)

• Contrôler les activités afin de déterminer si les services fournis

correspondent aux résultats attendus.

• Ajuster la planification en fonction des informations recueillies

pendant l’étape de contrôle. Il s’agit plus précisément de réduire les

écarts et de faire évoluer les objectifs

Au cours de cette deuxième partie nous avons vu comment et par quels

moyens l’informatique décisionnelle, avec la mise en place du référentiel

ITIL, peut améliorer la qualité de service client. Une question se pose alors :

comment les données, permettant d’agir directement sur la qualité de

service, sont elles stockées et quelles sont les techniques permettant de

passer d’une donnée brute sans valeur particulière à une information riche et

stratégique.

La business intelligence va permettre d’exploiter les données de l’entreprise

en vue de faciliter la prise de décision par les décideurs.

En ce sens il sera plus facile pour les dirigeants d’entreprise d’anticiper les

actions à mettre en œuvre pour un pilotage éclairé de l’entreprise.

Le passage de la donnée brute à l’information se fait par un lieu de stockage

intermédiaire des différentes sources d’informations : le Datawarehouse.

45

2.2- Un service d’intégration : le Datawarehouse

2.2.1-Concepts généraux

Le datawarehouse permet de stocker les données collectées issus de

multiples sources .

Bill Inmom créateur de ce concept le définit comme « une collection de

données thématiques, intégrées, non volatiles et historisées pour la

prise de décision»

• Données thématiques : Les données récupérées doivent

impérativement êtres orientées « métier » c’est à dire triées par

thème.

• Données intégrées : Préparer les données par un nettoyage pour une

meilleure rationalisation et normalisation.

• Non volatiles : Les informations collectées ne doivent en aucun cas

êtres supprimées du datawarehouse.

• Historisees : Les données doivent êtres datées.

Pour une exploitation plus performante et efficace des données il est

possible de créer des sous ensembles du datawarehouse pour un secteur

particulier de l’entreprise (gamme de produit, service, direction…), ces sous

ensembles sont appelés Datamart.

Ainsi on peut parler de Datamart marketing ou encore de Datamart

commercial.

Dans la mesure où les données proviennent de sources diverses et

hétérogènes, il est nécessaire de procéder à l’alimentation du

46

datawarehouse. C’est le rôle de l’ETL (Extract Transform and Load) qui sera

décrit dans la suite de ce mémoire. Une fois le processus ETL réalisé et donc

le rapatriement des données effectué, une analyse de l’ensemble des

données collectes est réalisée par un « forage de données » plus connu sous

le nom de datamining qui s’appuie sur des techniques d’intelligence

artificielles basées sur les réseaux de neurones.

2.3-Une Analyse multidimensionnelle : Le datamining

2.3.1-OLAP et la fouille de données

Le concept OLAP « On line Analytical processing » a été invente en 1993 par

l’informaticien britannique Edgar Frank Codd dans le but de réaliser des

analyses plus approfondies des données des entreprises. Il s’agit d’un outil

de requetage complétant les outils de reporting qui ne disposent pas, à la

différence d’ OLAP, de fonctions de forage dynamique et de changement

d’axe des données. OLAP ainsi que le datamining sont des technologies très

utilisées par les managers afin de rassembler, stocker, interroger et analyser

les données historiques. Il serait intéressant de mettre en évidence la

frontière entre ces deux systèmes.

OLAP est la technologie qui utilise les structures multi-dimensionnelles afin

de fournir un accès rapide aux données en vue d’une analyse. Généralement

les données sont modélises par des cubes OLAP. (Figure 2.3).

47

Le datamining quant à lui est une méthode d’exploration automatique des

données visant a dégager des tendances récurrentes mais aussi des

corrélations entre les données, on parle pour ces raisons là de « fouille de

données ». La méthode d’exploration peut être appliquée en décomposant

les données de l’entreprise en sous systèmes appelés datamart.

OLAP interagit avec les autres composants de business intelligence tel que le

datawarehouse vu précédemment en vue de faciliter la prise de décision.

En plus du simple fait de stocker des données économiques récentes dans

une optique d’en faire des statistiques, OLAP est aussi principalement utilisé

afin de réaliser un ensemble d’analyses d’éléments de l’activité des

entreprises telles que des données d’activités médicales ou de ventes .

La finalité de ce processus réside dans le fait de pouvoir pour les analystes

de se construire une image sous-jacente des données en les explorant de

différents points de vues et ceci de façon interactive.

Figure 2.5 : OLAP et le datamining

L’exemple dans la partie qui suit montre comment les données du projet

dont j’ai la charge ont été représentée au moyen de cette technologie et sa

48

représentation multidimensionnelle.Ceci permettra la restitution des données

sous un tableau croise dynamique d’excel.

2.3.2-Analyse et représentation des données du projet

La modélisation des données du projet sous forme de cube olap a l’aide de

SSAS (sql serveur analysis services) concerne les appels client gérés par le

serveur CMS ainsi que les jobs must qui sont des ouvertures d’affaires après

vente issus du mainframe.

Concernant les appels clients il est facilement possible de connaître à l’aide

de la représentation en figures 2.6 le volume d’appels par région pour un

mois donné, ainsi que le SL par les mêmes critères. Ce nombre correspond

au chemin suivi parallèlement aux 3 axes (représenté par un cercle rouge).Il

en est de même pour les jobs must. Tous les résultats peuvent êtres

restitués sous forme d’un tableau dynamique croise Excel .

Figure 2.6 : Modélisation des données CMS

49

Figure 2.7 : Modélisation des données MUST

Cette analyse multidimensionnelle réalise des traitements sur des données

du datawarehouse préalablement alimenté par le processus ETL qui doit

s’adapter aux besoins et aux contraintes utilisateurs et non pas l’inverse.

3-Caractéristiques du mécanisme de centralisation des données par

ETL.

3.1- Le marché et les catégories d'outils ETL

3.1.1- Approche et définition des ETL

L’accès aux données éparpillées dans les différentes parties des systèmes

d’informations des entreprises, issues de plusieurs sources hétérogènes,

nécessitent la mise en place de processus précis. En ce sens cette phase

d’accès aux données est cruciale afin de pouvoir par la suite les manipuler en

les confiant aux utilisateurs et améliorer ainsi la transmission d’informations

dans l’entreprise.

Les ETL sont des outils destinés à l’extraction, la transformation et a

l’injection des données dans un datawarehouse à partir de n’importe quelle

source (ERP, CRM, fichiers…).Il sera aisément possible par la suite

50

d’interroger une seule source de données par des outils de restitution tels

que les tableaux de bords par exemple.

Il existe plusieurs architectures et approches d’ETL, nous allons nous

focaliser sur deux types d’approches les plus répandues dans le domaine de

la business intelligence.

Figure 3.1 : approche traditionnelle de transformation des données

par stockage temporaire.

Dans cette approche il s’agit d’extraire les données des systèmes sources et

les intégrer dans la zone de stockage temporaire puis les charger dans le

datawarehouse.La seconde quant à elle réalise la transformation en

mémoire.

Figure 3.2 : approche de transformation des données en mémoire.

Cette alternative consiste pour l’ETL de transformer les données en mémoire

et mettre à jour directement le datawarehouse sans passer par la phase de

stockage des données dans la zone temporaire.

51

La transformation des données en mémoire s’avère plus rapide que de

stocker les informations en vue d’une transformation.

Si le volume de données est faible il sera plus judicieux d’effectuer la

transformation en mémoire. En revanche s’il est considérable et que l’on

travaille sur des bases volumineuses la première approche s’avère plus

adaptée.

Généralement les entreprises ont plutôt tendance à prendre en compte la

première approche dans la mesure où elles possèdent de puissants ETL et

logiciels permettant tout types de transformations ainsi que des processus de

gestion de la qualité des données.

Parallèlement à ces deux approches il existe quatre méthodes qui précisent

la manière avec laquelle les données sont transmises du système source vers

l’ETL et par quel composant, nous allons dans ce qui suit les détailler.

Figure 3.3 : Alimentation de l’ETL

• Dans la première c’est le processus ETL qui extrait les données en

requêtant le système source de base de données régulièrement. L’ETL

se connecte à la source, réalise le requetage et récupère alors les

52

données. Il s’agit de la méthode la plus répandue qui a été appliquée

dans le cadre de ma mission en utilisant l’ETL SSIS de microsoft (cf

partie 3.2.4 mise en place du processus ETL).

• Ce sont les déclencheurs plus communément connus sont le nom de

triggers , événements qui permettent régulièrement l’insertion, la mise

à jour, la suppression de données ,qui dans la deuxième méthode

transmettront les informations à l’ETL. En utilisant ces déclencheurs il

sera possible de stocker les informations modifiées dans d’autres tables

(composant de stockage de données)

• La troisième méthode propose de mettre en place un processus de

planification, par des taches planifiées ou programmes, qui exporteront

les données vers l’ETL. Ces taches et/ou programmes seront exécutés

sur le système d’information source.

• Enfin dans le dernier concept c’est un système de lecture de log

(historique des événements ayant eu lieu) qui effectuera la lecture du

système source afin de détecter les mises à jour récentes et de les

transmettre à l’ETL.

Tous les éléments cites jusqu’a présent impactent fortement la qualité

de service client qui en est optimisée grâce aux riches fonctionnalités

dont disposent les ETL

La majeure partie des ETL permettent :

L’accès a tous types de sources de données

• SGBD

53

• Mainframe (par exemple les tickets d’incidents ou job concernant le

mainframe must de la General Electric)

• Fichiers

• CRM/ERP

• La planification et l’exécution de tâches répétitives

• La possibilité de créer des points de reprises en cas d’incident majeur.

• La visualisation en temps réels des données (dans le cadre de ma

mission les appels clients) pour une meilleure qualité de service.

Ces outils dédiés au décisionnel tel que les ETL décrits dans cette partie

représentent le marché le plus dynamique de l’informatique et ont connu

une longue évolution.

3.1.2 – Histoire et marche actuel des ETL

Au début des années 1990, la plupart des entreprises élaboraient des

routines de codage spécifique afin d’extraire, transformer et charger les

données vers des systèmes cibles.

Au milieu des années 1990, les éditeurs ont commencé à concevoir des

outils visant à réduire et même éliminer le coût de la main-d'œuvre engendre

par le développement manuel de code spécifique, par le développement de

programmes.

Les premiers éditeurs d'outils ETL commencent alors à fournir un

environnement de conception graphique se basant sur le 3GL (langage de

troisième génération avec l’apparition d’applications ETL en COBOL, C.)

Bien que ces premiers outils de génération de code simplifié ont grandement

aidé les entreprises, ils restaient toutefois incomplets puisqu’ils ne

proposaient pas une automatisation des tâches ainsi que la visibilité en

54

temps réel des informations. Par ailleurs, les administrateurs devaient gérer

manuellement le code compilé, et transporter les fichiers d’un emplacement

à un autre. Dans le milieu et la fin des années 1990 on commence à utiliser

les « moteurs de données », permettant de définir quelles données sources

récupérer ainsi que la manière de les transformer pour les charger vers des

systèmes cible. La notion de processus d’extraction et de taches d’exécution

apparaît.

Ces moteur fonctionnent sur un système UNIX ou Windows et sont capables

d’établir des connexions directes quel que soit le système source /cible

considère (fichiers, SGBD,CRM…) : Les ETL apparaissent.

De récentes recherches du groupe Gartner Inc., leader mondial en conseil et

recherche dans les technologies de l’information, soulignent l’essor et le

succès du marche des outils ETL qui a progresse d’environ 13,5% l’année

dernière en générant plus d’un milliard de dollars de recettes.

Ce succès s’explique notamment par le besoin croissant des utilisateurs et

entreprises en matière de stockage de données et d’intégration de celles ci

que se soit en dehors ou à l’intérieur même des datawarehouse.

Une autre explication d’un tel succès réside dans le besoin pour de

nombreuses entreprises des secteurs de B to C (activité de business to

consumer ) banques , assurances , distribution de développer et analyser

leur activité et ce de façon régulière voir même en temps réel.

L’entreprise Informatica reste le groupe leader mondial dans le domaine des

solutions décisionnelles

Sur ce marche on trouve essentiellement deux grandes catégories d’ETL :

• Les ETL open sources

55

• Les ETL propriétaires

Opter pour les ETL open sources permettra de s’affranchir des couts de

licences élevés et de rester au plus près des spécificités des données métier

de l’entreprise avec la possibilité d’adapter l’ETL aux besoins de l’entreprise.

Les ETL open source s’adaptent plus facilement au changement à savoir a un

code spécifique et le coût de mise en place reste constant dans le temps .

Il convient de prendre en compte les couts de formation et de licence élevés

pour les ETL propriétaires, qui seront à mettre en place dans le cas ou la

part de code spécifique reste négligeable. Si l’entreprise possède un turn

over important il peut s’avérer difficile de maintenir les traitements

d’intégration des données ainsi que leur évolution.

Dans la plupart des projets décisionnels les ETL sont souvent assimilés aux

EAI (entreprise application integration), ce qui n’est pas tout a fait exact, il

convient donc de déterminer succinctement la frontière qui les sépare.

3.1.3 - ETL vs EAI: L'EAI n'est pas l'ETL, et vice-versa.

Les EAI permettent de mettre en exergue la communication inter-

applications. Ce sont généralement des applications qui offrent la possibilité

d’accès à d’autres logiciels de l’entreprise ou externes à l’entreprise.

La plupart des entreprises mettent en relation leur site de e-commerce avec

d’autres structures dans le cadre d’un partenariat par exemple ou avec le

« back-office», afin d’avoir la disponibilité des produits, l’état des stocks,

délais de livraison.

Si les ETL ont le pouvoir de transformer les données, ce n’est pas le cas des

EAI et c’est justement la où se situe la grande différence entre ces deux

systèmes.

56

En effet les EAI sont uniquement capables de récupérer les informations

brutes d’un système d’information que l’on appellera S1 et de les

transmettre à un système d’information S2 selon un processus bien défini

sans modification de données.

Enfin la plupart des EAI ne permettent pas la gestion et la transmission des

données temps réels et ne sont utilisés que pour un faible flux de données.

C’est pour cela que généralement les entreprises ont recours aux ETL pour

plusieurs raisons qui font l’objet de la partie qui suit.

3.2- Les ETL : un besoin de normalisation : Les causes du phénomène

en 3 étapes

Figure 3.4 : le processus ETL en 3 étapes

La figure ci dessus explique les raisons pour laquelle les entreprises ont

souvent recours aux ETL à savoir :

• Une synchronisation massive d'informations volumineuses et

hétérogènes

• Des besoins différents en termes de transformation de données.

• Chargement des données dans différentes applications décisionnelles.

57

Ce besoin de normalisation réside entre autres dans le fait de bien structurer

et nommer l’information puisqu’elle provient de différentes sources,

Pour illustrer cela nous allons prendre deux exemples :

Nom de tables = SOURCE_PAYS / MUST_FR ou encore CMS_FR

Nom des procédures de traitement :

TYPE_DE_TRAITEMENT_SOURCE_PAYS/RUN_EXTRACT_CMS_FR

L’ensemble des éléments théoriques exposés au cours de cette troisième

partie dédiée aux ETL, ont été mis en exergue tout au long de la mission qui

m’a été confiée. Il serait donc intéressant de voir comment et pourquoi j’ai

proposé et mis en place ce processus ETL sur le site de la General Electric.

3.3- Mise en place pour le projet du processus ETL

Cette partie décrira précisément comment par rapport à ce qui a été énoncé

aux ETL j’ai effectué la collecte la transformation et la diffusion de données

afin d’afficher au final les informations qui permettront une prise de décision

efficace et donc une meilleure qualité de service. Les principaux éléments qui

seront présentés entrants dans ce processus sont les suivants :

• Le serveur CMS Avaya qui contient l’ensemble des données liées aux

appels clients.

• Le mainframe MUST qui concerne plutôt la gestion des tickets

d’incidents qui sont des ouvertures d’affaires après vente suite à un

dysfonctionnement d’équipements d’imageries médicales.

• L’ETL de Microsoft SQL SERVEUR INTEGRATION SERVICES.

Conformément aux spécifications fonctionnelles (Annexe 1) voici

l’architecture fonctionnelle apportée au besoin du client.

58

Figure 3.5 :Processus fonctionnel de transmission de l’information

La partie extraction et transformation mentionnée ci dessus permettra

l’alimentation du datawarehouse en appliquant des transformations de

données. L’alimentation de notre entrepôt de données se fera grâce a SQL

SERVEUR INTEGRATION SERVICES, l’ETL de Microsoft, par le biais de

packages qui contiendront l’ensemble des composants d’extraction et de

transformation des données. Voici après le workflow fonctionnel le processus

technique mis en œuvre allant de l’étape d’extraction des données serveurs à

l’étape d‘alimentation du datawarehouse.

59

Figure 3.6: Processus technique de transmission de l’information

Ceci dit nous allons dans ce qui suit nous attarder sur chaque partie de ce

processus en passant par les scripts d’extraction, le mécanisme de screen

scrapping, l‘alimentation du datawarehouse jusqu’au chargement des

données et l’affichage sur les stations distantes.

L’accès à la base du mainframe par ODBC n’étant pas autorisé pour des

raisons de sécurité et de performance, la solution qui a été discuté et

finalement déployée, afin d’extraire les données, est celle du screen

scrapping via des scripts en langage vb développés sous humming bird basic

et lancés sur le mainframe à travers son émulateur humming bird host

explorer(IHM).

MAINFRAME MUST

60

Le Screen scraping est une technique dans un programme qui récupère des

données de l'affichage de sortie d'un autre programme. Le programme

développé réalise un balayage de tout l’écran de l’application distante. Dans

notre cas il s’agira de balayer tous les écrans de références A226 de MUST.

Le programme réalisant une telle opération est alors qualifié de « screen

scrapper » (Annexe 2 extrait du screen scraper réalise pour l’Italie)

L’environnement de développement HUMINMING BIRD BASIC avec l’interface

de connexion au mainframe HOST EXPLORER permet de lancer le « screen

scrapper »

HostExplorer produits offrent un large éventail d'i nterfaces de programmation d'applications (API), un document sta ndard utilisé pour programmer les applications. Ces API vous perm ettent de exploiter les fonctionnalités et les caractéristiqu es de HostExplorer produits à partir de vos propres progr ammes et des Avec Host Explorer, il est possible d’automatiser des tâches répétitives par

exemple, le contrôle des données améliorant ainsi leur fiabilité. Dans notre

cas le « screen scraper » permettra dans un premier temps de balayer

l’ensemble de l’écran, et enregistrer de façon continue les informations pour

alimenter un fichier texte (partie de gauche de la figure 3.6) à partir de

l’écran courant.

61

Figure 3.7:Ecran A226 must sur lequel le screen scraper réalise

l’extraction.

L’extraction qui cette fois si concerne des informations CMS Avaya est à

mettre en œuvre le plus rapidement possible puisqu’il s’agit de données

sensibles qui seront affichées en temps réel contrairement à must ou il est

toléré que les informations soient affichées avec un temps de

rafraichissement de l’ordre de quelques secondes voir quelques minutes.

62

Le CMS Avaya est conçu de manière à fonctionner dans un réseau distribué

de traitement d'appels pour call centers. Ce CMS offre un ensemble de

fonctionnalités liées au domaine des réseaux/télécom.

Il s’agit en particulier d’une interface permettant de gérer les appels

entrants. Ces appels sont caractérisés par un certain nombre de critères vus

précédemment. Afin d’extraire l’ensemble de ces données Il faut

préalablement avoir créé un rapport temps réel en renseignant les VDN

souhaites dans notre cas on prendra le VDN des appels clients allant de 1226

à 1240 et le VDN FE de 6221 a 6236.

Ces VDN sont des numéros utilisés dans les ACD pour connecter les appels

client ou FE vers un vecteur de transformation.

Un vecteur correspond globalement à une liste de nombres qui identifient la

provenance de l’appel. Un vecteur peut acheminer les appels vers d'autres

destinations. Chaque vecteur est identifié par un VDN.L’utilisation de

vecteurs permettent de définir le comportement du système lors d’un appel :

• Redirection d’appel

• Configuration du message d’attente

• Délai d’attente

63

Nous allons dans ce qui suit décrire les processus et méthodes utilisés sur

ces deux outils présentés jusqu’ à présent (CMS et MUST)

Figure 3.8:Création d’un rapport CMS temps réel

Ci dessus le rapport temps réel FE_CLIENT qui a été crée avec la saisie les

VDN clients et FE. A noter qu’il est possible de choisir le délai de mise à jour

des données par le serveur.

C’est le rapport visible en figure 3.9 qui est extrait au moyen du script vb

acsauto de la figure 3.6.

L’ETL Symon, utilisé uniquement à Buc, récupère ce rapport par telnet et

réalise l’affichage des valeurs ainsi récupérés. Pour la mise en place de ce

système pour les autres pays de GE, le script acsauto joue le rôle de

récupération des données, l’application java celui de l‘afficheur , le process

de Business intelligence faisant l’intermédiaire.

64

Figure 3.9:Le rapport CMS temps réel généré

Un script réalisé en VB permet de récupérer directement ce rapport temps

réel du serveur et alimenter en boucle le fichier CMS.txt (Annexe 2). Ce

script tourne en boucle avec des temps de pause de l’ordre de quelques

millisecondes afin de ne pas saturer le serveur. A noter que chaque pays

possède un fichier texte CMS et un fichier MUST qui feront l’objet du même

traitement que l’on est entrain de décrire.

Grace à L’ETL SQL SERVEUR INTEGRATION SERVICES (SSIS) nous allons

pouvoir récupérer ces fichiers et effectuer un certain nombre de

transformations.

Il sera aisément possible, grâce a la mise en place de packages contenants

des composants SSIS , de charger ces fichiers les transformer et les charger

dans le datawarehouse. Toutes les taches d’intégration sont regroupes dans

deux packages que l’on peut également qualifier de lot :

• Un lot MUST

• Un lot CMS

65

Le flux de contrôle « control flow » aura pour rôle d’établir l’enchainement

des taches du packages appelés taches de flux de données « data flow ».A

noter que dans un flux de control on peut également avoir des taches

d’exécution liées a des Data Flow.

Ci dessous la structure de nos packages MUST ET CMS.

Figure 3.9.1: Structure d’un package MUST ou CMS

Ces packages sont lancés automatiquement au moyen d’un traitement batch

qui lance chaque package, permettant ainsi d’alimenter constamment le

Control Flow

Tache

d’exécution

Data

Flow

Package

66

datawarehouse et donc d’afficher par la suite les données.

Figure 3.9.2: le contrôle flow qui lance le dataflow.

Avant de lancer le flux de données, une tache d’exécution SQL est tout

d’abord lancée qui supprime les anciennes informations contenues dans les

tables avant le début de l’alimentation par les nouvelles valeurs. Le

traitement du control flow etant acheve le flux de donnees est lance.

Figure 3.9.3: le data flow qui lance l’alimentation du datawarehouse.

67

La source mentionnée dans la structure du package représente le fichier qui

a été préalablement alimente suivant le processus d’extraction de la figure

3.6.

La phase de transformation se décline en deux étapes :

• La conversion des données du fichier

• Le mappage (correspondance) des champs fichier /table de destination

(Figure 3.9)

Unicode est le système de codage de caractères spécifiques de différentes

langues (chaque caractère correspond à un code exprimé en base

hexadécimale ).

Il s’agira pour la première étape de convertir les données du fichier qui sont

de type Unicode (type DT_WSTR) en données non unicode (type DT_STR).

Une fois la conversion effectuée un mappage est réalisé entre les

informations du fichier et la table cible. Par un jeu de correspondance de

champs on peut alors sélectionner les champs à transmettre à la table cible

et la manière de gérer la différence de champs entre le fichier et la table

cible.

L’avantage d’un tel processus réside également dans le fait qu’il est possible

de déclencher d’autres taches ou d’autres événements tout en gérant les

erreurs d’exécution du package.

68

Figure 3.9.4: Mappage des champs entre le fichier source et la table

de destination

Le datawarehouse étant alimente continuellement par l’ETL il convient de

poursuivre avec l’affichage des informations souhaitées par les différents

managers des call center décrites dans les spécifications fonctionnelles.

Pour cela l’application réalisée en java va pouvoir via l’API JDBC récupérer du

datawarehouse les informations à afficher. Le traitement et l’affichage des

données en temps réel a contraint à l’utilisation de timer qui relance le

processus de récupération et d’affichage de données.

Le serveur, station sur laquelle se trouve l’entrepôt de données, envois

régulièrement au client les nouvelles informations MUST et CMS ainsi mises à

jours .Ces données transitent par le protocole de communication UDP qui est

moins fiable mais plus rapide que le protocole TCP .Dans la mesure ou le

temps de réponse est un critère très sensible c’est ce type de protocole qui a

69

été choisi et mise en œuvre. Pour chaque call center l’affichage réalisé est

diffusé sur écran LCD comme suit:

Un écran « inroom » sur lequel est présenté l’ensemble des appels clients et

FE , avec un bilan par secteur (ensemble de départements) de tous les jobs

critiques(nombre de jobs critiques , temps d’attente, service level…)

Figure 3.9.5: Ecran salle pour tous les Call center.

Le deuxième écran « écran user » quant a lui détaille le premier avec pour

chaque région Nord, Sud, Est, Ouest le descriptif de chaque job avec sa

durée ainsi que le site de localisation. Un système de basculement entre

chaque affichage a été réalisé pour passer d’une région à une autre.

Figure 3.9.6: Ecran user pour tous les Call center.

70

3.4-Impacts de la solution déployée : « le visual management »

Le déploiement de cette solution, grâce au large éventail de techniques et

d’outils que propose la business intelligence, pourra améliorer directement la

qualité de service client des calls center de la General Electric. En ce sens la

mise en place de ce système, avec la possibilité de visualiser en temps réel

l’ensemble des ouvertures d’affaires après vente ainsi que tous les appels

clients et FE, permettra un gain de temps non négligeable. En effet le fait

d’avoir une seule application avec les bonnes informations au bon moment,

dispensera les utilisateurs qu’ils soient managers ou operateurs d’effectuer

de nombreuses opérations manuelles afin d’avoir l’information voulue au

moment voulu. Pour illustrer ceci s’il l’on prend les ouvertures d’affaires

après vente du mainframe must, pour avoir ces données l’utilisateur était

contraint de se connecter au mainframe d’effectuer une série de

manipulations et de recherches afin de trouver les ouvertures d’affaires dont

le délai est critique. Or avec ce nouveau système il sera aisément possible

d’avoir cette information sans aucune intervention humaine ni recherche,

d’ou un gain de temps considérable et par conséquent une rapidité de

traitement des besoins du client pour une meilleure qualité de service. A

noter également que ce système facilitera la prise de décision par les

managers qui auront tous les indicateurs clé nécessaires à la prise décision

(temps d’attente des appels, temps de réponse, nombre d’appels…)

La solution déployée touche un domaine particulier : celui du « visual

management ».

Il s’agit d’une méthode de création d'un environnement riche en informations

par l'utilisation de signaux, symboles , objets, lumières vives, panneaux, qui

attirent l'attention des personnes et qui permet de communiquer

l'information importante dans un environnement de travail.

71

« L'image nous donne le réel dans sa totalité et surtout son

immédiateté : et la parole vient encore, de surcroît, s'ajouter au

visuel et le renforcer»

François Dagonnet

Le succès et la notoriété des entreprises reposent en grande partie sur leur

capacité de pouvoir effectuer des mesures précises quel que soit le type de

processus considérées. Afin de répondre au mieux aux attentes des clients et

ainsi leur fournir un produit conforme à l’ensemble des spécifications

fonctionnelles mais aussi techniques, il convient de décomposer les

exigences clients en critères mesurables : C’est l’objet de la méthode six

sigma qui permet de respecter ce processus et d’assurer une qualité de

service optimale.

4-Une méthode pour une meilleure qualité de service client : Lean

Six Sigma

4.1- Lean Six Sigma : un système qui aide à "prévoir" pour ne

pas être obligé de "revoir"

La lettre grecque sigma « σ » signifie déviation standard et représente

l’écart moyen ou la dispersion des valeurs autour de la moyenne il s’agit de

l’écart type.

Représente la variable aléatoire (échantillon de travail)

Représente la moyenne calculee

72

Représente la variance.

Il apparaît clairement que le calcul de l’écart type s’obtient en prenant la

racine carré de la variance. Plus cet écart type est faible plus les valeurs se

rapprochent de la moyenne.

Six sigma est une méthode statistique qui décrit le nombre de déviations

existantes dans un ensemble de données, un groupe d’articles ou de

processus. Par exemple si l’on décide de peser un paquet de chocolats ayant

des formes différentes, on obtiendra une déviation standard plus grande que

s’ils avaient tous la même taille. Une limite de tolerance égale a 6σ

représenterai pour une chaine de production de véhicules une production

homogène avoisinant le zéro default. Afin de savoir vers quel nombre de

sigma on se rapproche il suffit d’appliquer la formule dite du « Z » suivante :

Nombre de sigma = |(moyenne – LSL)/écart type)|

Le LSL : le lower spec limit correspond à la valeur minimale voulue par le

client du CTQ étudié dans les spécifications fonctionnelles. (cf partie 4.3.2

application de la méthode au projet).

Figure 4.1 : Courbe de gauss

Six sigma permet d’effectuer une mesure statistique de la performance des

processus et/ou des produits des entreprises. Le but étant de chercher la

73

perfection dans l’amélioration des performances. Il s’agit d’un système de

management durable permettant aux entreprises d’atteindre leurs objectifs

en améliorant la performance de leur activité globale et ce même au niveau

international. En ce sens cette méthode permettra de réduire les pertes et

les coûts des entreprises en renforçant leur image de marque.

Le cœur de la méthode réside en la décomposition des besoins clients en

étapes précises et en critères de qualité mesurables appelés CTQ « Critical

To Quality ».

4.2- Une méthodologie par étapes le « DMAIC » : define mesure

analyse improove control

Chaque critère de qualité doit préalablement avoir validé une étape pour

passer à la suivante, jusque l’étape finale de contrôle du produit. Voyons de

plus prés ce que propose cette décomposition :

Figure 4.2: Plusieurs étapes pour une qualité de service optimale

Ce modèle par étape permet au final une meilleure fiabilité du produit ainsi

qu’un rapport performance/cout idéal.

74

Ce processus précise qu’en phase de conception il est difficile de détecter ou

prévoir des defaults qui par contre sont facilement visibles lors de la mise en

production sur le site client.

Si les défauts représentent un coût négligeable en phase de conception ce

n’est pas le cas lors de la phase de production où le moindre défaut est un

coût important pour l’entreprise. Il convient donc s’axer les efforts en phase

de conception afin d’éviter par la suite d’être confronté à des contraintes

inhérentes au coût ou à la fiabilité du produit.

Auparavant les efforts de maximisation de la qualité de service, grâce à la

mise en exergue de la méthode six sigma, se faisaient en phase de

production. De nos jours c’est en phase de recherche et de développement

où ces efforts d’amélioration de la qualité des produits et/ou services se font.

Ceci permet de minimiser le plus possible les coût liés à la correction de

défauts et ce des la phase de définition des critères de qualité des produit et

services .(Annexe 1)

4.2.1-Define

Il convient lors de cette première étape d’identifier le contexte dans lequel se

trouvent les clients (données sensibles ou pas par exemple) ainsi que leurs

exigences fonctionnelles concernant le produit ou service final à livrer.

Pour cela il s’agira de fixer des objectifs en matière de qualité en

décomposant les besoins clients en CTQ «mesurables puis de cerner le type

de fonctions souhaitées, le type de besoin (performance, sécurité,

organisation) et l’enjeu du projet.

Pour atteindre les objectifs que décrit cette première phase un ensemble

d’outils et de méthodes sont utilisés, parmi lesquels le model de Kano qui

75

permet de cadrer et définir clairement le besoin, à travers un ensemble

d’interviews basées sur des affirmations antagonistes

Source: programme BAA HEC Montreal

Figurer 4.3 : Modèle d’interview

Figure 4.4 : Le modèle de Kano

Ce modèle propose une représentation selon deux axes : Le premier axe

vertical représente le degré de satisfaction du client et le second le degré de

Le téléphone possède un écran en couleur

1) Cela me plaît

2) Cela est normal ainsi

3) Cela m’est égal

4) Je m’en contente

5) Cela me déplaît

Le téléphone ne possède

pas d’écran en couleur

1) Cela me plaît

2) Cela est normal ainsi

3) Cela m’est égal

4) Je m’en contente

5) Cela me déplaît

76

réalisation d'une fonction, d'une caractéristique ou d'une prestation. Une fois

le cadrage des besoins effectué puis la décomposition des exigences client en

CTQ achevée , il est nécessaire de procéder aux mesures de ces CTQ.

4.2.2-Mesure

Les critères de qualités définis lors de l’étape précédente doivent faire l’objet

de mesures précises : c’est l’objet de cette phase. C’est au niveau des

spécifications fonctionnelles que le client va préciser les valeurs chiffrées des

résultats de la performance du produit qu’il souhaite obtenir avec une marge

d’erreur.

Il s’agira donc de respecter ces valeurs conformément aux spécifications.

Pour cela afin d’arriver aux résultats attendu par le client, un intervalle de

tolérance égal a 6σ serait idéal, cela signifierai que la fiabilité du produit

avoisinerai les 100% donc la perfection. En réalité il est difficile voir quasi

impossible d’atteindre ce seuil. En ce sens un système bien conçu aura un

une valeur égale à 2 sigma.

Cette phase consiste globalement à reproduire un ensemble de mesures de

façon répétitive et surtout dans les mêmes conditions de tests et de

développement, sans quoi les mesures seraient incorrectes. Une fois les

mesures réalisées on obtient la moyenne ainsi que la déviation standard

expliquée lors de la première phase de définition des CTQ.

Si l’écart type est faible, c’est à dire que toutes les valeurs se rapprochent de

la moyenne, une courbe est obtenue qui respecte la loi normale : la courbe

de gauss ».

77

Figure 4.5 :Processus non conforme aux CTQ client

Figure 4.6 : Processus conforme aux CTQ client

Dans ce cas la le processus est pratiquement conforme aux mesures désirées

par le client et le produit passe a l’étape suivante celle de l’analyse.

78

4.2.3-Analyse

La phase d’analyse constitue une phase très importante dans le

développement du produit ou du service puisqu’elle permet d’évaluer la

pertinence et la conformité du système. Autrement dit cette étape va

permettre de détecter les points faibles du système afin de pouvoir les

corriger par la suite. La méthode FMEA utilisée dans cette étape préconise

d'analyser les modes de défaillance, leurs effets sur le produit et leur criticité

(Annexe 4). Un tableau récapitulatif permettra de préciser les éléments

suivants :

• Les étapes du processus avec les paramètres en entrée

• Le mode d’échec potentiel

• Les effets de cet échec potentiel

• Les causes de cet échec

• Le plan d’action a mettre en place

Une fois ces éléments renseignes la dernière étape consiste a déterminer La

criticité des événements qui est donnée par la formule suivante :

Criticité C = G x F x D avec :

• G : la Gravité ( de 1 a 5)

• F : Probabilité d’apparition de la défaillance (de 1 a 4)

• D : la détectabilité (de 1 a 5)

Ce n’est qu’une fois cette analyse de risques effectuée que le développement

et l’amélioration du produit ou du service peut démarrer.

79

4.2.4.- Improve/verify

Le design du produit doit être paramétré avec des règles de nommage

précises dans le cas où il serait reprit par une autre entreprise ou un autre

collaborateur. Il s’agit d’adapter le développement aux besoins de

l’utilisateur et non pas l’inverse. L’étape d’optimisation du produit consiste à

en faire un produit robuste et de diminuer les risques de panne en identifiant

et en implémentant les solutions de prévention de dysfonctionnements.

La dernière étape est celle du contrôle du produit final, en vérifiant si les

prévisions coïncident avec le produit réel et si les spécifications(CTQ) de

départ ont été tenues.

Si l’une de ces étapes du DMAIC n’est pas conforme aux exigences client ou

nécessite une modification un autre processus prend le relai : le DFSS

4.3-le "DFSS": Design for six sigma

Le DFSS est une méthodologie qui est généralement couplée au DMAIC afin

de reprendre des produits ou processus ne répondant pas aux exigences de

chacune des étapes du DMAIC. Elle est aussi utilisée dans le cas d’une

évolution du besoin du client. Autrement dit cette méthode s’applique dans

deux cas : Soit le non respect d’une étape du DMAIC, ou alors une variabilité

des attentes du client qui contraint à revenir a la phase de définition des

CTQ.

80

Figure 4.7 : un processus parallèle d’amélioration de la qualité : Le

DFSS

Pour chacune des étapes du DMAIC on vérifie leur conformité :

Si aucune anomalie ne survient lors du DMAIC le processus continue sinon on

revient à l’étape de définition du DFSS.

Ces deux processus couplés qui permettent d’assurer une qualité de produit

ou de service optimale, sont en tout point un avantage pour les entreprises

d’aujourd’hui qui ont opté pour cette méthode d’amélioration de la qualité.

4.4- impact de la méthode sur la qualité de service client

4.4.1-Bénéfices pour les entreprises ayant adopte cette méthode

Les entreprises suivantes ont adopté et mis en œuvre avec succès Six Sigma

1985-87 : Utilisation des bases de la méthode par Motorola

1990: IBM

1991: Texas instrument

1994-1996: General Electric, Kodak

1996-1998: Nokia, Sony, Ford

81

C’est par l’intermédiaire de toutes ces structures que six sigma est arrivée en

France et s’applique de plus en plus sur toute l’Europe .Les bénéfices d’une

telle méthode sont les suivants :

• Flexibilité dans le changement de produits et services.

• Fiabilité des produits ou services.

• Bon rapport performances / coûts

• Qualité conçue des le départ.

• Croissance des revenus

• Satisfaction client

• Gains de part de marchés.

• Augmentation du volume de ventes

• Prix concurrentiels

• Réductions de coûts.

• Réduction des pertes lies aux défauts de conception.

L’application de cette méthode sur la mission proposée a la General Electric

à permit d’améliorer considérablement la qualité de l’application et par

conséquent la qualité de service.

4.4.2-Impact de la méthode sur le projet réalisé

Voici globalement les principaux CTQ qui ont été identifiés concernant ce

projet :

• CTQ temps de réponse

• CTQ visibilité

• CTQ modularité

• CTQ robustesse

Le principal CTQ sensible qui a été défini lors de la première étape de la

méthode est celui du temps de réponse. Nous allons dans ce qui suit nous

82

intéresser à l’évolution de ce CTQ au fur et à mesure de la modification du

développement. Il s’agit de respecter, conformément aux spécifications, un

temps de réponse de 3s pour les appels clients et FE.

Processus six sigma suivi pour ce CTQ particulier.

Define

CTQ = Temps de réponse.

Mesure

Mesure du délai entre l’émission d’un appel et la prise en compte de son

affichage sur l’application temps réelle.

Analyse

Défauts constates dans le développement qui ont été corriges et/ou

améliorés.

Improve /Control

Optimisation du code et vérification que les modifications du développement

n’impactent pas le fonctionnement de l’application et encore moins le temps

de réponse. (retro-développement)

Evolution du temps de réponse de l’application avec les différentes mesures

réalisés :

Les figures qui suivent montrent la fréquence d’obtention de la variable de

temps de réponse. L’axe horizontal représente le temps de réponse et l’axe

vertical la fréquence d’apparition de ce temps. Plus le nombre de mesures

effectuées est grand et plus l’on rapproche de la courbe de gauss.

Le LSL Lower Spec Limit concernant le CTQ temps de réponse est de 3s.

83

Design 1 Design 2

Design 1 :

Moyenne=14,58 secondes

Déviation standard =5,85

Nombre de sigma = |(Moyenne – LSL)/écart type)|

=|(14,58-3)/5,85|

= 2 sigma

Design 2 :

Moyenne=4,81 secondes

Déviation standard =1,19

Nombre de sigma = 1,5 sigma

Design final

Moyenne=2,43 secondes

Déviation standard = 0,71

Nombre de sigma = 1 sigma

84

Conclusion

Tout au long de ce mémoire nous avons vu globalement comment le

mouvement de démocratisation de l’informatique décisionnelle contribue à

améliorer la qualité de service client dans un contexte particulier : celui des

calls centers de GE Healthcare.

Force est de constater qu’une part encore non négligeable des managers ne

peut répondre à des questions liées a l’activité de leur entreprise telles que :

� Combien de clients avez-vous ?

� Pour chaque gamme de produit, quel est le volume de ventes de ce

trimestre ?

� Qui sont vos 20 meilleurs clients ?

La business intelligence avec la large panoplie d’outils et de méthodes qu’elle

propose pourra y répondre.

Aujourd’hui une grande partie des entreprises en incluant les PME/PMI

possèdent un volume d’informations de plus en plus important concernant

leurs clients, leurs fournisseurs, leurs ventes, leurs produits et services mais

aussi leurs concurrents, qu’elles n’exploitent pas forcément de la bonne

manière.

C’est pour cette raison là que nous avons vu comment en partant de

l’ensemble de ces informations volumineuses et hétérogènes provenant de

différentes sources, il est possible de les exploiter en les rendant riches et

visibles au moyen de la business intelligence. Ceci pour deux raisons

essentielles : une prise de décision plus rapide et efficace pour une

amélioration de la qualité de service client.

85

Nous sommes partis d’un concept global celui d’une ressource indispensable

à la prise de décision : l’information, en dressant les différentes formes

quelle peut revêtir, pour en arriver à la manière de la traiter et de l’exploiter

efficacement au moyen de l’informatique décisionnelle.

Il convient d’abstraire la structure de l’information, lui donner du sens et de

la convivialité. Exploiter l’information de manière efficace c’est se demander

de quelles types d’informations on dispose et comment peut on en effectuer

les traitements afin de refaire sortir les indicateurs clés de performance de

l’activité globale de l’entreprise. Ces bases d’informations permettent aux

entreprises de se doter d’un avantage concurrentiel non seulement par la

capitalisation de ces données mais aussi par leur analyse en vue de dégager

des tendances actuelles, les comparer aux précédentes et anticiper les

besoins des clients pour une meilleure qualité de service. Afin de mettre en

exergue cette notion d’exploitation efficace de données nous avons vu et

décrit tout au long de ce mémoire le système d’information dont dispose GE

Healthcare avec notamment les systèmes liés à la téléphonie (serveur

CMS,ACD,VDN…) , mais aussi au stockage des données clients (Mainframe

MUST) et comment, par l’intermédiaire de techniques avancées (ETL, screen

scrapping, datamining),l’information était restituée de façon claire pertinente

et surtout visible pour un pilotage éclairé de l’activité de l’entreprise.

Nous avons présenté les outils disponibles pour « informer » l’information

d’un ETL particulier (SSIS), avec les notions de packages, control flow et de

dataflow, qui fournit un ensemble de solutions pour gérer une masse

d’information de plus en plus grandissante.

La visibilité, la pertinence mais surtout la qualité de l’information a toujours

été un enjeu majeur pour les organisations qui, dans un environnement de

plus en plus concurrentiel, recherchent une qualité de produit et/ou de

86

service optimale. Pour cela nous avons évoqué un ensemble de méthodes

d’amélioration de la qualité de service (ITIL et Six sigma) avec une

application concrète de la méthode six sigma sur le projet dont j’avais la

charge.

L’outil Symon et la solution semblable développée (Tymon) pour les autres

pays (Italie , UK, Allemagne…) et mise en place à GE Healthcare à Buc , est

un moyen parmi d’autres de faciliter le processus stratégique de prise de

décision par les managers des calls centers de GE. En se sens grâce a cet

outil tous les indicateurs clés de l’activité globale de l’entreprise peuvent

êtres visualisés clairement sans aucune intervention ou manipulation

humaine.

Ce nouveau systeme developpé à la General electric permettra aux

managers des calls center d’avoir un outil que l’on peut qualifier de

management visuel permettant d’avoir les bonnes informations au bon

moment sans avoir à effectuer de longues operations manuelles et

repetitives.L’apport essentiel de ce developpement reside dans un gain de

temps conciderable et donc dans l’amelioration de la qualité de service qui a

été definie au cours de ce memoire.

A noter egalement l’aspect paramétrable et modulaire de l’application qui

pourra etre etendue a d’autres informations autres que celles des appels

clients et FE du call center.

En effet suite à de nombreuses discussions avec mes directeurs de projet il

s’avere que cette solution spécifique pour les calls center pourrait

éventuellement etre étendue pour les autres services de l’entreprise pour la

visualisation d’information en temps réel des « cases clarify » ,systeme de

gestion de tickets mais interne a l’entreprise.Ce systeme represente toutes

87

les demandes qui sont faites par les collaborateurs de l’entreprise concernant

leur conditions de travail (demande de formation,de matériel,congés…).

Le concept de business intelligence aborde tout au long de ce mémoire

représente donc un ensemble de techniques et d’outils s’adressant

particulièrement aux décideurs qui font face quotidiennement à des choix

stratégiques et tactiques. Il est donc nécessaire que les dirigeants (direction

générale mais aussi directions opérationnelles) aient un langage commun

partagé avec les techniciens de l’information.

L’objectif d’un tel système décisionnel est de connaître, mesurer, prevoir, et

d’agir en conséquence.

Les moyens pour y parvenir sont nombreux en passant par

� Une information :

Riche

Visible

Détaillée

Historisee

fiable

� des outils d’analyse et de restituions en adéquation avec le volume de

données à traiter

Aujourd’hui il existe un fossé d’incompréhension entre deux discours

diamétralement opposés :

D’un cote les discours marketing qui se focalisent sur l’informatique

décisionnelle et s’adressent aux dirigeants opérationnels des entreprises. Les

88

commerciaux, responsables marketing, RH s’efforcent d’offrir un large panel

de solutions particulièrement innovantes autour du métier de manager.

De l’autre cote on trouve les éditeurs de logiciels, dont le public concerné est

principalement celui des informaticiens, qui cherchent à réaliser un volume

important de vente de licences.

Les discours marketing actuels cherchent à prouver qu’il s’agit de se doter de

tel ou tel produit décisionnel pour que «tout marche ».Si l’on part sur ce type

de raisonnement , à quoi serviraient alors les consultants décisionnels, les

développeurs ainsi que les sociétés de services. Pour la mise en place de la

chaine décisionnel ces acteurs là ont leur rôle à jouer et sont indispensables

au déploiement et au maintien de projets BI.

Actuellement un constat de plusieurs entreprises notamment les SSII montre

que les métiers de l’informatique décisionnelle évoluent de plus en plus vers

des tâches d’administration de systèmes d’informations qui sont de plus en

plus complexes et qui ont un besoin crucial d’attention de soins et surtout de

sécurité.

« L'informatique devient bien plus complexe et, dans le même

temps, de plus en plus intimement imbriquée aux métiers de

l'entreprise »

Olivier Delachapelle, directeur marketing de Fujitsu Siemens Computers pour

la région du Benelux.

Au cours de ces dernières années et plus récemment, la manière dont les

entreprises utilisent leurs données a considérablement changé en évoluant

ainsi de simples traitements basiques à des méthodes et outils de prise de

89

décision efficaces qui permettent une utilisation stratégique des informations

dont disposent les organisations.

L’amélioration et le perfectionnement des méthodes, des outils et aussi des

différentes approches utilisées en BI, a parfait considérablement les

performances des organisations ayant recours à ce domaine particulier de

l’informatique. Le déploiement de projets BI , s’il est correctement planifie,

conçu et exécuté se traduira par une optimisation de la qualité de service

client et donc une profitabilité opérationnelle accrue.

Le déploiement d’un projet de business intelligence sera toujours aussi

avantageux pour les organisations actuelles s’il est bien conçu et ce a

différents points de vues :

� Amélioration de la qualité de service donc de la satisfaction

client.

• Accroissement de la rentabilité :

L’informatique décisionnelle pourra aider les entreprises à évaluer la

pérennité ou la durée de vie de leurs clients ainsi que les prévisions à court

terme de leurs résultats. Ces informations seront utilisées en tant que base

de connaissance afin de distinguer les clients rentables de ce qui ne le sont

pas.

• Diminution des couts inhérents a :

� La gestion logistique

� L’entreposage

� Aux frais de livraison

� Développement et amélioration de la gestion de la relation

Client (CRM).

90

Il s’agit essentiellement d’applications BI qui analysent les informations liées

aux comportements des clients. (Fréquence de commandes passées par

exemple).

L’analyse de ces données permettra d’améliorer la réactivité du service

propose ainsi que la fidélisation du client.

� Diminuer les risques :

Par l’analyse de la pérennité des clients et fournisseur (emprunts accordes

par exemple) afin de rationaliser le chaine logistique. En d’autres termes

adapter la stratégie d’entreprise en fonction de la situation financière des

créanciers.

Il est important de savoir que ce qui compte n’est pas ce que l’on sait mais

bien ce que l’on fait avec ce que l’on sait. En d’autres termes dans le

domaine de la Business intelligence il s’agit d’investir afin de construire un

environnement dans lequel les données (ce que l’on sait) sont transformées

en connaissances (ce que l’on fait avec ce que l’on sait).

Les organisations ne font pas que produire de l’information, elles disposent

d’un ensemble d’outils décisionnels et de méthodes afin d’extraire les

informations stratégiques souhaitées et enfin mesurer l’efficacité de la mise

en place de l’ensemble des actions entreprises, on parle de « ROI » (retour

sur investissement.)

91

De plus en plus de chefs de projets ont tendance à évaluer ce retour sur

investissement dans un projet BI

ROI = (économies réalisées – investissement /investissement ) *

100

Entreprendre un projet BI engendre des coûts qu’il convient de prendre en

compte :

� Les coûts fixes : Acquisition de l’infrastructure

Achats du datawartehouse

Licences de bases

Serveurs

� Les coûts variables : L’activité en elle même

Licences des outils ETL

� Coûts de développement

� Coûts de maintenance

Le secteur de la business intelligence n’est pas impacte par la crise

économique actuelle. En effet ce secteur reste en pleine croissance malgré la

crise que connaît notre société actuelle. Bien au contraire les ETL ainsi que

les outils de gestions dédiés à la BI représentent plus que jamais un secteur

d’activité en pleine croissance et permettent aux entreprises de faire face a

la concurrence, à la crise par une meilleure visibilité de la performance de

l’entreprise et une prise de décision rapide et efficace par cette période de

ralentissement économique.

92

Glossaire

ACD« Automatic Call Dispatch »

Commutateur automatique qui permet suivant un routage bien précis

d'acheminer des communications téléphoniques. A GE Healthcare ce

commutateur est chargé de réceptionner et d’aiguiller les appels clients ou

FE vers les operateurs des calls center.

BI « business intelligence »

Concept désignant les moyens permettant de rassembler , intégrer, analyser,

et partager les données de l’entreprise afin d’optimiser la prise de décision. Il

s’agit d’un terme qui désigne les solutions logicielles combinant à des fins

décisionnelles des fonctions d’interrogation de base de données de reporting

et d’analyse multidimensionnelle(OLAP).

CMS « Call management system»

Un système CMS constitue une solution d’efficacité opérationnelle proposant

une analyse et une création de rapports intégrés de façon à aider à rester en

contact avec tout ce qui se passe dans un call center qu’il s’agisse d’évaluer

les performances d’un agent, d’un groupe d’agents, d’un centre de contact

spécifique ou de plusieurs centres dans le monde entier.

A GE Healthcare le CMS déployé est celui d’AVAYA qui permet de

réceptionner les appels issus de l’ACD et d’en faire des statistiques.

Control flow

Composant d’un outil ETL qui peut regrouper plusieurs dataflow avec leur

liaisons et en contrôle l’exécution.

93

CRM « Customer Relationship Management»

Système permettant de renforcer la communication entre l’entreprise et ses

clients par l’automatisation des tâches :

� D’avant vente

� De vente

� De gestion de service client

� De service après vente.

CTQ « Critical To Quality»

Critères de qualité qui représentent la décomposition des exigences clients

en critères mesurables selon la méthode Six Sigma.

Data flow

Composant d’un ETL qui permet de lancer un ensemble de traitements d’une

source vers une destination par exemple.

Datamart

Sous ensemble d’un datawarehouse lié à un métier de l’entreprise (finance,

marketing, RH…) et conçu pour répondre à un besoin spécifique d’un groupe

d’utilisateurs tout en respectant les exigences de sécurité de l’entreprise.

Datamining

Méthode d’exploration automatique des données visant à révéler les

tendances récurrentes et corrélations entre les données difficilement

repérables a « l’œil nu ».

94

Datawarehouse

Entrepôt de données, isolé des systèmes opérationnels permettant de

stocker des données thématiques dans un but de faciliter la prise de

décision.

DFSS «Design For Six Sigma»

Le DFSS a pour objectif de déterminer les besoins des clients de l'entreprise,

et la conduite de ces besoins dans la solution du produit à créer.

EAI «Entreprise Application Integration »

Il s’agit d’un terme désignant l’interopérabilité et l’organisation de la

circulation de l’information entre des applications hétérogènes. En d’autres

termes les EAI permettent de faire communiquer les différentes applications

constituant les systèmes d’informations de l ‘entreprise.

EIS «Executive Information System»

Tableaux de bords et graphiques synthétiques présentant une vision assez

large de l’activité d’une organisation.

ETL «Extract Transform Load»

Outils destinés à l’extraction la transformation et au chargement des

données dans le datawarehouse.

FE «Field Engineer »

Ingénieur terrain de GE qui se déplacent sur les sites clients (hôpitaux,

cliniques, cabinets médicaux) afin de résoudre des anomalies liées aux

systèmes médicaux qu’elles soient matérielles ou logicielles.

95

JOB MUST

Ouvertures d’affaires après vente .Il s’agit d’un client qui appelle pour un

dysfonctionnement matériel ou logiciel de ses équipements d’imagerie

médicale

LCT

Dans le jargon de GE un LCT représente un ensemble de secteurs.

MUST

Main frame utilisé par GE Healthcare afin de gérer et traiter l’ensemble des

données clients avec en particulier les ouvertures d’affaires après vente.

OLAP «Online Analytical Processing»

Technologie utilisant des structures multidimensionnelles (cube OLAP) pour

offrir un accès rapide aux données en vue d’une analyse. Ces données sont

souvent stockées dans le datawarehouse.

Secteurs

A GE les secteurs correspondent à un numéro unique qui identifie un

ensemble de départements.

Six sigma

Méthode d’amélioration de la qualité de service ou de produit donné par la

décomposition des besoins clients en critères mesurables (CTQ).

96

Symon

Symon communications est un des principaux fournisseurs mondiaux de

solutions de communication visuelle. Il propose des solutions de logiciels et

matériel pour la gestion de la collecte, conception, et planification de contenu

numérique. C’est uniquement à GE Healthcare Buc que les managers du call

center possèdent le « panneau Symon » pour la visualisation des appels

clients et FE en temps réel.

Tymon

Solution équivalente développée pour les autres calls center de GE

Healthcare qui comprend, en plus des appels clients et FE du Symon, les jobs

must en attente en temps réel pour chaque LCT de chaque pays, avec un

système de basculement d’ecran entre chaque LCT.

VDN «Virtual Dial Number»

Numéros utilisés dans les ACD pour connecter les appels client ou FE vers un

vecteur de transformation.

Vecteur

Liste de nombres qui identifient la provenance de l’appel. Un vecteur peut

acheminer les appels vers d'autres destinations. Chaque vecteur est identifié

par un VDN.L’utilisation de vecteurs permet de définir le comportement du

système lors d’un appel (Redrection d’appel, délai d’attente , configuration

du message d’attente…)

97

Table de figures

Figure 1 : Cube OLAP .................................................................................................................... 5

Figure 2 : Panneau Symon ........................................................................................................... 7

Figure 1.2: La collecte d’informations ....................................................................................... 14

Figure 1.3: Processus de gestion d’appels a GE. ........................................................................ 15

Figure 1.5 : EIS pour le volume de ventes .................................................................................. 20

Figure 1.6: le client un actif de l’entreprise (centralisation sur serveur des accès). ................. 21

Figure 1.7: La transmission de données sources vers des données de destination .................. 24

Figure 1.8: Traitement et affichage des données par l’ETL Symon. .......................................... 26

Figure 1.9 : Les étapes de la prise de décision dans l’entreprise .............................................. 34

Figure 1.9.1 : Le domaine transactionnel et analytique. ........................................................... 35

Figure2.2 : impact de la business intelligence sur la qualité de service client. ......................... 41

Figure 2.3 : exemple de représentation habituelle du modèle multidimensionnel sous forme

decube. ...................................................................................................................................... 42

Figure 2.5 : OLAP et le datamining ............................................................................................ 47

Figure 2.6 : Modélisation des données CMS ............................................................................. 48

Figure 2.7 : Modélisation des données MUST ........................................................................... 49

Figure 3.1 : approche traditionnelle de transformation des données par stockage temporaire.

................................................................................................................................................... 50

Figure 3.3 : Alimentation de l’ETL .............................................................................................. 51

Figure 3.4 : le processus ETL en 3 étapes .................................................................................. 56

Figure 3.5 :Processus fonctionnel de transmission de l’information ....................................... 58

Figure 3.6: Processus technique de transmission de l’information .......................................... 59

Figure 3.7:Ecran A226 must sur lequel le screen scraper réalise l’extraction. .......................... 61

Figure 3.8:Création d’un rapport CMS temps réel .................................................................... 63

Figure 3.9:Le rapport CMS temps réel généré........................................................................... 64

Figure 3.9.1: Structure d’un package MUST ou CMS ................................................................. 65

Figure 3.9.2: le contrôle flow qui lance le dataflow. ................................................................. 66

98

Figure 3.9.3: le data flow qui lance l’alimentation du datawarehouse. .................................... 66

Figure 3.9.4: Mappage des champs entre le fichier source et la table de destination ............. 68

Figure 3.9.5: Ecran salle pour tous les Call center. .................................................................... 69

Figure 3.9.6: Ecran user pour tous les Call center. .................................................................... 69

Figure 4.1 : Courbe de gauss ...................................................................................................... 72

Figure 4.2: Plusieurs étapes pour une qualité de service optimale .......................................... 73

Figure 4.3 : Modèle d’interview ................................................................................................. 75

Figure 4.4 : Le modèle de Kano.................................................................................................. 75

Figure 4.5 :Processus non conforme aux CTQ client ................................................................. 77

Figure 4.6 : Processus conforme aux CTQ client ........................................................................ 77

Figure 4.7 : un processus parallèle d’amélioration de la qualité : Le DFSS ............................... 80

99

Table des matières

Introduction : ........................................................................................................................................... 1

1-L’information une ressource stratégique ............................................................................................. 10

1.1-Les différentes catégories d ‘informations .................................................................................... 10

1.1.1-L’information formelle .......................................................................................................... 10

1.1.2-L’information informelle ........................................................................................................ 12

1.1.3- Le Croisement des deux sources d’informations ................................................................... 13

1.1.4-L’information existante concernant le projet réalise .............................................................. 14

1.2- Evolution de l’information et des techniques de visualisations. ................................................... 18

1.2.1 –Historique ............................................................................................................................ 18

1.2.2- Symon : une solution d’affichage et de visualisation efficace. ............................................... 25

1.3-L’Information au centre de la décision en entreprise. ................................................................... 30

1.3.1-La prise de décision. .............................................................................................................. 30

1.3.2-Cas pratique : La prise de décision par les managers des calls center a la General Electric. .... 32

1.3.3-Evolution croissante du besoin d’aide a la décision. ............................................................... 33

2- La business intelligence pour un meilleur management de la qualité de service. ................................ 37

2.1- BI et intelligence économique : un abus de langage ? .................................................................. 37

2.1.1- Définitions ............................................................................................................................ 37

2.1.2- Les impacts de l’informatique décisionnelle sur la qualité de service .................................... 39

2.1.3- ITIL : Un référentiel et un outil supplémentaire pour l'optimisation de la qualité de service .. 43

2.2- Un service d’intégration : le Datawarehouse ............................................................................... 45

2.2.1-Concepts généraux ................................................................................................................ 45

2.3-Une Analyse multidimensionnelle : Le datamining ....................................................................... 46

2.3.1-OLAP et la fouille de données ................................................................................................ 46

2.3.2-Analyse et représentation des données du projet .................................................................. 48

3-Caractéristiques du mécanisme de centralisation des données par ETL. .............................................. 49

3.1- Le marche et les catégories d'outils ETL ....................................................................................... 49

3.1.1- Approche et définition des ETL ............................................................................................. 49

3.1.2 – Histoire et marche actuel des ETL ....................................................................................... 53

100

3.1.3 - ETL vs EAI: L'EAI n'est pas l'ETL, et vice-versa. ...................................................................... 55

3.2- Les ETL : un besoin de normalisation : Les causes du phénomène en 3 étapes ............................. 56

3.3- Mise en place pour le projet du processus ETL ............................................................................ 57

3.4-Impacts de la solution déployée : « le visual management » ......................................................... 70

4-Une méthode pour une meilleure qualité de service client : Lean Six Sigma ........................................ 71

4.1- Lean Six Sigma : un système qui aide à "prévoir" pour ne pas être obligé de "revoir" .................. 71

4.2- Une méthodologie par étapes le « DMAIC » :define mesure analyse improove control ............... 73

4.2.1-Define ................................................................................................................................... 74

4.2.2-Mesure .................................................................................................................................. 76

4.2.3-Analyse ................................................................................................................................. 78

4.2.4.- Improve/Verify .................................................................................................................... 79

4.3-Le "DFSS": Design for six sigma ..................................................................................................... 79

4.4- Impact de la méthode sur la qualité de service client .................................................................. 80

4.4.1-Bénéfices pour les entreprises ayant adopte cette méthode ................................................. 80

4.4.2-Impact de la méthode sur le projet réalisé ............................................................................. 81

Conclusion ............................................................................................................................................. 84

Glossaire ................................................................................................................................................ 92

Table de figures ..................................................................................................................................... 97

Table des matières ................................................................................................................................. 98

Annexes ................................................................................................................................................. 99

Bibliographie........................................................................................................................................ 113

101

Annexes

Annexe 1 : SRS (system requirement specifications) (Le besoin des

manager des calls center)

System Usage

Here is what currently the current system is doing and how users are

handling must data :

All the data aren’t centralized and each user has to launch it’s own macro in

order to get all the informations of the jobs as we see below :

102

In Buc there is a global display solution named Symon that can display all

the calls features like SL, Abd, MWT.The other countries don’t have this

solution and all their CMS data are difficult to read.

New systems to be designed :

The other countries don’t have a Symon like solution for their cms data.

The data of all these countries are heterogene and not well visible that’s why

a Symon like solution is requested. Further More all the data of all the

countries will be centralized in buc to be displaying thereafter.

For all the countries it’s necessary to extract and display these the following

data :

Clients calls FE calls Waiting time Percent of Abandon Percent of service level Time waiting Inbound call pending per Sector Inbound call pending per LCT

103

There is a global need from EMEA CSCs (Customer Service Centers) to have

an in room display on a large flat panel of MUST jobs in REA, ranked by

waiting time and severity. Currently, the same display is made for customer

calls waiting, but not for the MUST jobs in REA. The solution of display is

identified. The collect of requested data from MUST is missing

The objective is to optimize the time to assign the customer jobs by the

same way as the time to answer Customer Calls live is currently managed

(Visual Management). The impact is Customer satisfaction and internal

productivity in CSCs.

DETAILED REQUIREMENTS

The data to extract should be limited to the following database, countries

and age:

Databases: MUST U.K. and IRELAND MUSTPA07 MUST ITALY MUSTPA05 MUST CENTRAL EUROPE MUSTPA04 MUST FRANCE MUSTPA01 MUST IBERIA MUSTPA06

Countries: UK, IT, GE, FR, SP

Jobs with age less than 1 week should be displayed

The data to extract should be limited to data linked to the current jobs #

104

with:

- SYSTEM STATUS = “REA” and JOB TYPE = “C” (Corrective) or “A” (Applicative)

AND

- CBS field = “R”

Data to extract for each of the jobs passing through the above filters:

JOB NUMBER

JOB OPEN DATE

CUSTOMER EXPECTATION

PRIORITY

SITE NAME

SYSTEM NAME

COUNTRY

ACTIVITY CENTER

SERVICE AREA (i.e. the 3 last digit of the job #)

CBS Field

Cust Notif

CBS field

R : Required field

D : Job transferred live to FE.

N : Not required field , job with no technical call back required.

Only the CBS field equal to R should be extracted whatever the job status

(for customer expectation A and priority 1 and 2) needs to be filled in 30

minutes so we could show a message arrange technical call back 5 minutes

before the due time

Cust Notif to be filled in :

30 minutes for customer expectation A. 2 hrs for customer expectation B. Opening hours CEU Time when the data are requested

105

Opening hours CEU Time

06:00 AM to 20:00 PM

The Refresh Time is the most important CTQ. The code algorithm should be full designed with the objective to minimize the refresh time Refresh time to get the updated list of the filtered jobs:

Refresh Time to get the update of

the filtered jobs

< 5 sec

CTQs (Crtiteres de qualite : Decomposition du besoin client en critères mesurables)

This section shall take the high level description and break it down into

individual features or functions. The following aspects should be addressed if

applicable:

Feature Name

Objective and Detailed Description

The objective of the feature or function and the details of its use, including

interface with other parts of the system. Critical business rules and system

logic should be highlighted. Indicate whether or not this feature is GxP

relevant and also consider any safety aspects or global requirements such as

multiple languages.

Customer CTQs

• CTQ_Response Time: a new user requesting Tymon on his PC must get it as fast as possible

• CTQ_Visibility the decision information provided to the CSC must be exact

• CTQ_Uptime: Tymon should be intuitive and fast to use

106

• CTQ_Perenity: Tymon should have no impact on the performance of the other applications running on the user PC

System CTQs

Flowdown of the above Customer CTQs to System CTQs (=> should be measurable variables) :

Customer CTQ System CTQ Description How to

measure

Specifications

CTQ_Response

Time

CTQ_ResponseTime-

CMS

CTQ_ResponseTime-

MUST

CMS: make a call as a Customer = Start-Time as soon as the call is answered by the PBX

Detect when

the call is

displayed on

the user PC

= stop time

Response

Time = Stop-

Time – Start-

Time

Time

between a

Case

opened

and closed

Upper Spec

Limit =

CMS ≤ 3 sec

MUST ≤ 15 sec

107

Annexe 2 : Extrait d’un script d’extraction de données CMS (Figure

3.2 script acsauto)

LANGUAGE=ENU

SERVERNAME=3.249.35.112

Chemin du rapport CMS

Const EXTRACT_SCRIPT_1 = "Real-Time\Designer\FE_CLIENT"

Chemin du fichier texte à générer :

Const EXTRACT_PATH_1 = "D:\DEV_EXTRACT\CMS\cms.txt"

Public Sub Main()

cvsSrv.Reports.ACD = 1

Set Info = cvsSrv.Reports.Reports("Real-Time\Designer\FE_CLIENTS")

If Info Is Nothing Then

If cvsSrv.Interactive Then

MsgBox "The report Real-Time\Designer\FE_CLIENTS was not found on ACD 1.", vbCritical Or vbOKOnly, "Avaya CMS Supervisor"

Else

Set Log = CreateObject("ACSERR.cvsLog")

Log.AutoLogWrite "The report Real-Time\Designer\FE_CLIENTS was not found on ACD 1."

Set Log = Nothing

End If

Else

Génération et configuration du rapport :

b = cvsSrv.Reports.CreateReport(Info,Rep)

If b Then

do while Err.Number = 0

108

Rep.Window.Width = 19170

Rep.Window.Height = 15000

Rep.SetProperty "VDNs0","1226-1240"

Rep.SetProperty "VDNs1","6221-6236"

Alimentation constante du fichier CMS par les valeurs du rapport :

b = Rep.ExportData(EXTRACT_PATH_1, 9, 0, False, False, True)

Loop

Rep.Quit

If Not cvsSrv.Interactive Then cvsSrv.ActiveTasks.Remove Rep.TaskID

Set Rep = Nothing

End If

End If

Set Info = Nothing

End Sub

Annexe 3 : Extrait du script d’extraction de données MUST ITALY

(screen scrapping figure 3.2)

Option explicit

Declare Function GetCurrentProcessId Lib "kernel32.dll" ( ) As Long Declare Function CloseHandle Lib "kernel32" (ByVal hObject As Long) As Long Declare Function OpenProcess Lib "kernel32" (ByVal dwDesiredAccess As Long,

Sub Main

Dim HostExplorer as Object Dim MyHost as Object

Dim WaitTime as Long Dim count_row as Integer Dim getRow as integer Dim x as integer

109

Dim z as integer Dim mes_DEB_OF_LIST_FR As String Dim JobArray(1 to 1000) As String Dim datew as string Dim datenew as string Dim dayj as string Dim monthm as string Dim yearannee as string

Definition de la date de recuperation des jobs par rapport au SRS (jobs datant de moins d’une semaine)

datew = date - 7

dayj = Mid(datew,1,2) monthm = Mid(datew,4,2) yearannee = Mid(datew,9,2) datenew =dayj+monthm+yearannee

mes_DEB_OF_LIST_FR = "0000"

WaitTime = 1000

Set HostExplorer = CreateObject("HostExplorer") ' Initialize HostExplorer Object Sleep 1500

HostExplorer.StartSession"D:\Documents and Settings\100038293\Desktop\EDC.hep"

Sleep 1500

Connexion au mainframe

HostExplorer.CurrentHost.Keys("must") HostExplorer.CurrentHost.RunCmd("Enter") Sleep(WaitTime) HostExplorer.CurrentHost.Keys("oulhata") Sleep(WaitTime) HostExplorer.CurrentHost.RunCmd("Tab") Sleep(WaitTime) HostExplorer.CurrentHost.Keys("oulhaj23oulhaj") Sleep 2000 HostExplorer.CurrentHost.RunCmd("Enter") Sleep(WaitTime) HostExplorer.CurrentHost.Keys("x") HostExplorer.CurrentHost.RunCmd("Enter")

110

Defintion des types de donnees a afficher par le mainframe conformement aux specifications fonctionnelles (jobs en REA,date…)

HostExplorer.CurrentHost.Keys("000") HostExplorer.CurrentHost.Keys("REA") HostExplorer.CurrentHost.Keys(datenew) HostExplorer.CurrentHost.RunCmd("Tab") HostExplorer.CurrentHost.Keys("R") HostExplorer.CurrentHost.RunCmd("Enter")

Dim intFic as Integer

Declaration des des champs a extraire de l’ecran.

Dim num as string Dim T as string Dim ACT as string Dim STT as string Dim MOT as string Dim D as string Dim C as string Dim P as string Dim CBS as string Dim A as string Dim O as string Dim SITE as string Dim SYSTEM as string

Dim FE as string 'postions for mid function 73,8 Dim annee as string 'postions for mid function 43,2 Dim mois as string 'postions for mid function 41,2 Dim jour as string 'postions for mid function 39,2 Dim heure as string 'postions for mid function 46,2 Dim minute as string 'postions for mid function 48,2

intFic = FreeFile()

ouverture du fichier MUST ITALY

open "D:\DEV_EXTRACT\EXTRACT_FILE_MUST_ITALY.txt" for Output as #intFic

Print #intFic , chr(13)

for x = 8 to 18

JobArray(x) = HostExplorer.CurrentHost.Row(x)

Declaration des positions des champs a extraire de l’ecran.

111

num = Mid(JobArray(x),1,11) T = Mid(JobArray(x),13,1) ACT = Mid(JobArray(x),15,3) STT = Mid(JobArray(x),19,3) MOT = Mid(JobArray(x),23,1) D = Mid(JobArray(x),27,1) C = Mid(JobArray(x),28,1) P = Mid(JobArray(x),30,1) CBS = Mid(JobArray(x),32,1) A = Mid(JobArray(x),34,1) O = Mid(JobArray(x),36,1) annee = Mid(JobArray(x),43,2) mois =Mid(JobArray(x),41,2) jour =Mid(JobArray(x),39,2) heure =Mid(JobArray(x),46,2) minute =Mid(JobArray(x),48,2) SITE = Mid(JobArray(x),53,10) SYSTEM = Mid(JobArray(x),64,8) FE= Mid(JobArray(x),73,8)

Si le screenscraper rencontre des valeurs nulles le programme s’arrete sinon il alimente le fichier MUST ITALY avec les valeurs des champs qui ont ete parametres ci avant.

if JobArray(x) like "*"+mes_DEB_OF_LIST_FR+"*" then

'MsgBox "END JOB SCAN DEBUT LISTE"

Close #intFic

exit for

else

Alimentation du fichier MUST_ITALY

Print #intFic , num+"," + T + "," + ACT + ","+ STT + ","+ MOT + ","+ D + ","+ C + ","+ P + ","+ CBS + ","+ A + "," + O + "," +"20"+annee+"-"+mois+"-"+jour+" "+heure+":"+minute+":"+"00"+ + "," + SITE + "," + SYSTEM + "," + FE + ";"

end if

Next x

112

Annexe 4 : Analyse des risques par la méthode FMEA

113

Bibliographie

« Les ETL motorisent les plates-formes décisionnelles »

Alain Clapaud, article 01 informatique 24 décembre 2008

Présente une première approche des outils ETL en dressant une liste

exhaustive de leurs points forts et faibles. Il expose également le retour sur

investissement pour les entreprises utilisatrices de ces outils.

« Six Sigma : Un échelon en plus dans la productivité ? »

Aline Berger - Thésame mécatronique & management, Le journal

d'information technologique des pays de haute Savoie.

Offre une explication complète de la méthode Six Sigma ainsi que les

différentes étapes à mettre en œuvre dans ce processus d’amélioration de la

qualité.

« Defining Business Analytics and Its Impact On Organizational

Decision-Making. »

Market vibe computer world, February 2009.

Enquête de la société computer world visant à illustrer le positionnement de

la Business Intelligence dans les différents secteurs d’activités des

entreprises ainsi que son impact sur la prise de décision.

« Tout sur les systèmes d’information. » (Business intelligence)

Jean François Pillou , Editions Dunod, 2008.

114

Ce livre offre une partie claire et complète sur les technologies utilisées par

Les décideurs en passant par le système d’information décisionnel

(datawarehouse,datamart) a l’analyse décisionnelle(datamining, OLAP)

« le portail francophone du pilotage de la performance :

the eternal mystery of the world is it’s comprehensibility Albert

Einstein »

Alain Fernandez 1999

Portail présentant de manière très succincte les questions pouvant êtres soulevées

dans un projet décisionnel.

«Visualzing data»

Ben Fry, Editions O’Reilly , 2008

Expose les principes de base de visualisation, comment choisir le bon

type d'affichage et comment fournir des fonctionnalités interactives (via

java avec la bibliothèque « processing »)

« Mise en œuvre d’un projet décisionnel »

Business intelligence avec sql serveur 2005.

Bertrand Burquier, consultant et ingénieur en systèmes d’information,

Editions Dunod, 2007

Cet ouvrage a pour objectif de mettre en exergue les étapes d’un projet

décisionnel ainsi que les différents outils permettant la conception d’un

datawarehouse.

«The ETL Market Reborn.»

Stephen Swoyer, 2005

115

Présentation réalisée par les cabinets de consulting Américains Gartner

group et Forester du marche des ETL ainsi que les perspectives

d’évolution de ce secteur.

«Projets décisionnels comment accompagner les changements organisationnels» David autissier, maitre de conférence spécialiste en conduite du

changement, le magazine de la décision.

Interview publiée en juillet 2005 de David autissier qui retrace la

manière avec laquelle les entreprises font face à la transformation et

l’évolution de leurs systèmes d’information.

«Bien décider en mois d’une heure» frederic bonneton , coach du magazine challenges , Edition eyrolles , 2005.

Ouvrage sur la méthodologie d’aide à la prise de décision rapide dans un

projet décisionnel avec les contrainte à respecter tant au niveau humain

que financier.

«Le data warehouse : guide de conduite de projet » R. Kimball, L. Reeves, M. Ross, Edition Eyrolles , 2005

Offre une approche centrée marché du data warehouse en réponse aux

besoins des entreprises

«Les nouveaux tableaux de bord des managers» Alain Fernandez, Edition Eyrolles , 2008

Expose de manière très claire le processus stratégique de prise de

décision à travers les tableaux de bords en expliquant comment les

adapter en fonction de la situation de l’entreprise et des décideurs.

116

«Decisions making,Harvard business review» Harvard Business School Press, 2001

Explique les théories fondamentales et des pratiques de prise de décision

efficace à travers des exemples de grands patrons américains.