veille technologique : la virtualisation informatique en ... devraient les faire hanger d’avis :...

11
Veille technologique : La virtualisation informatique en entreprise Lors de mes deux années de contrat de professionnalisation en BTS SIO option SISR , dans les deux entreprises ou j’ai travaillé , j ai constaté que la virtualisation que ce soit des postes de travail , des serveurs et enfin du réseau est devenu un atout et un objectif majeur . Ainsi j’ai voulu étudier l’évolution de la virtualisation au sein des entreprises d’un point technique (évolution des systèmes, développement du marché ) mais aussi les avantages et les inconvénients rencontrés . J’ai donc à la fin de ces deux années d’études d’articles de provenances diverses remarquer l’évolution suivantes : - La virtualisation des postes de travail : un objectif indispensable pour l’entreprise. - La virtualisation s’étend à la mobilité. - La virtualisation du réseau I) La virtualisation des postes de travail : un objectif indispensable pour l’entreprise. Nous commençons cette veille par un article de juin /juillet 2013 afin de faire un étant des lieux sur le développement et la connaissance des technologies en matière de virtualisation. 1° article GDF Suez bascule ses 120 000 PC dans le cloud Dominique Filippone 06/06/13 18:16 Le groupe énergétique compte basculer 35 000 PC dans le cloud par an grâce aux solutions de VMware et à l'intégrateur Unisys. Les salariés peuvent se connecter à leur environnement de travail virtuel depuis une tablette. GDF Suez met plein gaz sur le cloud. Accompagné de l'intégrateur Unisys, le géant français de l'énergie s'est lancé dans la virtualisation de ses 120 000 postes de travail dans le cadre d'un vaste projet de cloud privé, a fait savoir Jean-Paul Amoros, directeur de l'infrastructure de production chez GDF Suez, qui s'exprimait dans le cadre du VMware Forum 2013 le 6 juin à Paris. [d'après nos sources, il s'agirait d'une hypothèse de travail, NDLR] . A ce jour, 35 000 PC commencent à être basculés dans ce cloud, et des dizaines de milliers d'autres le seront dans les mois à venir [ d'après nos sources, actuellement 5 500 postes ont été virtualisés en beta test, NDLR]. D'un point de vue technologique, c'est sur les solutions de VMware que GDF Suez s'est reposé. Au premier rang desquelles VMware Horizon View pour permettre aux utilisateurs de se connecter à leur environnement de travail depuis n'importe quel terminal (y compris des tablettes), et VMware Mirage pour sécuriser les profils utilisateurs des collaborateurs accèdant à leur environnement de travail virtuel depuis un PC portable. Mais également ThinApp, pour virtualiser les applications clients et permettre une interopérabilité avec les applications historiques de GDF Suez. Les enjeux de la mise en place de ce projet de virtualisation ? "Il fallait permettre aux utilisateurs de se connecter à leur environnement de travail quel que soit le terminal, et mettre en place un portail de self provisioning pour qu'ils puissent déclencher de nouveaux services métiers", a indiqué Jean-Paul Amoros, directeur de l'infrastructure de production chez GDF Suez, qui s'exprimait dans le cadre du VMware Forum 2013 le 6 juin à Paris. Le choix de se tourner vers VMware a été guidé par les objectifs de GDF Suez en termes de haute disponibilité, de sécurité des environnements virtuels, et de facilité de déploiement. Mais également par la prise en charge d'un stockage cloud de grande capacité, fixé entre 25 et 50Go par utilisateur. L'infrastructure technique de GDF Suez se compose notamment de 120 000 postes de travail, 12 000 serveurs et 80 data centers. Le coût informatique de l'entreprise atteint 600 millions d'euros pour un chiffre d'affaires de 97 milliards d'euros en 2012. 2° article La virtualisation des postes de travail : réponse aux enjeux informatiques Chronique de Philippe Labaste/Dell France 16/07/13 18:32 Vous avez certainement virtualisé vos serveurs et systèmes de stockage mais avez-vous également virtualisé vos postes de travail ? Voici quelques bonnes raisons de le faire. De nombreuses équipes informatiques ont adopté la virtualisation des serveurs et des systèmes de stockage ces dernières années, mais rares sont ceux qui sont massivement allés plus loin tandis que d’autres n’ont pu envisager la virtualisation, faute de moyens financiers ou d’expertise ou par crainte des risques sécuritaires et d’une dégradation des performances. Les avantages durables de la virtualisation des postes de travail devraient les faire changer d’avis : moindres besoins et coûts de maintenance informatique rationalisés, gains de productivité et de flexibilité pour des utilisateurs qui vivent pleinement l’expérience du PC. La virtualisation de postes de travail est différente de la virtualisation de serveurs et de systèmes de stockage. La virtualisation des serveurs implique de répartir la capacité de traitement d’un serveur physique entre différents usages. De même, la virtualisation des systèmes de stockage consiste à regrouper la capacité de stockage physique de plusieurs services de stockage. Le principe de la virtualisation des postes de travail, en revanche, n’est pas de faire cohabiter plusieurs utilisateurs sur un seul poste de travail, mais de transférer les ressources du disque dur d’un PC vers un serveur pour les redistribuer à plusieurs PC, tablettes, smartphones et clients légers, sans contraintes géographiques ou presque, de manière à désolidariser l’utilisateur d’un terminal en particulier. Cette technique transpose ainsi aux postes de travail les avantages de sécurité renforcée et de simplicité de maintenance de la virtualisation de serveurs. Les applications et données sont stockées non plus sur un poste de travail local mais sur un serveur central sécurisé. Il devient alors possible d’accéder partout à son environnement bureautique, depuis n’importe quel terminal.D’un point de vue matériel, il existe toute une gamme de produits répondant aux besoins spécifiques des utilisateurs tels que la virtualisation de stations graphiques pour la conception assistée par ordinateur. Trois types de postes clients se prêtent particulièrement à la virtualisation de postes de travail. Parmi ceux-ci, le client léger traditionnel, à savoir un terminal sans disque et sans mémoire, qui se résume à une petite unité de traitement à laquelle se raccordent un clavier, une souris et un écran. Le client léger exige une connexion fiable et constante au serveur car il affiche à l’écran un environnement informatique résidant sur le serveur.Vient ensuite le Cloud PC, similaire du point de vue matériel à un PC, mais sans disque dur: le système d’exploitation et les applications résidant sur le serveur sont exécutées en local, garantissant ainsi les mêmes performances qu’un PC classique et mobilisant moins d’espace dans le datacenter. C’est la solution idéale pour résoudre les problèmes de performance, de gestion d’image système et de sécurité des filiales locales ou distantes. Enfin, le client zéro, un type de client optimisé pour un environnement dédié qui n’inclut qu’un système ultra réduit en local. Il ne fonctionne qu’avec les environnements Citrix, Microsoft et VMware. Conçus pour un environnement dédié, ils offrent une expérience optimale avec cet environnement et une sécurité inégalée.Les avantages de la virtualisation de postes de travail sont nombreux et permettent de résoudre des problèmes concrets et actuels : Migration de Windows Windows XP est resté sur le marché plus d’une décennie, période très longue pour un système d’exploitation. Microsoft a décidé de mettre fin au support de Windows XP. Les organisations doivent donc se résoudre à migrer vers Windows 7 ou Windows 8. Cette opération nécessite d’intervenir sur chaque ordinateur de l’entreprise pour remplacer XP par Windows 7 ou 8, avec les trop longues indisponibilités que cela suppose pour chaque employé, ou alors d’investir pour remplacer les postes de travail. L’alternative serait d’héberger les postes de travail dans le Cloud interne de l’entreprise. Quelques minutes suffiront alors pour y charger l’environnement Windows 7/8 virtuel, au lieu de plusieurs semaines voire des mois pour une migration traditionnelle, selon la taille de l’entreprise. Performances optimales Ne vous fiez pas à la petite taille de ces clients. Derrière leur format compact se cachent des technologies dernier cri ; installables partout, ils mobilisent très peu d’espace tout en vous offrant toutes les performances dont vous avez besoin. Ces clients légers consomment par ailleurs moins de 20 Watts (moins de 8 W pour la plupart), contre 100 W minimum pour un ordinateur fixe ou portable classique. Portabilité extrême

Upload: trannga

Post on 25-Apr-2018

219 views

Category:

Documents


1 download

TRANSCRIPT

Veille technologique : La virtualisation informatique en entreprise

Lors de mes deux années de contrat de professionnalisation en BTS SIO option SISR , dans les deux entreprises ou j’ai travaillé , j ai constaté que la virtualisation

que ce soit des postes de travail , des serveurs et enfin du réseau est devenu un atout et un objectif majeur .

Ainsi j’ai voulu étudier l’évolution de la virtualisation au sein des entreprises d’un point technique (évolution des systèmes, développement du marché ) mais

aussi les avantages et les inconvénients rencontrés .

J’ai donc à la fin de ces deux années d’études d’articles de provenances diverses remarquer l’évolution suivantes :

- La virtualisation des postes de travail : un objectif indispensable pour l’entreprise.

- La virtualisation s’étend à la mobilité.

- La virtualisation du réseau

I) La virtualisation des postes de travail : un objectif indispensable pour

l’entreprise.

Nous commençons cette veille par un article de juin /juillet 2013 afin de faire un étant des lieux sur le développement et la connaissance des technologies en

matière de virtualisation.

1° article

GDF Suez bascule ses 120 000 PC dans le cloud

Dominique Filippone 06/06/13 18:16

Le groupe énergétique compte basculer 35 000 PC dans le cloud par an grâce aux solutions de VMware et à l'intégrateur Unisys. Les salariés peuvent se connecter à leur environnement de travail virtuel

depuis une tablette.

GDF Suez met plein gaz sur le cloud. Accompagné de l'intégrateur Unisys, le géant français de l'énergie s'est lancé dans la virtualisation de ses 120 000 postes de travail dans le cadre d'un vaste projet de cloud privé, a

fait savoir Jean-Paul Amoros, directeur de l'infrastructure de production chez GDF Suez, qui s'exprimait dans le cadre du VMware Forum 2013 le 6 juin à Paris. [d'après nos sources, il s'agirait d'une hypothèse de

travail, NDLR] . A ce jour, 35 000 PC commencent à être basculés dans ce cloud, et des dizaines de milliers d'autres le seront dans les mois à venir [d'après nos sources, actuellement 5 500 postes ont été virtualisés en

beta test, NDLR].

D'un point de vue technologique, c'est sur les solutions de VMware que GDF Suez s'est reposé. Au premier rang desquelles VMware Horizon View pour permettre aux utilisateurs de se connecter à leur environnement

de travail depuis n'importe quel terminal (y compris des tablettes), et VMware Mirage pour sécuriser les profils utilisateurs des collaborateurs accèdant à leur environnement de travail virtuel depuis un PC portable.

Mais également ThinApp, pour virtualiser les applications clients et permettre une interopérabilité avec les applications historiques de GDF Suez.

Les enjeux de la mise en place de ce projet de virtualisation ? "Il fallait permettre aux utilisateurs de se connecter à leur environnement de travail quel que soit le terminal, et mettre en place un portail de self

provisioning pour qu'ils puissent déclencher de nouveaux services métiers", a indiqué Jean-Paul Amoros, directeur de l'infrastructure de production chez GDF Suez, qui s'exprimait dans le cadre du VMware Forum

2013 le 6 juin à Paris.

Le choix de se tourner vers VMware a été guidé par les objectifs de GDF Suez en termes de haute disponibilité, de sécurité des environnements virtuels, et de facilité de déploiement. Mais également par la prise en

charge d'un stockage cloud de grande capacité, fixé entre 25 et 50Go par utilisateur.

L'infrastructure technique de GDF Suez se compose notamment de 120 000 postes de travail, 12 000 serveurs et 80 data centers. Le coût informatique de l'entreprise atteint 600 millions d'euros pour un chiffre d'affaires

de 97 milliards d'euros en 2012.

2° article

La virtualisation des postes de travail : réponse aux enjeux informatiques

Chronique de Philippe Labaste/Dell France 16/07/13 18:32

Vous avez certainement virtualisé vos serveurs et systèmes de stockage mais avez-vous également virtualisé vos postes de travail ? Voici quelques bonnes raisons de le faire.

De nombreuses équipes informatiques ont adopté la virtualisation des serveurs et des systèmes de stockage ces dernières années, mais rares sont ceux qui sont massivement allés plus loin tandis que d’autres n’ont

pu envisager la virtualisation, faute de moyens financiers ou d’expertise ou par crainte des risques sécuritaires et d’une dégradation des performances. Les avantages durables de la virtualisation des postes de

travail devraient les faire changer d’avis : moindres besoins et coûts de maintenance informatique rationalisés, gains de productivité et de flexibilité pour des utilisateurs qui vivent pleinement l’expérience du PC.

La virtualisation de postes de travail est différente de la virtualisation de serveurs et de systèmes de stockage. La virtualisation des serveurs implique de répartir la capacité de traitement d’un serveur physique

entre différents usages. De même, la virtualisation des systèmes de stockage consiste à regrouper la capacité de stockage physique de plusieurs services de stockage.

Le principe de la virtualisation des postes de travail, en revanche, n’est pas de faire cohabiter plusieurs utilisateurs sur un seul poste de travail, mais de transférer les ressources du disque dur d’un PC vers un

serveur pour les redistribuer à plusieurs PC, tablettes, smartphones et clients légers, sans contraintes géographiques ou presque, de manière à désolidariser l’utilisateur d’un terminal en particulier. Cette technique

transpose ainsi aux postes de travail les avantages de sécurité renforcée et de simplicité de maintenance de la virtualisation de serveurs. Les applications et données sont stockées non plus sur un poste de travail

local mais sur un serveur central sécurisé. Il devient alors possible d’accéder partout à son environnement bureautique, depuis n’importe quel terminal.D’un point de vue matériel, il existe toute une gamme de

produits répondant aux besoins spécifiques des utilisateurs tels que la virtualisation de stations graphiques pour la conception assistée par ordinateur. Trois types de postes clients se prêtent particulièrement à la

virtualisation de postes de travail.

Parmi ceux-ci, le client léger traditionnel, à savoir un terminal sans disque et sans mémoire, qui se résume à une petite unité de traitement à laquelle se raccordent un clavier, une souris et un écran. Le client léger

exige une connexion fiable et constante au serveur car il affiche à l’écran un environnement informatique résidant sur le serveur.Vient ensuite le Cloud PC, similaire du point de vue matériel à un PC, mais sans

disque dur: le système d’exploitation et les applications résidant sur le serveur sont exécutées en local, garantissant ainsi les mêmes performances qu’un PC classique et mobilisant moins d’espace dans le

datacenter. C’est la solution idéale pour résoudre les problèmes de performance, de gestion d’image système et de sécurité des filiales locales ou distantes. Enfin, le client zéro, un type de client optimisé pour un

environnement dédié qui n’inclut qu’un système ultra réduit en local. Il ne fonctionne qu’avec les environnements Citrix, Microsoft et VMware. Conçus pour un environnement dédié, ils offrent une expérience

optimale avec cet environnement et une sécurité inégalée.Les avantages de la virtualisation de postes de travail sont nombreux et permettent de résoudre des problèmes concrets et actuels :

Migration de Windows

Windows XP est resté sur le marché plus d’une décennie, période très longue pour un système d’exploitation. Microsoft a décidé de mettre fin au support de Windows XP. Les organisations doivent donc se résoudre

à migrer vers Windows 7 ou Windows 8. Cette opération nécessite d’intervenir sur chaque ordinateur de l’entreprise pour remplacer XP par Windows 7 ou 8, avec les trop longues indisponibilités que cela suppose

pour chaque employé, ou alors d’investir pour remplacer les postes de travail.

L’alternative serait d’héberger les postes de travail dans le Cloud interne de l’entreprise. Quelques minutes suffiront alors pour y charger l’environnement Windows 7/8 virtuel, au lieu de plusieurs semaines voire

des mois pour une migration traditionnelle, selon la taille de l’entreprise.

Performances optimales

Ne vous fiez pas à la petite taille de ces clients. Derrière leur format compact se cachent des technologies dernier cri ; installables partout, ils mobilisent très peu d’espace tout en vous offrant toutes les

performances dont vous avez besoin. Ces clients légers consomment par ailleurs moins de 20 Watts (moins de 8 W pour la plupart), contre 100 W minimum pour un ordinateur fixe ou portable classique.

Portabilité extrême

Certains terminaux ne sont pas plus grands qu’une télécommande de voiture ou qu’une grande clé USB et peuvent transformer n’importe quel moniteur ou écran en un client léger ultra fonctionnel.

Sécurité renforcée

Ordinateurs portables et clés USB se perdent et se volent facilement. D’où l’importance de sécuriser les données, quel que soit le secteur d’activité. Cela est d’autant plus simple que toutes les données sont réunies

dans un même datacenter au lieu d’être disséminés sur de multiples terminaux et espaces de travail.

Adoption des pratiques « Bring Your Own Device » (BYOD)

Les entreprises souhaitent tirer profit de la flexibilité et de la satisfaction utilisateur du BYOD. L’un des problèmes avec le BYOD est que les données sont consultées et stockées sur des terminaux personnels. Dans

un environnement de postes de travail virtuels, les applications et données de l’entreprise sont lues sur les ordinateurs portables, les tablettes ou les smartphones des utilisateurs, mais sans jamais y être

enregistrées, ni chargées. Lorsque toutes les ressources sont stockées sur un serveur, chaque terminal personnel permet de les utiliser via une connexion haute fiabilité sans qu’il faille les charger en local.

Transition vers le Cloud

Outre les applications et contenus, vous pouvez aussi migrer les technologies d’administration de terminaux et des postes de travail virtuels dans le Cloud. Ainsi, c’est tout l’environnement de travail qui est distribué

en mode cloud « as-a-service ».

La virtualisation de postes de travail mérite donc réflexion. Cependant, armé des bons outils et des bonnes informations, vous pourrez déployer un système dont tous les acteurs de l’entreprise pourront

bénéficier.

Soulagés de nombreuses tâches d’administration répétitives et de bien des préoccupations liées à la sécurité et la maintenance, les techniciens IT pourront se concentrer sur des projets plus stratégiques pour

l’entreprise. Les utilisateurs gagneront en productivité et en satisfaction, libres de se connecter au réseau de l’entreprise partout, depuis le terminal de leur choix.

Il va sans dire que l’efficacité IT accrue combinée à la plus grande productivité du personnel ne peut qu’être bénéfique pour le chiffre d’affaires. La virtualisation des postes de travail est pour les organisations une

stratégie gagnant-gagnant.

Conclusion : A travers ces articles on analyse bien que la virtualisation est un aspect important et une étape en cours dans de grandes entreprises

Les articles suivants montreront que de septembre 2013 à avril 2014 cette mutation est un son acmé avec une accélération du processus et des technologies de

plus en plus innovantes et fiables où Microsoft et Vmware dominent le marché

3°article

Le Poste de Travail est bien en pleine transformation

Le 13 Septembre 2013/Bertrand Lemaire, Rédacteur en chef de CIO

Le cabinet Markess International vient de publier une nouvelle étude sur l'évolution du poste de travail. D'ici 2015, 80% des décideurs pensent que le poste de travail de leurs collaborateurs aura évolué. PublicitéLes quatre cinquièmes des décideurs interrogés par le cabinet d'études Markess International estiment que le poste de travail des collaborateurs de leurs organisations aura profondément évolué d'ici 2015. La dimension ubiquitaire d'un poste de travail virtualisé et accessible de partout sur tous les types de terminaux est la grande tendance qui ressort de la dernière étude de Markess International sur le sujet. La moitié des décideurs ayant répondu à l'enquête du cabinet estime que l'évolution des postes de travail et du système d'information devra permettre d'accéder aux environnements de travail à distance en toute sécurité et sur n'importe quel terminal. Pour un tiers, un tel accès ubiquitaire passera par la virtualisation et un développement des fonctionnalités collaboratives. Un peu moins d'un quart juge qu'il faudrait accéder en mode web aux applications de l'entreprise et autant qu'il faudrait simplifier les paramètres sécuritaires. Le multi-équipement deviendra la règle D'ici 2015, de plus en plus de collaborateurs devraient être multi-équipés en terminaux divers. De ce fait, la part du PC fixe va plonger de 47% à 36% du parc global tandis que les portables devraient maintenir leur part du gâteau. A l'inverse, smartphone et tablettes devraient connaître une nette progression. 80% des décideurs estiment d'ailleurs que des smartphones ou des tablettes seront déployées chez leurs collaborateurs en 2013. Près de 60% des décideurs sont d'ailleurs persuadés que certains de leurs collaborateurs utilisent à des fins professionnelles leurs propres terminaux, 10% de plus le supposant sans en être certains. Le taux d'usage du BYOD, il est vrai, devrait passer de 14% en 2023 à 23% en 2015. Derrière cette évolution, toute la problématique de la sécurité et de la gestion de parc sera cruciale pour plus de la moitié des décideurs ayant répondu à Markess. La gestion de parc devrait être facilitée par l'émergence des portails libre-service (FAQ, appstores privés, gestion d'incidents en ligne...). Stockage et sauvegarde des données ainsi que l'adaptation des applicatifs aux nouveaux terminaux préoccupent quant à eux plus du tiers des décideurs. A propos de l'étude L'étude « Le Poste de Travail à l'ère de la mobilité (virtualisation, bureau virtuel, usages sur tablette...) » de Markess International a été basée sur une enquête réalisée de fin Avril à fin Juin 2013 auprès de 120 décideurs (à 80% des décideurs IT), 115 collaborateurs et dirigeants utilisateurs de technologies et 35 prestataires opérant des solutions à destination du poste de travail. L'enquête a d'abord été menée en ligne avant d'être complétée par des entretiens qualitatifs.

4°article

Club Silicon DSI : virtualisation et mobilité des postes ‘multi devices’

Pierre Mangin, 17 octobre 2013, 10:31

Vu la pression budgétaire et la multiplication des mobiles, la virtualisation du poste de travail ne manque pas d’argumentation -comme le relèvent les débats du Club Silicon DSI. Le Club Silicon DSI a choisi de développer ses échanges autour de la transformation des systèmes d’information face aux besoins croissant de mobilité et face aux options du cloud computing, sans oublier la nouvelle thématique dans l’air du temps : le Big Data. En ouverture du débat de cet été, deux consultants indépendants, François Rougier, ex-DSI de la Macif, et Daniel Lebourhis, collaborateur du cabinet Duquesne Group, ont apporté leur contribution en expliquant leur perception des enjeux que soulèvent les projets de virtualisation IT jusqu’aux postes de travail. La question centrale reste celle du concept de VDI (virtualized desktop infrastructure), reposant, en principe, sur le poste virtuel ou ‘bureau virtuel’. Selon Daniel LeBourhis, les calculs de TCO (total cost of ownership) à 5 ans montrent que le coût global des postes de travail, en incluant leur exploitation bien sûr, reste important. Il demeure élevé alors que les prix des terminaux continuent de baisser. Or, avec la banalisation des smartphones et des tablettes, de nouveaux usages surgissent.

Les besoins de mobilité continuent de s’imposer, avec des connexions ‘multi-devices’. Mais les mêmes questions subsistent comme celle du fonctionnement en mode déconnecté, avec des solutions pas toujours pertinentes. Autre question, celle des services d’impression, à distance. Ou encore, l’utilisation de la vidéo ou visioconférence, et l’adaptation des applications au multi-écrans ou ‘multi-devices’, avec ou sans Windows 8… Autre sujet clé : le phénomène du ‘BYOD‘ (Bring your own device). Il ne peut plus être ignoré ni balayé d’un revers de la main. Car si les PC portables connectés dans l’entreprise sont presque

exclusivement des équipements internes fournis par l’employeur, donc dûment protégés et verrouillés, il en va différemment pour les smartphones et les tablettes. Leur connexion à la messagerie est de plus en plus admise sinon tolérée ou subie. Leur prolifération se confirme, y compris au sein du ‘top-management’. Et donc, invoquer la sécurité ne suffit plus pour empêcher cette infiltration officielle ou insidieuse… Dans ce contexte, la virtualisation des postes de travail peut constituer une bonne réponse à un double problème : l’ouverture à la mobilité et la nécessité de réduire les coûts d’exploitation. En virtualisant toute l’infrastructure, la DSI reprend le contrôle des coûts de fonctionnement. Cette démarche, qui peut se combiner à une architecture innovante, du type Cloud, et à des logiques de mobilité, contribue à améliorer l’expérience des utilisateurs. Indéniablement, cela se traduit par une plus grande souplesse et une meilleure réactivité. François Rougier, ex DSI de grands groupes et aujourd’hui consultant, en a fait l’expérience. Il a notamment conduit un projet d’envergure portant sur 10 000 postes. L’objectif était d’installer, sur des fermes de serveurs, les différents OS utiles pour différents postes de travail et différents applicatifs. Il a permis de contribuer à recentraliser 11 infrastructures régionales. L’investissement s’est révélé rentable car il a, au minimum, permis de rationaliser le parc applicatif, en passant par exemple de 2000 versions différentes de Word à une seule. Déploiement accéléré des applications et des mises à jour

Autre axe d’économie constaté : le déploiement accéléré des applications et des mises à jour s’est opéré sans avoir à recourir à des équipes locales pour la configuration des postes de travail. Enfin, les temps de réponses ont été améliorés et la sauvegarde des données a été facilitée et renforcée grâce à la centralisation des ressources. Il faut cependant être attentif à certains points, souligne François Rougier. En premier lieu, la résistance au changement des équipes. Il convient de les faire monter en compétences pour gagner leur adhésion. Ensuite, compte tenu du nombre de projets pilotes sur les postes de travail, les services d’impression (y compris le scan) constituent en soi un réel sous-projet à ne pas sous-estimer. Enfin, il n’a pas été possible de tout virtualiser. Aucune solution satisfaisante n’a été trouvée pour la visio à l’époque du projet (2011-2012). De même, pas de réponses vraiment pertinentes pour les ordinateurs portables qui doivent pouvoir fonctionner en mode déconnecté quand l’accès au réseau n’est pas possible. Des options radicales possibles Comme l’a expliqué un DSI, la virtualisation peut être générale et concerner l’ensemble des postes et applications métiers. Les bénéfices sont alors multiples. Tout d’abord être source d’économies : c’est le cas s’agissant des coûts de déploiement des nouvelles applications métier (une centaine à installer chaque année). Le processus est dorénavant géré dans un cloud privé. La virtualisation a également permis ici de rendre accessible le portefeuille applicatif métier et bureautique à n’importe quel poste client, y compris avec des clients

Android ou Apple iOS. Ensuite, pour le personnel nomade, la virtualisation permet de s’affranchir du hardware pour bénéficier d’une grande puissance de calcul et pouvoir afficher le résultat sur n’importe quel poste de travail, en multi-screen. La virtualisation a également ouvert de nouvelles perspectives comme la possibilité de lancer toutes les 10 minutes des tests applicatifs Scrum simultanément sur plus de 80 VM. La virtualisation du poste de travail est d’autant plus intéressante ici qu’elle a été réalisée autour de multiples salles blanches embarquées et avec des systèmes pouvant être mis à l’arrêt et relancés quotidiennement. Dans ce contexte, une solution comme celle de VMware (avec la suite logicielle Horizon) a apporté un modèle commun d’opérations pour gérer à la fois les postes fixes virtualisés et les

terminaux mobiles, dont les ordinateurs portables, y compris en mode déconnecté. L’un des objectifs clés, c’est d’apporter une expérience utilisateur identique, quel que soit le matériel utilisé, tout en donnant à la DSI une capacité globale de contrôle et de sécurisation – comme l’a expliquéMarc Frentzel, directeur technique de VMware France, invité d’honneur de cette soirée débat. Cette virtualisation des postes de travail présente également l’avantage de réduire la taille des baies informatiques utilisées. Avec la centralisation des « images » des postes de travail – tout ce qui est commun aux utilisateurs (OS, logiciels systèmes, pilotes…) constitue désormais un ‘master’ unique, auxquelles s’ajoutent les données personnelles, celles du bureau virtuel personnel (e-mails, documents de travail, fond d’écran, etc.). La synchronisation s’opère lorsque les postes se reconnectent.

5°article.

Deux tiers des DSI misent sur la virtualisation pour réduire leurs coûts 23 décembre 2013

La virtualisation est clairement source d’économie. C’est ce qui ressort de l’enquête menée à l’initiative de VMware auprès de 102 DSI français d’entreprises toutes situées en province. Spécialement conduite à

l’occasion du VMware Tour 2013, cette étude sur les enjeux IT révèle que 64% des décideurs s’appuient sur la virtualisation pour maîtriser leurs dépenses IT dans les organisations de 100 à 500 employés. Une part

qui atteint 67% dans les entreprises de plus de 500 employés. Il en ressort également que 73% des DSI sont sensibles à la combinaison virtualisation et technologies mobiles.

Les pistes pour maîtriser les dépenses IT

« Sur quels leviers comptez-vous vous appuyer pour vous aider à maîtriser vos dépenses informatiques pour les 18 mois à venir ? »

L’externalisation est également une piste envisagée par les DSI des plus grandes organisations pour répondre à la pression sur les budgets. 39% d’entre eux ont déclaré poursuivre cette orientation. Toutefois, cela

ne bénéficie pas directement au Cloud dont l’adoption se fait plus rapidement dans les plus petites entreprises. 11% des entreprises de 100 à 500 employés sont ainsi 11% à en faire une priorité pour les 18 mois à

venir, contre seulement 2% dans les entreprises de plus de 500 employés.

Enfin, la mobilité est un facteur clé pour nombre de DSI. 73% d’entre eux sont intéressés par des solutions leur permettant de transformer les applications, les postes de travail et les sources de données en services,

le tout étant affiché sur n’importe quel terminal, sans avoir à se soucier de ce que ce qu’il contient, ni quel OS il utilise.

En conclusion, cette étude confirme l’intérêt que portent les DSI à la virtualisation. Avec 77% d’entreprises engagées dans un processus de virtualisation de leurs serveurs, cette enquête atteste également de sa

généralisation.

6°article.

Des entreprises de plus en plus séduites par les architectures convergées

Publié le 15/01/2014 dans Virtualisation & Cloud | Commentaires fermés sur Des entreprises de plus en plus séduites par les architectures convergées

De plus en plus, les entreprises se laissent séduire par les architectures convergées, des solutions qui leur permettent de déployer facilement et rapidement des infrastructures prêtes à l’emploi pour la

virtualisation mais aussi l’hébergement d’applications d’entreprise ciblées comme les bases de données (Oracle ou SQL Server) , Exchange,Sharepoint ou VMware Horizon View…

Après avoir investi dans les systèmes convergés pré-intégrés et prévalidés via sa coentreprise avec Cisco et VMware, VCE, EMC a dévoilé il y a un peu plus de 18 mois, ses architectures de référence VSPEX. Ces

architectures ont été conçues pour permettre à ses partenaires, constructeurs, intégrateurs et revendeurs de proposer à leurs clients des offres d’infrastructure basées sur des designs prévalidés tout en leur laissant

un choix bien plus large en matière de composants serveurs et réseaux.

En savoir plus

Cette approche a plusieurs bénéfices : tout d’abord les clients disposent d’un large choix de solutions prétestées, pré-intégrées et prévalidées par le laboratoire d’interopérabilité d’EMC. Ils sont aussi assurés que la

solution fournie par leur partenaire intégrateur ou constructeur sera dimensionnée pour faire face à leur besoin. Côté intégrateur, les architectures VSPEX permettent de faire l’économie d’un coûteux travail de

validation mais préservent la valeur ajoutée propre à chaque partenaire.

Le constat est que « les entreprises ne souhaitent plus réaliser elles-mêmes des travaux d’intégration longs et complexes qui n’apportent aucune valeur ajoutée à leur métier » indique Frédéric Fimes.

Architectures convergées : un succès qui ne se dément pas en France

Comme l’explique Frédéric Fimes, le directeur channel d’EMC France, les entreprises françaises ont été parmi celles qui ont donné le meilleur accueil à VSPEX avec plusieurs centaines de systèmes vendus en 2013 et

des ventes qui n’ont cessé de croître tout au long de 2013.

L’accueil réservé par les partenaires serait tout aussi enthousiaste. « En France, près de 90 partenaires sont certifiés VSPEX et sont donc capables de proposer des solutions VSPEX à leurs clients ». Cela représente

près de 70 % des partenaires EMC actifs, un signe de l’intérêt porté à ces solutions.

Des clients et des partenaires séduits par le large portefeuille de solutions VSPEX

L’ouverture à un large écosystème de constructeurs est aussi l’un des facteurs qui a contribué au succès de VSPEX en 2013. « Si les serveurs Cisco restent la clé de voûte de bien des déploiements VSPEX – ils sont

présents dans près de 60 % des systèmes vendus, N.D.L.R –, l’ouverture à des serveurs tiers a permis à d’autres partenaires de nous rejoindre et de proposer plus de variété aux clients, avec des serveurs Dell, HP et

IBM et des solutions réseau tierces. Nous n’aurions sans doute pas eu un tel succès sans un portefeuille aussi large ».

Enfin, les clients ont aussi été séduits par les designs plus abordables proposés par certains acteurs. SolutionITPME a déjà évoqué les travaux en la matière d’intégrateurs comme APX, Bull, Econocom ou MTI, mais

on a aussi vu des designs VSPEX à travers les partenaires historiques de EMC tels que Telindus ou Systemic. Les acteurs de la distribution comme Avnet ou Techdata proposent également des offres VSPEX très

abordables.

L’intégration des nouvelles baies VNX a dopé les ventes en fin d’année

Un autre facteur de succès sur le dernier trimestre a été le renouvellement de l’offre de baies de stockage unifiées VNX et la mise à jour des architectures de référence VSPEX pour prendre en compte ces nouveaux

modèles. « L’arrivée de systèmes offrant un rapport performance/prix significativement meilleur a permis à nos partenaires de remettre à jour leurs solutions ; cela a eu un impact positif sur le rapport

performances/prix de leurs offres ». Résultat un trimestre record pour VNX et VSPEX avec des ventes près de quatre fois supérieures en unités à celle réalisées sur le dernier trimestre 2012. Une performance qui

selon Frédéric Fimes a permis à EMC de gagner du terrain avec ses baies VNX sur le marché des baies de stockage de milieu de gamme.

7°article (communiqué de presse que je juge pertinent de janvier 2013)

VMware publie des résultats record pour le quatrième trimestre et l'année 2013

La croissance annuelle du chiffre d'affaires est de 13 %, ce qui le porte au montant record de 5,21 milliards de dollars US

Le chiffre d'affaires du trimestre augmente également de 15 % par rapport au quatrième trimestre de l'année précédente, et atteint le montant record de 1,48 milliard de dollars US

Hors résultats attribuables à Pivotal et autres cessions intervenues en 2013, le chiffre d'affaires annuel augmente de 17 %, et les revenus du trimestre de 20 % par rapport à l'année précédente 1

Le flux de trésorerie d'exploitation annuel augmente de 34 %, tandis que celui du trimestre augmente de 40 % par rapport au même trimestre l'année dernière

Paris, le 31 janvier 2014 —VMware, Inc. (NYSE : VMW), leader mondial de la virtualisation et des infrastructures Cloud, annonce ses résultats financiers pour le quatrième trimestre et l'année 2013 :

8°article

Accélération du marché de la virtualisation des postes de travail

21.02.14 - Johann Armand

Les intégrateurs spécialisés dans les services d’infrastructures et la virtualisation sont nombreux à l’affirmer : le marché de la virtualisation des postes de travail est en train de décoller.

2014 sera l’année du décollage de la VDI (Virtual Desktop Infrastructure). Certes, ça fait déjà cinq ans que les instituts d’études et les fournisseurs le répètent à l’envi et que pas grand-chose ne vient. Mais cette fois,

ce sont des acteurs de terrain qui le disent. Tels Nware, société de services parisienne spécialisée dans les services d’infrastructures ; CEFI, intégrateur d’Aix-en-Provence gros partenaire de VMware, ou VIRTIC,

intrégrateur spécialisé dans la virtualisation sous toutes ses formes.

Chez Nware, on explique avoir pas mal d’opportunités en cours (« dossiers à dépiler ») qui devraient alimenter la croissance très forte – +60% – attendue cette année. Même dynamique chez CEFI, qui vient tout

juste de remporter un projet de 4.000 postes autour de VMware Mirage dans le secteur alimentaire et qui table sur une croissance de 20% cette année. Chez VIRTIC, société également en forte croissance (+35%), on

constate que le marché a « gagné en maturité », que les projets détectés « aboutissent plus souvent » et « se traduisent par des déploiements ».

Les moteurs de ce décollage ? Le BYOD, la mobilité et les nouveaux usages, répond Damien Peschet, directeur général associé de Nware. « Des solutions comme VMware Workspace introduisent la centralisation des

données des utilisateurs et permettent son accès depuis n’importe quel device », explique-t-il.

Pour Damien Bruley, PDG de VIRTIC, cette maturité du marché a beaucoup à voir avec l’amélioration des performances des infrastructures de calcul, de stockage et de réseau. « Il y a deux ou trois ans, les projets de

VDI étaient bridés par les performances des infrastructures qui étaient onéreuses et complexes à déployer. Aujourd’hui les boîtiers convergés ou hyperconvergés de type Nutanix changent la donne ». Et les

technologies de virtualisation aussi gagnent en maturité. Il estime ainsi qu’un VMware Horizon servi en amont une architecture adaptée peut désormais atteindre des performances équivalentes à celles des postes

de travail.

Les freins : les coûts et la sécurité

Certes le coût et la sécurité restent des freins importants pour les clients. « La virtualisation des postes de travail demeure difficile à positionner si l’on parle exclusivement de prix, admet Xavier Stern, Pdg de CEFI. Ce

n’est pas sur le prix que l’on gagne quelque chose mais sur les usages. La VDI permet de retrouver partout ses documents et ses applications quel que soit le terminal, l’OS et le lieu où l’on se trouve. On peut continuer

à travailler avec une simple URL et les données sensibles ne sont plus dans la machine. C’est cela qui est réellement innovant ».

De son côté, Grégory Dubard, responsable des infrastructures chez l’intégrateur nordiste Yourax, mise plutôt sur les projets de migration de XP vers Windows 7 pour inciter les clients à mettre un pied dans la

virtualisation. Il s’appuie pour cela sur la suite Mirage de VMware qui automatise les migrations. Intérêt de la manœuvre, Mirage sauvegarde la configuration des utilisateurs pour les remonter rapidement en cas de

crash en physique ou en virtuel.

Damien Bruley estime pour sa part qu’avec les technologies d’hyperconvergence, on arrive à des coûts comparables à ceux des postes de travail traditionnels. « Si le client fait déjà de la virtualisation et qu’il a des

infrastructures réseau stables et performantes, le calcul est facile à faire ». Et de citer un projet récent d’une centaine de postes pour Oodrive associant un boîtier Nutanix avec du VMware et des terminaux légers HP

T310 où la comparaison n’était pas en défaveur de l’infrastructure virtualisée. Mais il insiste sur la nécessité pour qu'un projet de VDI réussisse que les équipes infrastructures et postes de travail du client travaillent

main dans la main.

Virtualisation des poste et gestion des environnements mobiles vont de pair

Sur le plan de la sécurité aussi la virtualisation des postes de travail gagne en maturité. Ainsi Damien Peschet prône le recours à Airwatch, sur lequel sa société s’est certifiée dès l’été dernier, six mois avant

l’annonce de son rachat par VMware. Airwatch complète selon lui parfaitement Workspace en permettant un accès sécurisé aux données utilisateurs et en gérant l’ensemble des devices connectés (effacement des

données à distance, encryptage, authentification forte).

La plupart en conviennent, plusieurs écueils demeurent, dont celui de la licence Windows VDA (Virtual Desktop Access) qui reste la plupart du temps plus onéreuse qu’une licence OEM. « Les clients voudraient qu’on

leur propose du Windows as a service », constate Grégory Dubard, responsable des infrastructures chez l’intégrateur nordiste Yourax. Malheureusement, Microsoft ne le permet toujours pas. Toutefois Grégory

Dubard est convaincu que cela va arriver rapidement, remarquant qu’il existe déjà des offres poste de travail virtuel sous Windows, notamment celle que propose Amazon pour une soixantaine de dollars par mois

9°article

La virtualisation des stations de travail : un modèle d'avenir pour l'entreprise Par Nora Poggi - Publié le 10 mars 2014, à 15h13 L'entreprise se virtualise : après le réseau ou le stockage, c'est au tour des stations de travail, ces ordinateurs puissants optimisés pour la CAO 3D notamment. Quelles opportunités pour quelles entreprises dans ce secteur encore naissant ? Après les postes de travail, le stockage ou les serveurs, la virtualisation pourrait maintenant révolutionner le domaine des stations de travail, ces ordinateurs puissants optimisés pour des logiciels de création assistée par ordinateur en 3D notamment. Quelles entreprises pourraient en bénéficier, et comment ce secteur peut-il changer la vie des professionnels ? AVANTAGES ET INCONVÉNIENTS POUR LES ENTREPRISES Les stations de travail, utilisées notamment pour des logiciels gourmands en data et en qualité graphique, comme la création assistée par ordinateur par exemple (mécanique, montage de film...) se virtualisent à leur tour. Pour les petites entreprises, sans grosse infrastructure informatique, le coût nécessaire à la virtualisation, le datacenter notamment, peut être rédhibitoire. Le déploiement de la virtualisation nécessite également un réseau interne de qualité. Une question se pose pour prendre une décision stratégique : à quel point les données de l'entreprise sont-elles sensibles ? La collaboration entre équipes à distance est-elle cruciale ? Il s'agit aussi de déterminer les besoins des utilisateurs, en termes de données, et de CPU (processeurs) et GPU (processeur graphique) notamment. Pour une entreprise qui dispose déjà de serveurs, et dont les données nécessitent une sécurisation accrue, la virtualisation prend tout son sens. RÉPONDRE À UN BESOIN DE SÉCURITÉ Gary Radburn, qui dirige le département de virtualisation des workstations de Dell, que L'Usine Digitale a rencontré lors du lancement du centre d'excellence de Dell, au Texas, explique : "la virtualisation semble être motivée par un besoin de sécurité [des données], et l'endroit le plus sûr dans l'entreprise c'est le data center". Par ailleurs, la virtualisation pourrait résoudre le problème d'élasticité lié aux stations de travail. Pour une entreprise qui fonctionne par "projets" - pour un avion à construire par exemple - la station de travail est plus difficile à réutiliser, étant assignée de façon fixe. La virtualisation permet d'utiliser les serveurs pour différents projets. Selon Gary Radburn, la virtualisation en règle générale a dépassé le stade expérimental et devient plus courant. "La technologie mature depuis 2 ou 3 ans", ajoute-t-il, et dans le domaine des stations de travail particulièrement, il s'agit maintenant de tester et vérifier les hypothèses. Dell souhaite clairement se positionner en leader de ce domaine le plus tôt possible, afin de disposer d'un avantage compétitif dans un secteur qui pourrait aider l'entreprise à survivre à la crise du PC. VERS UN MODÈLE À LA CARTE ? Un modèle se dessine, celui du "workstation as a service", qui permettrait de louer les services de virtualisation des stations de travail, au lieu d'investir dans un datacenter. Idéal pour des PME par exemple. On peut imaginer des partenariats entre les fournisseurs de cloud privé, et les entreprises spécialisées dans le hardware des stations de travail comme Dell. Les PME et les start-up pourraient en profiter si ce service s'étendait au cloud public. Cette transition "à la carte" n'est toutefois pas à l'ordre du jour, car elle nécessiterait que les éditeurs de logiciels permettent des schémas de licences pour la location, comme Adobe l'a fait avec Creative Works par exemple. L'industrie n'est pas encore prête, mais les géants informatiques vont s'y mettre tôt ou tard, comme Dell qui y réfléchit sérieusement pour l'avenir, selon Radnuk. Nora Poggi

10°article

Virtualisation : VMware et Microsoft règnent en Europe

Reynald Fléchaux, 7 avril 2014, 16:47

Selon IDC, un tiers des serveurs livrés dans la zone EMEA (Europe Moyen-Orient, Afrique) au quatrième trimestre 2013 embarquaient des technologies de virtualisation, une progression modeste par rapport à la proportion constatée un an plus tôt (30 %). Les ventes de serveurs ‘physiques’, vendus nus, connaissent un léger repli sur un an, à 606 400 ventes. Ce sont donc les serveurs virtualisés qui tirent le marché, avec une progression de 9,6 % sur 12 mois (à 200 300 unités). Les ventes de licences de technologies de virtualisation sont elles aussi bien orientées, avec une croissance annuelle de 14,2 % (à 456,3 millions de dollars). Sur les serveurs virtualisés, 83 % emploient une technologie payante. Parmi celles-ci, VMware domine très largement les débats, avec 52 % de parts de marché. Seul Microsoft (un tiers du marché) paraît en mesure de faire de l’ombre au leader. Un temps rival principal de la filiale d’EMC, Citrix est distancé (5 % de parts de marché). Tandis que Parallels s’attribue 2 % de la virtualisation en Europe. Virtualisation en Europe : 1,6 Md$ en 2013 Sur l’ensemble de l’année, 2,2 millions de serveurs physiques ont trouvé preneur – en recul de 2,7 % sur un an -, contre 717 000 serveurs virtualisés. Au total, un million de licences d’hyperviseurs ont été achetées en 2013. Soit des croissances de 9,6 et 13,5 % respectivement. Le marché des technologies logicielles de virtualisation pèse 1,6 milliard de dollars à l’année, sur la région. « Nombre de petites entreprises ont déjà adopté ces technologies et la maturité des entreprises sur le sujet grandit », explique Andreas Olah, analyste chez IDC. Et ce dernier de pointer l’évolution des offres des éditeurs, notamment VMware et Microsoft, visant à intégrer l’utilisation d’offres Cloud externes depuis les hyperviseurs. Des approches qualifiées « d’holistiques » par Andreas Olah. Toutefois, IDC souligne le ralentissement de la croissance pour la virtualisation sur les marchés matures d’Europe continentale. Deux raisons à cela, selon le cabinet d’études : la maturité de ces marchés sur le sujet et le poids grandissant des grands fournisseurs de Cloud qui tendent à acheter des serveurs non virtualisés d’emblée, pour y déployer leurs propres technologies. « C’est particulièrement vrai pour les pays nordiques, le Benelux ou l’Irlande », assure IDC.

11°article

L'Etat pourrait réduire sa dépense informatique de 20 à 40% sur 3 à 5 ans /Le 22 Avril 2014

La DISIC est rattachée au SGMAP, lui-même rattaché aux services du Premier Ministre. (ci-dessus, l'hôtel de Matignon, crédit : D.R.) Le gouvernement chiffre la réduction des dépenses informatiques de l'Etat. La réduction des dépenses pourrait aller jusqu'à 40% sur une période allant de trois à cinq ans. L'objectif a de quoi occuper la DISIC. « L'Etat veut (...) réduire de 20 à 40% ses dépenses informatiques d'ici trois à cinq ans. Un tri drastique est prévu dans ses quelques 130 datacenters », ont mentionné nos confrères des Echos dans un article titré « Comment l'exécutif veut économiser 18 milliards dans la sphère de l'Etat » publié dans leur édition de ce jour. L'objectif était connu depuis longtemps puisque c'était le but de la création de la DISIC (Direction interministérielle des systèmes d'information et de communication). La réduction du nombre de datacenters était une modalité également attendue, au même titre que la création du réseau interministériel. D'une manière générale, la DISIC doit impulser une vraie mutualisation entre les différentes administrations, source d'importantes économies. Jérôme Filippini, créateur de la DISIC, et Jacques Marzin, son actuel directeur, ont déjà largement détaillé ces objectifs et modalités dans nos colonnes ces dernières années, sans citer de montant précis. Mais le chiffre annoncé par nos confrères, à savoir 20 à 40% d'économies, est tout de même très élevé. Nous reviendrons bien entendu sur cette information. La DISIC est rattachée au Secrétariat général pour la modernisation de l'action publique, dirigé par Julien Rencki, le SGMAP étant lui-même rattaché aux services du Premier Ministre. Article de Bertrand Lemaire

Conclusion : On peut analyser que la virtualisation est devenu le standard dans les DSI , même l’état français s’y met afin de pouvoir réduire les coûts .

II) La virtualisation s’étend à la mobil ité.

On aurait pu se demander l’avenir de la virtualisation une fois que la transformation effectuée, de Mai 2014 à décembre 2014 , la virtualisation commence à se

pencher sur la mobilité (chrome, citrix) et de nouveaux acteurs s’aventurent sur le marché et on commence à apercevoir les premiers échecs de la

transformation des DSI (le naufrage de GDF) enfin la question de la sécurité de cette virtualisation est également remis en question.

12°article

Google s'associe à Citrix pour proposer des applications Windows sur les Chromebooks

Le 09 Avril 2014

Grâce à ses technologies de virtualisation, Citrix permet d'utiliser des logiciels Windows sur des Chromebooks ou des Mac. Citrix a conclu un partenariat avec Google pour fournir aux entreprises la possibilité d'utiliser des applications Windows sur des Chromebooks. Pour conquérir les entreprises encore très attachées à certaines applications Windows,Google fait appel aux solutions de virtualisation de Cirtix, Xenapp et Receiver, pour renforcer l'attrait de sa plate-forme Chromebook. Cette combinaison permet aux entreprises d'équiper leurs salariés de Chromebook sans renoncer à utiliser des applications Windows grâce à la technologie Citrix HDX. Les utilisateurs de Chromebook auront accès aux applications Windows via le cloud. Citrix annonce également une remise promotionnelle de 25% pour l'édition Platinum de XenApp - sa version phare - qui comprend AppDNA pour la gestion des applications. La technologie AppDNA simplifie et accélère la migration des postes Windows XP pour un autre OS. Pour accompagner la montée en puissance de la plate-forme de Google, Citrix a également lancé un programme baptisé Citrix Ready destiné à accompagner les constructeurs OEM de Chromebook comme HP, Dell, Acer, Samsung et Toshiba. Il s'agit de faciliter l'intégration des solutions XenApp et XenDesktop sur les dernières générations de Chromebook. Surfer sur la vague Windows XP pour placer des Chromebooks Vice-président senior chez Google, Amit Singh a déclaré que les entreprises adoptaient les Chromebooks comme une alternative plus facile à utiliser et plus rentable que les PC traditionnels. «Citrix et Google travaillent ensemble depuis 2010 pour s'assurer que nos clients ont accès à des applications Windows essentielles pour l'entreprise dans l'environnement Chrome », a-t-il indiqué. « L'arrivée en fin de vie de Windows XP apporte une formidable opportunité aux entreprises de tous types désirant repenser leur approche de l'informatique et la transition vers des Chromebooks pour amélioration la gestion, la sécurité et réduire les coûts ». En plus de garantir la livraison d'applications Windows, Citrix ajoute la possibilité d'utiliser gratuitement sa plate-forme collaborative GoToMeeting, une application web qui permet aux utilisateurs de démarrer très rapidement des visioconférences. Article de Serge Leblal

13°article

Citrix fédère ses solutions poste de travail dans Workspace Suite et Services

Jacques Cheminat, 9 mai 2014, 11:30

A l’occasion de son évènement Synergy, Citrix a fait plusieurs annonces autour du poste de travail mobile et fixe. L’éditeur a présenté des évolutions de ses différents produits et fédère ses services au sein des offres Workspace Suite et Services. Les choses bougent sur le poste de travail. PC, ultrabooks, smartphones, clients légers, tablettes, les supports évoluent et les besoins des collaborateurs aussi. L’heure est aujourd’hui au Desktop as a Service (DaaS), mêlant à la fois virtualisation du poste de travail, des applications, des règles de sécurité et de gestion, etc. Plusieurs acteurs se sont déjà positionnés sur le sujet

comme VMware avec son service Horizon et Amazon Web Services avec sa solution WorkSpaces. Cette dernière vient d’être lancée officiellement en Europe. Une consolidation autour de Workspaces Suite et Services

Un autre acteur veut sa part du gâteau, Citrix. A l’occasion de son évènement Synergy qui s’est tenu à Anaheim en Californie, la société a indiqué qu’elle était déjà présente sur le marché du DaaS. « Aujourd’hui, nous avons 360 000 machines tournant en mode DaaS via nos partenaires et 1,5 million si on intègre celles fonctionnant sur les cloud privés de nos clients », explique Guillaume Le Tyrant, responsable marketing produit EMEA chez Citrix. Pour autant, la firme américaine veut fédérer ses offres autour du poste de travail en lançant deux produits Workspace Suite et Services. « Si une entreprise veut avoir une politique purement mobile, elle va avoir besoin d’applications, de gestion de flotte, etc. Elle pourra trouver l’ensemble des produits dédiés (XenApp, XenMobile) à la mobilité dans Workspaces Suite », explique le responsable. Il ajoute, « l’entreprise n’aura qu’un seul point d’entrée et une seule licence ». Workspace Suite est d’ores et déjà disponible. L’offre Workspace Services établit une distinction entre d’un côté le control panel (toutes les différentes configurations) qui est hébergé sur le cloud de Citrix et la partie déploiement qui peut se faire sur différents cloud (AWS, Azure, Cisco, Softlayer d’IBM, BT, etc). « Nous voulons laisser la liberté aux clients de choisir le niveau de puissance (compute) qu’ils souhaitent », souligne Guillaume Le Tyrant.Workspace Services sera en tech preview au début de l’été, pour une mise en ligne effective d’ici à la fin 2014. L’offre Workspace Services de Citrix La mobilité cannibalise le desktop Il ne s’agit pas des seules annonces de l’évènement. Citrix en a profité aussi pour présenter les évolutions de son portefeui lle autour du poste de travail. Ainsi, la solution de Mobile Device Management XenMobile passe en version 9. Parmi les changements, « la sécurité est renforcée avec la certification FIPS140-2 notamment à destination de certaines activités comme les marchés financiers, la santé », explique Guillaume Le Tyrant en ajoutant « la gestion des périphériques Windows Phone plus des applications Citrix comme WorxMail et WorxWeb et la gestion de Windows 8.1 (tablette et PC) ». La gestion du monde PC montre clairement l’orientation vers la mobilité et l’espace de travail mobile. Mark Temp leton, CEO de Citrix, souligne « qu’avant de penser prioritairement à la mobilité ou au cloud, il faut penser expérience ». Sur la partie applicative, l’éditeur a dévoilé l’arrivée de WorxNotes, « qui est un Evernote d’entreprise, c’est-à-dire que les données restent dans l’entreprise pas dans un cloud extérieur ». Par ailleurs, une suite bureautique WorxEdit comprenant un tableur, traitement de texte et présentation sera disponible cet été.

Pour XenDesktop et XenApp qui passent en version 7.5, les évolutions sont plus légères. « Le receiver compatible avec HTML5 a été amélioré en gérant plus d’éléments comme l’impression, la vidéo, la reconnaissance des ports USB. Par ailleurs, nous avons intégré un outil de migration qui facilite les opérations d’import/export des configurations », conclut Guillaume Le Tyrant

14°article

VIRTUALISATION DES POSTES DE TRAVAIL : DES AVANTAGES CERTAINS MAIS UNE COMPLEXITÉ À MAÎTRISER Publié le 4 juin 2014 dans la catégorie Point de vue Leila Kairouani Lors de notre précédente publication, nous avons introduit la virtualisation des postes de travail. Nous avons expliqué comment elle améliore radicalement la gestion du parc informatique. Dans le présent article, nous allons présenter nos fortes convictions que nous avons pu forger grâce à l’accompagnement menés auprès de plusieurs grandes DSI. LA VIRTUALISATION DU POSTE DE TRAVAIL DOIT ENCORE RELEVER DES ENJEUX MAJEURS A travers l’accompagnement des DSI de plusieurs acteurs bancaires français, nous avons pu nous forger quelques convictions fortes. Avec la nécessaire migration de tout le parc informatique imposée par la fin de support de Windows XP en avril 2014, il y a une formidable opportunité à envisager le scénario « Virtualisation », dans l’optique de ne plus revivre le même cauchemar lors du prochain changement de système d’exploitation (le chantier de migration Windows XP vers Windows 7 a coûté plusieurs dizaines de millions d’euros à certaines entreprises). Technology in the hands of businessmen L’opportunité est encore plus grande dans le contexte actuel de consumérisation de l’IT, poussée par le Bring Your Own Device (BYOD). En effet, la montée en puissance de la mobilité (smartphones mobiles, tablettes tactiles, …), et des nouveaux usages associés, pourrait ainsi être fortement facilitée au sein de l’entreprise. Car l’un des avantages majeurs de la virtualisation du poste de travail est de transformer tout type de terminal en un environnement applicatif complet : tout collaborateur de l’entreprise peut donc, depuis sa tablette, accéder à ses applications de travail habituelles. Néanmoins, pour pouvoir être systématisée à tout le périmètre du parc informatique, la virtualisation du poste de travail devra encore relever de réels enjeux : L’accès permanent à l’environnement de travail : la problématique est la même que pour toute application Internet ; si l’accès réseau est coupé, il devient difficile d’accéder à l’infrastructure virtuelle distante. Et une excellente qualité de service est non négociable pour la plupart des catégories de collaborateurs qui doivent en permanence accéder à des données au sein du SI. Heureusement, les technologies (notamment VMware et Citrix) ont beaucoup progressé dans la gestion de l’asynchronisme, aussi appelé « mode déconnecté »,mais il reste encore beaucoup de chemin à parcourir dans ce domaine. Notre conviction est qu’il est plus pertinent pour une DSI de travailler à renforcer les solutions réseau (LAN/WAN mais aussi solutions de mobilité comme les clés 3G/4G) pour se diriger vers le « toujours connecté » plutôt que de vouloir gérer proprement tous les cas d’asynchronisme dans toutes les applications. Le coût important de mise en œuvre et l’impact sur la DSI : véritable révolution par rapport à la gestion traditionnelle d’un parc informatique, la virtualisation implique des bouleversements majeurs sur de nombreux volets comme l’infrastructure technique, le changement de barycentre entre postes de travail et serveurs, les pratiques d’exploitation et de support, les modes de gestion des applications et des périphériques, l’administration des licences logicielles, … Une bonne partie de la DSI en voit sa gouvernance impactée. De facto, espérer avoir un ROI positif à moyen terme est utopique. Ce n’est qu’à long terme que le bénéfice financier apparaîtra, lorsque le TCO réduit du poste de travail aura compensé le coût du projet. La difficulté à traiter les cas spécifiques : virtualiser un poste de travail « standard » est très simple, y compris à grande échelle. Mais dès qu’il présente des particularités atypiques, cela complexifie le problème de manière exponentielle. Ce peut être un besoin de droits d’administration pour développer des applications, un besoin de performances pour faire du montage vidéo ou du requêtage décisionnel, un besoin de périphérique très particulier (imprimante 3D, machine à étiqueter, ou plus classiquement le tout nouveau modèle de smartphone …). Envisager la virtualisation pour tous les collaborateurs de l’entreprise serait une erreur, car celle-ci n’est pertinente que pour des profils utilisateurs très normés et maîtrisés. Heureusement, ces derniers représentent en général l’immense majorité des effectifs. Une vigilance sur les migrations futures : implémenter la virtualisation des postes de travail permettra de simplifier les montées de version des OS ou des applications, mais il restera toujours les nécessaires travaux de vérification des adhérences entre les différentes couches d’architecture, de nouveaux travaux sur les infrastructures serveurs centrales, etc.

En synthèse, il faut bien comprendre que la virtualisation du Poste de Travail n’est pas la panacée pour tous les problèmes de gestion du parc informatique. Il y a certes des avantages séduisants et avérés, mais un compromis doit être identifié avec les inévitables inconvénients. Pour aller plus loin, mettre en place la virtualisation, l’automatisation de l’exploitation des terminaux et l’organisation de la DSI associée (des équipes gérant l’infrastructure centrale, le parc de terminaux, les adhérences applicatives) ouvre notamment la possibilité d’externaliser certaines de ces fonctions hors de la DSI, avant d’aller à terme vers le Desktop As A Service (DaaS), en transférant toute la chaîne d’exploitation dans le Cloud. Article corédigé par Leïla Kairouani et Christophe Demulder

15°article

Les nouveaux mécanismes de sécurité liés à la virtualisation

Frédéric Tiratay, Manager Intégration, Nomios La rédaction le 18-07-2014 La virtualisation est un sujet dont la discussion autour de son adoption a débuté au milieu des années 2000. On estimait à l’époque, une adoption forte des environnements virtualisés à l’horizon 2005. Presque 10 ans plus tard, force est de constater que ces estimations étaient justifiées, car aujourd’hui celle-ci a pris une place importante dans l’écosystème du système d’information. Pourquoi en est-on arrivé à une telle adoption de la virtualisation ? Parce que l’environnement IT est aujourd’hui le sujet de toutes les attentions, mais aussi parce que nous cherchons à rationnaliser nos coûts en temps de crise économique. En effet, les économies faites en termes de place dans les baies des data centers, qui entrainent une diminution de la consommation nécessaire d’électricité mais également un refroidissement des salles, pèsent grandement sur les choix – même s’il est aussi question de pratique. Ne plus avoir à se déplacer dans les salles machines pour installer un nouveau serveur ou un nouvel équipement d’infrastructure ou encore diminuer le nombre de RMA (Return Merchandise Authorization), suite à un problème hardware, sont également des points d’adoption de la virtualisation. La virtualisation, comment ça fonctionne ? Contrairement aux équipements physiques qui ne peuvent accueillir qu’un système d’exploitation opérationnel en même temps, les environnements virtuels permettent de faire fonctionner plusieurs systèmes d’exploitation sur la même machine, tout en permettant une communication entre elles à travers le réseau informatique. Tout ceci est possible grâce à un hyperviseur. Ce mécanisme est un noyau système ultra léger permettant de gérer de façon dynamique les ressources disponibles sur la plateforme hardware sur lequel il est installé. C’est cet hyperviseur qui est le lien de communication entre les OS invités installés sur la machine et les ressources de celle-ci. Comment sécuriser les systèmes virtualisés ? Nous pouvons considérer un serveur virtuel comme étant un serveur physique, en y apportant les mêmes briques de sécurité, à savoir en règle générale un antivirus et le firewall embarqué sur l’OS. Dans ce cas de figure, l’antivirus est un antivirus avec agent. Le problème est que désormais, on ne dispose pas du même nombre de serveurs physiques que du nombre de serveurs virtuels. Mais surtout le nombre de serveurs est, du fait de la virtualisation, en croissance exponentielle. Il faut donc adapter les outils de sécurisation serveurs pour opter pour des solutions qui prennent en compte ces nouveaux types de matériels. Les solutions classiques d’antivirus pour serveur étant en général lourdes (+ de 100 Mo) et qui se connectent directement pour effectuer leurs mises à jour. Les nouvelles solutions de sécurité adaptées pour les environnements virtuels permettent de fonctionner en mode agentless, c’est-à-dire en installant plus d’agent sur les serveurs. Le fonctionnement de ces systèmes est simple, ils utilisent les API des hyperviseurs pour pouvoir établir des canaux de communication entre les serveurs virtuels génériques et un serveur virtuel de la solution de sécurité installée sur la machine qui héberge les serveurs virtuels. Ce serveur virtuel propriétaire étant directement piloté par un serveur de management de la solution de sécurité en question. Les mises à jour ne se font donc plus serveur par serveur mais juste par l’intermédiaire de ce serveur virtuel de sécurité. De plus, le mode agentless permet d’alléger la charge sur chacune des machines virtuelles, contrairement aux solutions classiques et historiques d’antivirus. L’autre atout de ces nouvelles solutions de sécurité est qu’elles sont – pour certaines d’entre elles – combinées avec d’autres mécanismes de sécurité qui peuvent être activés ou non à la demande. Parmi les mécanismes de sécurité supplémentaires proposés, nous avons le HFW (Host Firewall) mais surtout le HIPS (Host IPS) qui permet d’effectuer du Virtual Patching. Les différentes failles de sécurité remontées récemment comme HeartBleed ou encore les failles de sécurité récurrentes sur les systèmes d’exploitation comme Microsoft ou sur les applications comme Java, Adobe, IE, Firefox et d’autres, ne permettent pas de s’assurer que tous les serveurs de son parc informatique sont à jour de façon régulière. Il est également impossible de faire des mises à jour toutes les semaines de l’ensemble du parc pour combler toutes ces failles de sécurité. Ces nouvelles solutions de sécurité permettent de scanner chacun des serveurs et d’y appliquer des patchs de sécurité (basés sur des signatures comme un IPS) en se référant aux vulnérabilités connues des versions des systèmes d’exploitation et d’applications. Cela permet de garantir une protection continue des serveurs tout en réduisant les fréquences de mises à jour, qu’ils soient physiques, virtualisés ou VDI (Virtual Device Interface). Grâce à ces nouveaux mécanismes, une nouvelle ère est arrivée dans le monde de la sécurité des environnements virtuels – et non virtuels – puisque ces solutions fonctionnent aussi bien sur les deux environnements (à la différence que : sur un environnement physique, l’agent est toujours requis mais celui-ci est souvent allégé pour ne peser plus que 20 à 30 Mo, contre les + 100 Mo habituels).

16°article La virtualisation : réduire les coûts en entreprise Par Sabine Terrey | 18/08/2014 Virtualisation, DataCenter, VMware, Etude, DSI 7 11 Hervé Uzan, Président de VMware France, nous livre sa vision du marché de la virtualisation, tout en commentant les résultats d’une étude exclusive menée auprès d’une centaine de DSI d’entreprises françaises. La virtualisation est une source d’économies Les raisons principales pour lesquelles les entreprises choisissent de virtualiser leur infrastructure, c’est d’abord pour la réduction des CAPEX et des OPEX. La virtualisation permet aussi de réduire le nombre de serveurs dans l’entreprise, et engendre une source d’économie en termes d’énergie, de consommation électrique, de climatisation et de surface au sol. En outre, les solutions de virtualisation sont mises en œuvre facilement, donc opérationnelles très rapidement, « 65% des DSI interrogés voient dans la virtualisation une source de maîtrise de leurs dépenses IT » souligne Hervé Uzan. La virtualisation est fondamentale, notamment dans les grands comptes qui se sont lancés dans l’industrialisation de la virtualisation de leurs infrastructures. Dans les PME, la virtualisation semble un peu moins étendue. « La virtualisation apporte dans un premier temps, beaucoup de fiabilité, et elle est considérée comme la première étape vers le cloud » insiste Hervé Uzan, « 77% des entreprises interrogées sont, d’ailleurs, engagées dans un processus de virtualisation ». On assiste à une vraie généralisation de la virtualisation dans les entreprises. Après la création des machines virtuelles, les entreprises investissent aujourd’hui, de plus en plus, dans le contrôle et le management de leurs infrastructures virtuelles, le tout pour une meilleure administration de l’ensemble. Tendances et évolutions Dorénavant, la première étape est d’étendre la virtualisation au-delà des serveurs, c’est-à-dire virtualiser le réseau, le stockage, la sécurité, avec un passage vers le SDDC (Software Defined Data Center). « Après les 77 % de virtualisation des serveurs, les entreprises souhaitent virtualiser leur structure totale, leur datacenter » ajoute Hervé Uzan. L’aspect virtualisation des serveurs est validé, déployé et testé, l’idée est d’aller plus loin en apportant plus d’agilité et de fiabilité à l’infrastructure globale. Deuxième étape, c’est l’automatisation des tâches. L’idée est d’accélérer et simplifier l’accès aux ressources informatiques et les projets se tournent vers l’IaaS, PaaS, DaaS. Dans l’étude, 73 % des entreprises sont sensibles à la mobilité car le DaaS apporte la simplification des opérations, permet de réduire le temps d’accès aux données, de diminuer les données stockées au niveau du poste de travail, et permet également à n’importe quel utilisateur d’accéder à ses ressources à partir de n’importe quel device, de n’importe où et n’importe quel moment. « Tendance déjà très présente en 2013, qui va perdurer pour 2014, les projets d’envergure de transformation du poste de travail sont une vraie tendance aujourd’hui dans les entreprises » précise Hervé Uzan. Autre point important. Les DSI souhaitent augmenter le taux d’utilisation de leurs équipements (datacenters et postes de travail). Ainsi, il s’agit d’étendre la virtualisation au-delà de son propre datacenter, vers du Cloud public et Cloud hybride. L’intérêt se tourne vers le déploiement d’un datacenter virtuel en interne (cloud privé), avec la possibilité de transférer des applications/workloads de leur Cloud privé vers du Cloud public sécurisé. En outre, WMware et OVH ont un accord en ce sens, OVH propose du Cloud public sur la base des technologies VMware. Par ailleurs, VMware met l’accent sur son propre Cloud public, vCHS (vCloud Hybrid Service), lancé en 2013 aux Etats-Unis, à base de technologie VMware, en particulier pour les clients souhaitant passer de manière fluide dans le Cloud public. Après l’Angleterre début 2014, les prochaines étapes seront pour l’Allemagne et la France.

Autre tendance forte avec le ‘Shadow IT’. Beaucoup de Directions métier font appel à du Cloud public sans en référer obligatoirement à leur Direction Informatique, dans un but de rapidité et d’agilité et afin d’éviter les mises en œuvre de processus longs et complexes. Les métiers consomment ainsi des services, court-circuitent les process établis par les DSI, et ce phénomène s’amplifie. Les DSI ont décidé de réagir pour contrôler les ressources informatiques, et s’organisent pour proposer en interne un portail de services avec un accès, à partir de ce portail, vers des services internes (privé pour les applications critiques) et externes (public pour les applications non-critiques). Etude VMware : les chiffres clés L’enquête menée à l’initiative de VMware auprès de 102 DSI d’entreprises françaises et conduite à l’occasion du VMware Tour 2013, révèle les enjeux de la virtualisation. Outre l’aspect maîtrise des dépenses IT et la généralisation de la virtualisation, 50 % des entreprises ont mis en place un outil d’administration et de management des machines virtuelles pour garder le contrôle. L’externalisation est vue par les entreprises comme un moyen de baisser la pression sur leur budget IT : cela concerne 18% des entreprises de plus de 500 salariés et 39% des entreprises de moins de 500 salariés. Le rôle des DSI a évolué notamment dans les relations avec les Directions Métiers : celles-ci proposent de plus en plus aux DSI de les mettre en relation avec des sociétés IT avec lesquelles elles souhaitent travailler. 67 % des DSI se retrouvent ainsi mis en relation avec des sociétés de services, via leur Direction Métier. Par ailleurs, des Directions Métiers mettent les DSI en concurrence avec des sociétés IT : 48 % des DSI pensent qu’ils sont ainsi mis en concurrence. La pression des Directions Métier sur leur DSI afin qu’ils soient plus agiles et réactifs, proposent des services à valeur ajoutée plus simplement et plus rapidement, est forte. La virtualisation et le Cloud hybride sont une vraie solution pour les Directions Métiers. Jusqu’ici, les DSI n’avaient peut-être pas les moyens et outils pour répondre à ces sollicitations Métiers. On assistait encore récemment à une vraie dichotomie, entre le quotidien dans le domaine public, et le quotidien dans les entreprises (datacenters anciens, non renouvelés …), mais, l’approche informatique est en train de changer, de s’ouvrit et devient plus flexible ! Il y a une réelle transformation du business model… Les promesses sont faites, les tendances 2014 sont là : vaste processus de modernisation et d’agilité des datacenters, généralisation des portails de services (accès cloud privé et public), et montée en puissance du Cloud et des projets BYOD notamment dans les grands comptes. Avec ses trois axes de développement majeurs à savoir SDDC, End-User Computing (amélioration du poste utilisateur) et le Cloud hybride (services provider et vCHS), VMware est paré pour 2014 !

17°article

Virtualisation : Citrix intègre une brique de mobilité

Clément Bohic, 18 septembre 2014, 11:13

La start-up américaine Virtual, qui a développé une plate-forme cloud permettant la virtualisation au sein d’environnements iOS et Android, passe dans le giron de Citrix. Citrix ajoute une brique dans sa stratégie mobilité avec l’acquisition de Virtual. Cette start-up américaine a développé une plate-forme cloud permettant la virtualisation au sein d’environnements iOS et Android. Une solution destinée notamment aux développeurs, qui peuvent créer des environnements de test et de débogage sans avoir à se procurer des terminaux « physiques ». Associant des technologies de virtualisation et d’émulation, l’offre de Virtual s’appuie sur le cloud pour permettre un accès simplifié aux postes de travail, aux applications et aux données depuis « n’importe quel appareil et n’importe quel réseau », selon Chris Wade. Ce hacker, qui fut l’un des premiers contributeurs au « jailbreak » de l’iPhone, n’est autre que le fondateur de Virtual. Pour mener à bien cette entreprise, il s’est attaché les services d’autres spécialistes du développement logiciel comme Nicholas Allegra, connu sous le pseudo @comex et créateur de l’outil JailbreakMe, utilisé pour déverrouiller des millions de téléphones en 2011. Chris Wade a construit Virtual à partir d’un émulateur iOS open source qu’il avait lancé en 2011 sous le nom d’iEmu. Financé avec succès sur la plate-forme de crowdfunding Kickstarter, le projet avait été interrompu pour éviter d’éventuels conflits avec Apple. Virtual s’inscrit dans la continuité de ce premier jet, mais avec l’objectif de « passer de l’émulation à la virtualisation », pour fournir à l’utilisateur de meilleures performances et davantage de sécurité, grâce à une représentation plus fidèle des devices à bas niveau. Testé auprès de HP sur ses serveurs ARM Moonshot, Virtual permet notamment d’enregistrer les états de machines virtuelles à un instant T, puis de les partager. Capable de faire tourner iOS sur OS X à l’image des applications Android sur Chrome OS chez Google, le produit peut constituer un substitut à des services de location de terminaux « physiques » tel qu’Appurify, récemment racheté par… Google. A noter qu’il n’était pas encore commercialisé : la bêta privée, ouverte en début d’année, avait enregistré, au dernier pointage, plus de 10 000 inscriptions.

18°article

NSX, la virtualisation du réseau pèse 100 millions de dollars

le 16-10-2014

Par Thierry Outrebon

Martin Casado, co-fondateur de Ncira, désormais senior vice-président en charge de l’activité réseau et sécurité chez Vmware, a répondu à nos questions à

l’occasion de VMWorld a Barcelone.

L’an passé, vous mettiez avec NSX l’accent sur la virtualisation des réseaux et maintenant vous mettez en avant la sécurité. Qu’est ce qui a changé ? MC: ( photo) « C’est une présentation différente mais il ne s’agit là que d’une application concrète de la virtualisation du réseau, avec la notion de pare-feu distribué. On a un pare-feu stateful constitué de multiples modules qui gèrent chacun un port par VM( machine virtuelle). Si une VM se déplace, le traitement se déplace avec elle et garde les traces des connections (chaque paquet qui se déplace est traité à la volée). Avec cette segmentation, on garde une vision logique globale de l’ensemble, celle d’une application distribuée. Home Depot l’exploite dans son data center et cela permet de gérer des charges «Nord-Sud » importantes. Notre partenaire Palo Alto va beaucoup plus loin avec son produit de nouvelle génération. » Depuis la fin août, Vmware met en avant Openstack. Vous qui avez été l’un des premiers contributeurs à la rédaction d’OpenStack, pourquoi avoir attendu autant de temps pour le mettre en œuvre ? MC: « C’est un produit open source auquel on a largement contribué. On est même dans le top 5 des contributeurs mais pour proposer de la maintenance et facturer des services, il faut stabiliser le code et proposer une version figée pendant un certain temps ; c’est la raison de notre VIO. » Comment a évolué NSX ? MC: « C’est devenu un produit commercialisé par notre réseau et nous avons déjà 250 clients importants. Nous avons réalisé plus de 100 millions de dollars de chiffres d’affaire avec NSX. De ce fait, nous sommes devenu les numéros un du SDN et les seuls à gagner de l’argent. En ce qui concerne l’évolution du code, nous l’avons amélioré pour mieux l’intégrer avec Vsphere et aussi avec les autres hyperviseurs KVM, Xen etc. » Que pensez vous du projet Contrail de Juniper qui paraissait le projet SDN le plus abouti face à NSX ? MC: « NSX reste une couche de virtualisation de réseau IP pour optimiser l’utilisation des applications. Eux se sont focalisés sur des offres pour opérateurs. Mais désormais on travaille aussi sur la « scalabilité », la capacité d’accroissement des traitements, de NSX. » Comment travaillez vous avec Cisco ? MC: « On propose notre couche de virtualisation NSX sur leurs serveurs UCS en collaboration avec leurs commutateurs 7000 en particulier. NSX fonctionne sur n’importe quel hyperviseur, pour n’importe quelle application, avec une plate-forme de gestion dans le cloud. Cisco nous voit comme une couche d’overlay, comme une simple application. » PS. Martin Casado est désormais vice président de l’activité réseau et sécurité. A son précédent poste (Chief Technology Strategy Officer) est arrivé Guido Appenzeller, le co-fondateur de Big Switch Network qui était le concurrent direct, il y a trois ans, de Ncira. Avec l’arrivée de plusieurs ingénieurs importants de chez Cisco, Vmware est devenu la référence dans la virtualisation des réseaux

19°article

Virtualisation du réseau : Alcatel-Lucent déploie sa NFV en Corée

Christophe Lagane, 13 octobre 2014, 17:00

Alcatel-Lucent signe un accord avec l’opérateur KT en Corée pour le déploiement pilote d’un réseau mobile NFV entièrement virtualisé. Alcatel-Lucent pousse l’adoption des technologies de virtualisation de réseau mobile… en Corée. L’équipementier vient d’annoncer la signature d’un accord de coopération avec KT (Korean Telecom) pourtester à grande échelle les technologies NFV (Network Functions Virtualization) de virtualisation des fonctions réseau. Une nouvelle architecture réseau mobile Celles-ci s’inscrivent dans le projet GIGAtopia de l’opérateur coréen qui entend développer une nouvelle architecture Cloud de son réseau mobile en adoptant une technologie virtualisée. Rappelons que, en virtualisant les couches (4 à 7) réseau, la NFV facilite l’installation d’applications, de machines virtuelles et leur déplacement dans une infrastructure de serveurs standard x86 sans avoir à reconfigurer le réseau. Une agilité dont KT entend profiter au plus vite à travers le déploiement d’un pilote de démonstration à peine plus d’un an après le lancement du programme d’écosystème CloudBand lancé par Alcatel-Lucent. « Nous nous réjouissons de l’évolutivité et de la flexibilité promises par la NFV en matière de création de services, déclare HongBeom Jeon, directeur des laboratoires technologie Infra de KT. Nous misons sur ce projet autour des technologies NFV et vEPC pour gagner en agilité, accéder à de nouveaux marchés et créer d’autres opportunités de revenus pour KT. »

Piloté par le SDN de Nuage Networks Pour cette mise en œuvre, l’opérateur s’appuiera donc sur les systèmes virtualisés EVP (Evolved Packet Core) pour la livraison de services, la plate-forme CloudBand NFV (gestion de l’environnement NFV) et celle de gestion de virtualisation des services (VSP) de Nuage Networks, la filiale d’Alcatel-Lucent spécialisée dans les technologies SDN (Software Defined Network) pour la consolidation et l’automatisation de l’infrastructure. « Les solutions vEPC et CloudBand, associées aux solutions VSP pour SDN de Nuage Networks, offrent un modèle d’architecture innovante pour répondre à la demande des charges applicatives de prochaine génération », assure de son côté Chi Il Yoo, directeur des activités d’Alcatel-Lucent en Corée. KT n’est pas le premier opérateur à se tourner vers Alcatel-Lucent pour moderniser son réseau. Au Mobile World Congress 2014 de Barcelone (MWC), l’équipementier et China Mobile avaient fait la démonstration d’un Cloud mobile pour flexibiliser le réseau. Lors de ce même événement, l’entreprise dirigée par Michel Combes signait un accord de co-innovation avec Telefónica autour de la virtualisation des fonctions réseau. Plus récemment, en mai 2014, Alcatel-Lucent déployait le premier réseau d’accès radio (RAN) virtualisé avec ses technologies NFV (contrôleur radio 9771 WCE RNC) pour l’opérateur Mobily Saudi Arabia. Aujourd’hui, c’est donc en Asie que prend pied la NFV d’Alcatel-Lucent.

20°article

Skynote, le naufrage de la transformation numérique de GDF Suez

Business : Ce devait être le projet de transformation numérique le plus ambitieux de la décennie. L'enjeu : virtualiser les 120.000 postes de travail du géant de l'énergie, GDF Suez. Presque deux ans après son lancement, moins de 1300 utilisateurs ont migré. Analyse d'une catastrophe. Par Guillaume Serries | Lundi 01 Décembre 2014 C’est l’histoire d’un dévissage en règle. Le 6 juin 2013, GDF Suez annonce à un parterre de 2 000 invités un projet de virtualisation de ses 120.000 postes de travail, en partenariat avec Unisys. Gaz de France entre ainsi de plain pied dans la transformation numérique. Jean-Paul Amoros, le directeur de l'infrastructure de production chez GDF Suez assure alors que le rythme de migration sera de 35.000 postes par an, promettant ainsi de mener ce projet pharaonique en moins de 4 ans. Il indique d’ailleurs que la première tranche de 35.000 postes commence à être basculée dans un cloud privé prévu à cet effet. « Il y a eu de grand effets d’annonce au VMWare forum » explique à ZDNet.fr un ancien de la DSI de GDF Suez. « Ils ont même annoncé que le projet de virtualisation était en cours alors que rien n’avait encore été démarré ». « On avait des inquiétudes dès le départ du projet » nous explique un syndicaliste maison. « Déjà, nous avions des soucis de réseau et d’application, qui plantaient sur certains sites ». "Le projet le plus ambitieux du moment" Jérôme Thomas prend la direction des affaires côté Unisys en octobre 2013, 9 mois après la contractualisation, alors que se construit selon lui « le socle du projet ». « C’est le projet le plus ambitieux du moment sur les thématiques de virtualisation du poste de travail » met-il en avant. En janvier 2014, un document de projet que nous nous sommes procurés relativise l’enthousiasme de la première annonce. « Nos objectifs initiaux pour 2014 étaient ambitieux, c’est pourquoi nous les avons révisés pour fixer des cibles plus réalistes » annonce le titre. Sur deux 'slides', on y apprend en effet que l’objectif interne n’était pas de migrer 35.000 postes par an, mais 25.000. Surtout, les nouveaux objectifs annuels sont fixés à… 3 000 postes. On est loin du compte. Fin octobre, nouveau point d’étape. 1264 postes ont été effectivement migrés, mais la cible de 3000 postes livrés à la fin de l’année demeure. Presque deux ans après le démarrage du projet, c’est donc un peu moins de 4% de l’objectif annuel qui a été réalisé. Contactée plusieurs fois par ZDNet.fr, Véronique Durand-Charlot, la DSI de GDF Suez, n’a pas souhaité répondre à nos questions sur l’avancement du projet. « Je n’ai aucune perception d’un quelconque échec de part et d’autre » dit de son côté Jérôme Thomas, responsable du projet côté Unisys. « Il y a une prise de conscience des enjeux d’un projet qui ouvre la voie. Parmi les challenges, il y a des résistances naturelles au changement. Il faut les adresser et cela prend du temps ». Un POC qui fait plouf « La DSI reconnait désormais qu’il y a une méconnaissance de la virtualisation » explique une source syndicale. « En fait, le POC (ndlr. Proof Of Concept) ne fonctionnait que sur les outils bureautiques ». Bilan, de nombreux progiciels ne tournent pas sur les instances virtualisées. « Ce sont les outils de facturation et de gestion qui posent le plus de problème » détaille un autre syndicaliste. « Dans l’élaboration du projet, et dans la migration, ils n’avaient pas été prévus ». Les outils de trading, ceux de gestion RH, ne supportent pas non plus à l’heure actuelle la virtualisation. Conséquence tout à fait compréhensible de cette situation, le département RH refuse à ce jour la migration. Ce sont donc les directions métiers qui freinent des quatre fers pour entrer dans la danse. La branche « Energie Europe », qui représente la moitié du parc, doit encore être persuadée de passer à la virtualisation. « Les services proposés par Unisys permettent d’adresser l’ensemble des métiers de GDF Suez » se défend de son côté le prestataire. « Après, il y a un choix à faire, à l’épreuve de l’examen des contraintes métiers, en fonction de l’intérêt économique, on ne peut pas avoir une réponse unique ». Mais les problèmes ne s’arrêtent pas à la virtualisation. La connectivité des machines est également en souffrance. « Concrètement, l’utilisateur se déplace avec son appareil dans les bureaux, et comme la connexion Wi-Fi ne suit pas, il perd sa session » explique un syndicaliste. « Si la couverture Wi-Fi est correcte, ça va. Sinon le collaborateur est obligé de revenir à son bureau pour se reconnecter au réseau, et avoir de nouveau accès à son poste de travail ». GSIT sous pression Conséquence de ces dysfonctionnements, la filiale IT de GDF Suez, GSIT, est désormais sous pression. Cette entité de 600 personnes chargée de livrer les postes virtualisés doit à la fois continuer à débuguer tout en gérant la production. Enfin, avec le prestataire Unisys, les relations sont exécrables affirment les syndicats. « C’est la guerre. La relation contractuelle se passe très mal. Chacun se renvoie la balle. C’est Unisys US qui gère désormais en direct ce dossier. On est à la limite du contentieux avec Unisys France » affirme une source interne de GDF Suez. « La relation de travail est excellente entre GSIT et Unisys » contredit Jérôme Thomas, d’Unisys. Il loue « l’application des équipes conjointe face aux enjeux ». Il mentionne également que la jeunesse de GSIT, formé en juillet 2013, « est un élément de complexité » du projet. De fait, la filialisation des métiers IT de GDF Suez avait créé des remous dès 2011. « Chacun trouve sa place de manière naturelle, le contour des responsabilités s’affine au fur et à mesure que l’on avance » note cependant le responsable d'Unisys. « Il est difficile d’évaluer le coût financier d’un tel désastre » assène une source syndicale qui craint en plus un sérieux risque d’obsolescence. « On tente de nous rassurer en nous expliquant que tout cela se construit sur le long terme, avec des objectifs à 5 ans ». Les dernières estimations internes à GDF Suez chiffrent désormais à 12 mois le retard sur le projet de virtualisation, et 18 mois celui de la migration des postes de travail dans le cloud. Un constat d'autant plus cruel que l'entreprise communique abondamment sur ses initiatives en matière d'IT, organisant régulièrement des hackathons à grands coups de hashtag #Hackgdfsuez. A moins que le prochain hackathon ne concerne le projet Skynote ?

Conclusion : Sur ces derniers articles, on observe bien qu’après la course à la virtualisation des serveurs et postes de travail , les « géants » de la virtualisation on

commençait à se pencher sur la virtualisation de la « mobilité » de même on analyse que les entreprises ont parfois rater leurs virtualisations.

Sur la dernière partie , on observera que le réseau commence également à se virtualiser , ce qui pourra compléter la virtualisation complète de l’entreprise qui

finalement est la finalité des DSI.

III )La virtualisation du réseau.

21°article

Le 13 Janvier 2015 Primary Data, la virtualisation pour simplifier le stockage Lance Smith, CEO de Primary Data à Loas Altos, le 4 décembre dernier. (Crédit S.L.) Fondée par l'ancienne équipe de Fusion-io, Primary Data propose de gérer toutes les capacités de stockage d'une entreprise au sein d'un seul pool virtuel. CTO et co-fondateur de Primary Data, David Flynn n'est pas un inconnu pour les lecteurs du Monde Informatique puisqu'il était jusqu'en mai 2013 directeur général de la start-up Fusion-io que nous avons plusieurs fois rencontré à San José. Et le CEO de Primary Data n'est autre que Lance Smith, l'ancien COO de Fusion-io. Leur société ayant été acquise par SanDisk en juin 2014 pour un montant de 1,1 milliard de dollars, la fine équipe a rapidement rebondi en lançant Primary Data en août 2013, embarquant pour l'occasion leur conseiller scientifique de luxe, Steve Wozniak. Forte de 80 employés, la jeune pousse, installée à Los Altos, a levé 60 millions de dollars et annonce déjà 10 000 utilisateurs alors que sa solution n'est disponible que depuis quelques mois. Alors que la virtualisation des serveurs a rendu l'informatique plus efficace et que la virtualisation du réseau commencer à faire le même travail pour les communications, le stockage reste - dans de nombreux cas - toujours lié à des plates-formes matérielles spécifiques. Des fournisseurs bien implantés comme EMC commencent certes à offrir des outils comme ViPR pour supporter différents systèmes, mais il s'agit avant tout de faciliter les migrations vers ses solutions. Primary Data se place dans une tout autre logique en séparant le contrôle des données du support du stockage grâce à une couche de virtualisation doté d'une extension vers le cloud. Une fois la phase de détection terminée et des agents (Data Hypervisor) installés sur les baies, les serveurs et les VM, toutes les capacités de stockage - du cloud aux baies flash - font partie d'un espace global peut ensuite être réparti pour répondre à des besoins de haute performance ou de haute capacité, nous a indiqué Lance Smith. Un protocole unique, NFS, pour fédérer bloc, objet et fichier Cet espace virtuel peut s'étendre sur les systèmes blocs, objets et fichiers, en conservant les protocoles de transport spécifiques tels que Fibre Channel, mais le traitement de toutes les données passe en mode fichiers. Au lieu d'utiliser un nouveau protocole, le logiciel de données primaire repose sur le très utilisé NFS (Network File System). Le Data Hypervisor, épaulé par un Data Director qui gère les métadonnées de tous les fichiers stockés, répond à toutes les requêtes via un espace cache (voir illustration). Les données primaires sont aujourd'hui gérées par une appliance physique pour accélérer la localisation et le transfert des fichiers mais une version cloud - une VM donc - sera disponible en milieu d'année pour répondre à plusieurs demandes de clients.

Un hyperviseur sur chaque machine assure la gestion des fichiers dans un espace globale. « Avec la virtualisation des données, chaque utilisateur peut trouver un projet en utilisant un même nom de fichier universel au lieu d'avoir à se soucier de l'endroit ou il est stocké, a souligné le dirigeant. « Ainsi, une fois la politique établie, des fichiers peuvent être automatiquement déplacés d'un fuseau horaire à un autre. Lorsque la journée de travail se termine à Hollywood, des données primaires peuvent être déplacées vers un espace de stockage local et plus rapide à Singapour, où une autre équipe vient de commencer sa journée », a indiqué le CEO. Et à l'inverse, la datalocalisation des données est également possible pour répondre à des cadres juridiques spécifiques. Interrogé sur cette nouvelle aventure, Lance Smith a simplement avoué que l'idée de Primary Data avait commencé à germer chez Fusion-io.

22°article

Le 17 Février 2015

Red Hat esquive le cloud avec Enterprise Virtualization 3.5

Le dernier logiciel de virtualisation de niveau entreprise de Red Hat permet aux entreprises de déployer une infrastructure IT qui peut supporter des charges de travail de virtualisation traditionnelles, pour

concurrencer mais également faire office de complément à une infrastructure cloud Open Stack.

Red Hat Enterprise Virtualization 3.5 délivre des services normalisés pour des charges de travail stratégiques et apporte aux entreprises IT plus de visibilité sur le provisionnement, la configuration et le contrôle de

leur infrastructure de virtualisation, l'ensemble étant basé sur des standards ouverts. La plateforme de virtualisation supporte jusqu'à 4 To de mémoire par hôte, 4 To de VRAM et 160 processeurs virtuels par

machine virtuelle. Il inclut également la gestion du cycle de vie et le provisionnement d'hôtes « bare-metal » grâce à une intégration avec Red Hat Network Satellite. De plus, grâce à une intégration avec l'outil

d'analyse en temps réel oVirt Optimizer, la plateforme permet une optimisation du traitement. Notamment, les utilisateurs peuvent trouver la répartition des ressources la plus adaptée à leurs besoins et

éventuellement provisionner de nouvelles machines virtuelles.

La performance et l'évolutivité de la charge de travail sont assurées grâce au support à l'accès mémoire non uniforme ou NUMA, qui s'étend à Host NUMA, Guest Pining et Virtual NUMA. Cela permet aux clients de

déployer des charges de travail hautement évolutives avec des performances améliorées et de réduire la surcharge des ressources liée aux temps d'accès de la mémoire physique. La reprise après sinistre est

également améliorée grâce à une meilleure gestion des domaines de stockage. Il est notamment possible de migrer les domaines de stockage entre différents datacenters pris en charge par Red Hat Enterprise

Virtualisation, certaines technologies partenaires pouvant fournir des capacités de récupération.

Intégration avec OpenStack si besoin

Par ailleurs, Red Hat Enterprise Virtualisation peut faire office de base idéale aussi bien pour des charges de travail de virtualisation traditionnelles que pour des charges cloud très flexibles basées sur OpenStack.

L'intégration et le partage de services communs avec Glance (Image Service) et Neutron (Networking), disponibles en Preview technique, permettent aux administrateurs de décloisonner et de déployer les

ressources en une seule fois sur l'infrastructure. Selon Jim Totton, le vice-président et directeur général, Platforms Business Unit, de Red Hat, le nombre d'entreprises qui veulent profiter de l'IT bimodal dans leurs

environnements cloud et virtualisés ne cesse de croître. « Red Hat Enterprise Virtualisation apporte un composant d'infrastructure essentiel. Il s'adapte à la fois à la virtualisation d'entreprise traditionnelle et fournit

une base pour les charges de travail cloud », a-t-il déclaré.

Pour Doug Matthews, vice-président de Symantec, Information Availability, la collaboration continue entre Symantec et Red Hat a permis d'offrir aux clients une transparence et une disponibilité mondiale de leurs

environnements IT bimodaux. « Cette qualité de service concerne aussi bien les applications critiques sur les plateformes physiques Red Hat Enterprise Linux que les futurs environnements Red Hat Enterprise

Virtualisation basés sur OpenStack ».

23°article

Par Sabine Terrey | 06/03/2015 Cédric Bravo, MVP Virtualisation, commente la perception de la virtualisation au sein des entreprises et sur les annonces 2015. La virtualisation est désormais totalement intégrée dans le paysage des entreprises. Quid de la fin du support Windows Server 2003 ? Cela peut être une opportunité pour les entreprises de se pencher sur leur infrastructure IT et son éventuelle modernisation. Le compte à rebours est désormais lancé, le 14 juillet 2015, ce sera la fin ! Quant à 2015 ? De belles annonces en perspective, Docker, fonctionnalités Hyper-V, virtualisation réseau, offre CPS « offre Microsoft totalement intégrée avec le matériel permettant d’avoir une solution complète ».

24°article

Comment Leroy Merlin a revu en profondeur le poste de travail

Par Louis Adam | Mercredi 08 Avril 2015

Si on cherchait un exemple pour illustrer les problématiques de mobilité et de sécurité abordées dans le cadre de la conférence Roomn, Leroy Merlin constitue un bon cas pratique. Prenons l'histoire depuis le début : en 2011, le spécialiste du bricolage entame une refonte en profondeur de son infrastructure informatique.

« On était sur un système informatique assez âgé, et une infrastructure propre à chaque magasin», explique à ZDNet.fr Tony Duburque, responsable technique de la société « Le premier objectif, c'était de centraliser tout ça. Tout d'abord pour diminuer les coûts, évidemment, mais aussi dans l'optique de mettre en place de clients légers. » Un virage qui s'amorce dans un contexte de fin du support de Windows XP, échéance qui pousse la société à renouveler ses postes de travail. Première incarnation : le poste kiosque L'expérience prend tout d’abord la forme d'un poste kiosque : en s'appuyant sur les solutions de virtualisation de bureau Citrix et la technologie de SSO proposée par Ilex, Sign&Go, les équipes de Leroy Merlin ont mis en place des postes de travail partagés. Chaque matin, les utilisateurs s’authentifient sur le système, puis peuvent accéder à leur session à l’aide d’un badge magnétique. Les sessions étant virtualisées, les utilisateurs peuvent donc passer simplement d’un poste à un autre : il suffit de badger pour ouvrir la session et celle-ci se referme automatiquement dès qu’un autre utilisateur badge ou que la session est ouverte sur un autre terminal. « L’intention de départ était l’amélioration du contrôle d’accès en transformant la session générique du poste multiutilisateur par des sessions personnelles » nous explique Thierry Debreu, également responsable de domaine technique chez Leroy Merlin. « La préoccupation principale était la performance, notamment le temps de switch de session entre 2 utilisateurs, pour avoir la meilleure adoption possible et améliorer son confort d’utilisation au quotidien. » Favoriser l’ergonomie et l’usage quotidien en premier lieu donc, tout en simplifiant le SI et en réduisant les coûts. Et au passage, bénéficier d’une meilleur sécurité et gestion des accès à travers la nouvelle méthode d’authentification qui repose sur la logique de Single Sign On (SSO) comme l’explique Olivier Morel, d’Ilex « Le principal problème posé par le système mis en place à l’origine, c’était d’une part les facteurs irritants posés par la multiplication des mots de passe et le défaut de traçabilité. » Sur ce point, Ilex a donc apporté sa solution Sign&Go ainsi que son expertise « On s’est notamment inspiré d’autres expériences qu’on a pu suivre chez nos clients. Dans le secteur de la santé notamment, où l’usage des cartes à puces est largement répandu, ce type de configuration est assez courant.» Ne pas s’arrêter en si bon chemin Après une première période de test dans plusieurs magasins, l’expérience est jugée concluante et étendue à l’ensemble des 120 points de vente de la marque. Plus de 20.000 badges sont distribués, qui permettent donc aux utilisateurs de s’authentifier sur les différents postes kiosques. Et Leroy Merlin tente maintenant de prolonger l’expérience en proposant cette fois-ci l’usage de tablettes en complément du poste kiosque déjà en place : « L’idée était d’être en mesure de développer des applications mobiles et de permettre au vendeur d’accompagner le client dans le magasin, tout en gardant accès au SI via la tablette » explique Tony Duburque. Un prototype de cette évolution a été lancé dans le magasin de Douai. Une simple expérimentation pour l’instant, et les responsables du projet préfèrent rester prudents, mais avouent néanmoins envisager plusieurs pistes d’évolutions, à travers la mise en place de politique de BYOD ou CYOD. Le projet convoque un certain nombre de paramètres, qu’il a fallu prendre en compte. Ainsi, la mise en place de la solution Sign&Go proposée par Ilex pour l’authentification a permis de l’adapter à toutes les applications métiers. Mais elle nécessite que les magasins soient connectés à Internet et donc à prévoir des parades dans les cas ou son fournisseur d’accès viendrait à défaillir, une éventualité envisagée par les responsables techniques de Leroy Merlin : « En cas de coupure réseau d’un site, les terminaux ont un mode dégradé qui permet d’ouvrir une session générique locale avec uniquement les outils indispensables à la vente » explique Thierry Debreu. « Les liens réseaux entre les sites distants et les datacenters ont été également mieux sécurisés pour éviter au maximum ce genre de situations. » On peut également évoquer les contraintes en termes de bande passante, avec un pic de connexion à prévoir le matin lorsque les employés s’authentifient, ou les contraintes matérielles liées à l’utilisation des badges. Autant de variables qui demandent d’avancer avec prudence, mais le projet, amorcé en 2011, se poursuit. « Dans ce type de projet, c’est un équilibre à trouver » résume Olivier Morel. « D’une part il y a un curseur à placer entre sécurité et ergonomie, et au-dessus de cela une troisième variable, celle des coûts qui doivent être maîtrisés. »

Enfin pour conclure sur cette veille juridique, je pense que le dernier article choisi que je vous présente et un résumé et une conclusion de ces deux années.

Il s’agirait donc de ma conclusion

25°article et conclusion

La virtualisation des postes, figure de proue du SIH de demain

Philippe Labaste, Dell France, LUNDI 25 MAI 2015

Lancé en 2011, le programme hôpital numérique, piloté par la Direction Générale de l’Offre de Soins (DGOS), constitue la politique nationale à cinq ans (2012-2017) relative aux systèmes d’information hospitaliers.

Cette stratégie définit un plan de développement et de modernisation des systèmes d’information hospitaliers (SIH) afin de fixer des priorités et des objectifs à 6 ans, en mobilisant tous les acteurs concernés et en

accompagnant les établissements de santé dans leur transformation par les technologies de l’information et de la communication.

Par Philippe Labaste, Directeur des ventes Europe du Sud et Afrique du Nord Division Cloud Client Computing, Dell France

Les établissements de santé cherchent par tous les moyens à permettre aux professionnels de santé d’améliorer les soins aux patients, mais en raison des compressions budgétaires, les médecins se retrouvent à

devoir en faire toujours plus avec des moyens réduits. On peut se demander si ces établissements sont pleinement au courant des nouvelles possibilités offertes par la technologie. La virtualisation des postes de

travail et les solutions d’authentification forte peuvent radicalement changer la donne.

Ce type de solution ne se contente pas d’offrir des réponses en matière de virtualisation des postes de travail, d’informatique flexible ou d’authentification unique, elle offre un accès sécurisé aux données sur le lieu

des soins. Toutes les informations nécessaires aux professionnels de santé sont ainsi à portée de main. Le gain de temps ainsi réalisé peut ensuite être réutilisé par les professionnels de la santé auprès de leurs

patients.

Avec les clients légers, le secteur santé tient un moyen fiable et plus sécurisé d’accéder aux dossiers des patients et autres informations médicales critiques. Les déploiements de clients légers donnent un accès

centralisé sécurisé aux données et ce en temps réel. En outre, l'accès centralisé améliore le flux de travail clinique, en favorisant l'accès rapide et fiable du personnel médical à des informations exactes pour une

meilleure expérience du patient.

La mise en place d’une infrastructure de virtualisation de postes de travail permet d’accéder à une session d’un terminal à un autre, développant ainsi la mobilité des professionnels de la santé entre chaque patient.

Chaque utilisateur peut avoir accès aux applications dont il a besoin, indépendamment de l’endroit où il se trouve au sein de l’établissement sans avoir besoin de retenir plusieurs mots de passe grâce à

l’authentification forte par carte CPS (Carte professionnel de santé).

L’utilisation des technologies de virtualisation offre au personnel informatique un contrôle centralisé des données des utilisateurs finaux qui sont stockées et gérées dans le datacenter, permettant ainsi une

productivité accrue, une réduction des coûts, une sécurité intégrée et une gestion facilitée. Le stockage des données étant réalisé dans le datacenter plutôt que sur des disques durs, le risque de perte ou de vol des

données s’en trouve considérablement réduit et la confidentialité et la sécurité renforcée.

Par ailleurs les mises à jour sont exécutées dans le datacenter et déployées automatiquement sur le système client. Les coûts associés à l’assistance informatique sur les postes de travail sont donc réduits, tout

comme le temps nécessaire au déploiement des nouvelles images, des correctifs et des mises à niveau. Surtout, la virtualisation de postes permet de répondre aux exigences de haute disponibilité des systèmes

propres au milieu hospitalier (24h/24 et 7j/7) avec des serveurs redondants connectés aux clients légers bien plus fiables que les PC avec un taux de panne très inférieur.

Le client léger présente une adaptabilité à chaque usage, dans la chambre, dans les couloirs ou même mobile sur un chariot avec des données toujours à jour puisqu’elles sont sur le serveur. Le boitier ne contenant

lui-même aucune information, il ne risque pas d’être volé. La prévention des accès non autorisés et la réduction des risques liés à la perte ou au vol peuvent aider les établissements à mieux se conformer aux

dispositions réglementaires.

La virtualisation des postes clients permet également la lecture des cartes vitales et CPS via un clavier intégrant le lecteur ou via un lecteur externe.

Il est vrai que la contrainte budgétaire reste réelle, mais l’intégration de l’hôpital dans les initiatives digitales de l’Etat est devenue une priorité, au même titre que l’évolution des mentalités pour une conduite du

changement sereine. Les responsables informatiques doivent se mettre à la place des utilisateurs, pour proposer des outils informatiques ergonomiques, simples d’utilisation mais dont ils maitrisent la gestion, et sur

lesquels nombre de processus peuvent être sécurisés et portés rapidement. De leur côté, les professionnels de santé doivent prendre la mesure des enjeux liés au maintien de l’intégrité des données de santé, et

s’engager à adopter des comportements numériques responsables.

Ce n’est qu’en travaillant à moderniser d’une part son infrastructure informatique, et en équipant d’autre part ses équipes soignantes que l’hôpital pourra être à la pointe des technologies numériques.