projet dc cambridge
TRANSCRIPT
Projet Cambridge
Bertrand Guézel Confidentiel 1/33
Pré-‐étude de projet « Cambridge »
Opportunités pour un nouvel entrant sur le marché des centres d’hébergement et de traitement de données
Valeur ajoutée et retour sur investissement
Rédacteur : Bertrand Guézel Version : 1.0
Projet Cambridge
Bertrand Guézel Confidentiel 2/33
INDEX 1. Introduction ......................................................................................................................... 3 2. Concept et utilité d’un datacentre................................................................................. 4 3. Spécificités du marché des datacentres ...................................................................... 8 4. Clientèle type......................................................................................................................11 5. Mode opératoire................................................................................................................16 6. Valeur ajoutée....................................................................................................................20 7. Services associés ...............................................................................................................25 8. L’environnement du datacentre ..................................................................................27 9. Retour sur investissement.............................................................................................30 10. Addendum ........................................................................................................................33
Projet Cambridge
Bertrand Guézel Confidentiel 3/33
1. Introduction Le rédacteur, Bertrand Guézel, a été sollicité en vue d’établir une étude de cas portant sur le marché des datacentres et des opportunités d’investissement relatives à ce secteur. Marché de niche très technique, ce secteur d’activité ne bénéficie d’une couverture médiatique que de la part de la presse spécialisée. Le rédacteur, dont l’expérience professionnelle porte sur des projets techniques complexes couvrant des environnements matériels, logiciels et réseaux depuis quasiment les débuts de l’internet commercial, a tissé des liens stratégiques avec certains des acteurs les plus importants du marché et qui sont évoqués dans le document ci-‐après. Une relation partenariale construite au long de plusieurs années qui permet aujourd’hui d’obtenir certaines informations non financières en toute transparence. Les informations financières divulguées ci-‐après sont issues des rapports communiqués par les directions financières des opérateurs et exploitants eux-‐mêmes à destinations des autorités financières, aux investisseurs et au public. Le développement ci-‐dessous tend à énumérer les grands concepts et modèles de réussite et s’appuie sur des données parfois publiques extraites de documentation sectorielle communiquée lors de colloques et séminaires ou disponible via des sites d’information couvrant le domaine très particulier des centres d’hébergement. Ce secteur repose sur l’amalgame d’un ensemble de compétences et expertises allant de l’ingénierie immobilière et financière à l’exploitation informatique en passant par les métiers de la sécurité physique et informatique, la climatisation et la logistique. Cette étude ambitionne d’éclairer le lecteur sur les multiples aspects du métier de fournisseur de datacentre en revenant sur ce qu’est un datacentre puis en détaillant le marché et les obligations d’un opérateur de site. Cette synthèse entend donner une vue pertinente de la valeur ajoutée et des divers impacts inhérents à l’implantation d’un tel site pour enfin aider le lecteur à jauger l’intérêt d’investir dans de telles opérations et quels retours il peut en attendre. Pour en savoir plus sur le rédacteur : http://fr.linkedin.com/in/bertrandguezel http://www.facebook.com/bertrand.guezel http://twitter.com/BaiGeai
Projet Cambridge
Bertrand Guézel Confidentiel 4/33
2. Concept et utilité d’un datacentre Pour bien comprendre les enjeux du marché des datacentres, il est primordial de revenir, avant tout, sur ce qu’est un datacentre. Un datacentre, ou centre de traitement de données, est un site sur lequel sont centralisés des moyens d’héberger, d’exploiter des données plus ou moins sensibles. Ce site se définit, généralement un bâtiment de plusieurs milliers de mètres carrés au duquel des « plateaux » de plusieurs centaines de mètres compartimentés isolent les unes des autres les zones de sécurité et de contrôle d’accès, de logistique et de production. En effet, un centre d’hébergement se caractérise par un ensemble d’infrastructures superposées se définissant communément comme suit :
-‐ une infrastructure immobilière, une infrastructure électrique capable de répondre aux besoins croissant en matière de consommation d’énergie tant pour les équipements hébergés que pour l’infrastructure de refroidissement inhérente au datacentre ;
-‐ une infrastructure réseau assez robuste pour livrer les services liés à la dématérialisation des contenus ;
-‐ une infrastructure de refroidissement évolutive accompagnant la montée en charge du site ;
-‐ une infrastructure de services, au premier rang desquels se situent l’accueil, la sécurité et les services de proximité.
Revenons sur ces points afin de détailler la criticité de chaque strate composant l’aspect purement immobilier. L’infrastructure immobilière : c’est, comme il se doit, la pierre angulaire du projet ; soit un ou plusieurs bâtiments présentant une surface suffisante pour assurer la logistique et la production de service. Le lieu retenu pour la construction d’un tel édifice doit présenter a priori un certain nombre de garanties et d’exemptions afin que le nouvel entrant dispose des meilleurs atouts : la zone doit être certifiée non inondable, éloignée des couloirs aériens, facilement accessible par la route mais à l’écart des zones de congestion, de trafic routier et de concentration urbaine, disposer d’une surface autorisant à la fois l’installation de zones et d’équipements de sécurité et laissant envisager de futures extensions. Le bâtiment en lui-‐même devra être le plus neutre et anonyme possible, être doté de systèmes anti intrusion pour pouvoir repousser un assaut par véhicule bélier, être assez distant des zones de stationnement pour faciliter la vidéosurveillance des allers et venues, distinguer les zones d’accès visiteurs des accès livraison, disposer de zones de contrôles d’accès pourvues entre autres de sas hermétiques, de contrôles de lecteurs de badges et contrôle biométriques. L’infrastructure réseau aura été étudiée au préalable afin d’accueillir un maximum de fournisseurs de services sur site, via une surcapacité de fibre optique à la construction.
Projet Cambridge
Bertrand Guézel Confidentiel 5/33
L’implantation de chambres de tirages et de fourreaux, là aussi en surcapacité, facilitera les travaux ultérieurs et permettra d’aborder sereinement le raccordement de futurs partenaires. Comme nous le verrons plus tard, le caractère multi opérateur et donc neutre du datacentre a une influence directe sur le volume et la qualité des projets. L’infrastructure de refroidissement est composée en fait de l’ensemble de la chaine climatique à proprement parler (surveillance et maintien du taux hygrométrique, de la température et de la ventilation) mais également des mécanismes de correction (détection de fumée, de chaleur d’incendie, alarme, dispersion / annihilation des gaz, extinction d’incendie). La couche de services du datacentre comprend des compétences aussi diverses que le contrôle d’accès, l’accueil des opérations logistiques, l’accueil des visiteurs, les opérations de maintenance réseaux, systèmes et matérielles et dans certains – quand elles ne sont pas confiées à des sous-‐traitants – les opérations de maintenance électriques et climatiques. Il est opportun de souligner ici l’importance du facteur humain dans les opérations quotidiennes du datacentre : tout centre d’hébergement, même sécurisé et redondé à tous les niveaux, sera jugé sur la capacité de ses ressources humaines à anticiper les problèmes, être réactives face aux impondérables et transparentes en matière de communication de crise. Les crises rencontrées par les datacentres étant habituellement les incidents électriques inopinés et ayant potentiellement un impact sur les plateformes hébergées en leur sein, l’analyse de ces incidents fait généralement ressortir une défaillance humaine plutôt que technique. Dès lors que la notion d’incident potentiel est posée, il est pertinent de s’interroger sur l’utilité d’un datacentre. Tout d’abord, nombre de sociétés ne disposent pas de locaux permettant la mise en place de salles techniques permettant l’exploitation de leur informatique, que cette informatique soit leur cœur de métier ou un « simple » outil. En effet, l’informatique moderne requiert le respect de règles et normes tant en terme de sols techniques, fourniture d’énergie, sécurité incendie, refroidissement des équipements, circulation des intervenants. Tout ceci pousse certaines entreprises à opter pour l’externalisation de leur informatique dans des centres conçus pour accueillir leurs équipements. D’autres sociétés, ou plus particulièrement secteurs d’activité, répondent à des obligations réglementaires, comme le secteur financier, et sont contraintes à présenter à leur régulateur les moyens mis en œuvre pour assurer la concordance de leur méthodes avec les meilleurs pratiques édictées par l’état de l’art. Entre alors la notion de datacentre répondant a minima aux critères retenus par l’état de l’art selon le secteur d’activité concerné. Pour faciliter le tri a priori des acteurs, les fournisseurs de datacentres se classent en « Tiers ». Ces Tiers sont paradoxalement au nombre de quatre, que l’Uptime Institute a classifié comme suit (Traduction de gridatacenter.org) :
-‐ « Tier I: composé d’un seul circuit électrique pour l’énergie et pour la distribution de refroidissement, sans composant redondant ; offre un taux de disponibilité de 99,671%,
-‐ Tier II: composé d’un seul circuit électrique pour l’énergie et pour la distribution de refroidissement, avec des composants redondants ; offre un taux de disponibilité de 99,741%,
Projet Cambridge
Bertrand Guézel Confidentiel 6/33
-‐ Tier III: composé de plusieurs circuits électriques pour l’énergie et pour la distribution de refroidissement, mais seulement un circuit est actif ; a des composants redondants, offre un taux de disponibilité de 99,982%,
-‐ Tier IV: composé de plusieurs circuits électriques pour l’énergie et pour la distribution de refroidissement, a des composants redondants ; actifs et supporte la tolérance de panne, offre un taux de disponibilité de 99,995%.
Les datacentres en Tier I ont beaucoup de points uniques de défaillance ou Single Point Of Failure (SPOF), l’infrastructure doit être complètement arrêtée pour des entretiens préventifs ou pour des travaux de maintenance annuelle. A contrario, les datacentres Tier IV ont tous les éléments nécessaires redondés, ce qui permet de maintenir en fonctionnement le datacentre sans jamais avoir besoin de l’arrêter pour un entretien, une maintenance annuelle ou un remplacement d’un élément actif. » En fonction du type de projet, d’équipements, de réglementation à laquelle il répond, le client sélectionnera un datacentre de Tier correspondant à ses attentes ou obligations. A noter toutefois que la plupart des datacentres répondant à la demande globale proposent un niveau de service équivalent au Tier III. La classification Tier IV est à ce point exigeante qu’en Amérique du Nord, seuls deux datacenters ont été certifiés par l’Uptime Institute. Reste à savoir quels équipements un client envisage d’externaliser en datacentre. Comme son nom l’indique, un centre de traitement de données répond à une fonction d’exploitation de données dématérialisées. Ceci se distingue par le fait de faire transiter, traiter, transmettre ou stocker et archiver ces données. Un datacentre loge donc tout à la fois des équipements purement informatiques (ordinateurs, serveurs, calculateurs, bases de données) et réseaux (commutateurs, routeurs, pares-‐feu, multiplexeurs), le tout en selon le métier du client et la nature du projet l’amenant à retenir les services de ce datacentre. Rappelons que l’aspect du site doit être le plus neutre et anodin possible, pour des raisons de sécurité passive évidentes.
Projet Cambridge
Bertrand Guézel Confidentiel 7/33
En effet, compte tenu de la criticité de certaines missions confiées aux opérateurs de datacentres, l’anonymat du site sera parmi ses plus grands atouts et assurera un premier niveau de sécurité. A noter que le risque sécuritaire (crises sociales, émeutes) voire terroriste est désormais pleinement intégré dans les projets de bon nombre de clients.
D’ailleurs, certains opérateurs se sont spécialisés sur le créneau de la sécurité et ont poussé le concept jusqu’à proposer des datacentres sécurisés en multipliant les contrôles d’accès, en optimisant la vidéosurveillance, en imposant des règles de logistique strictes, en sélectionnant les intervenants autorisés à intervenir dans les salles des clients, en limitant les effectifs désignés par les clients pour accéder à leurs équipements, etc.
La palme revient probablement à cet exploitant suisse ayant négocié avec le Ministère de la Défense helvète un partenariat lui octroyant une portion de base aérienne au cœur des Alpes et lui permettant de se faire livrer les équipements de ses clients par avion puis d’assurer la manutention, les opérations d’installation/configuration/maintenance par ses propres équipes dans un datacentre enterré entièrement autonome car disposant d’un accès à la même alimentation électrique que la base militaire adjacente et puisant l’eau nécessaire au refroidissement de l’ensemble directement dans une source souterraine à laquelle le Ministère de l’Environnement lui a concédé un accès. C’est là, probablement, le modèle de datacentre sécurisé le plus poussé, à ce jour : le client ne voit jamais la salle dans laquelle ses équipements sont hébergés, expédient ses palettes de matériel directement à destination du site secret et lui sous-‐traite entièrement l’exploitation de sa plateforme informatique. Résumons : un datacentre doit proposer une infrastructure robuste rassemblant, autour d’un bâtiment neutre, les conditions nécessaires à une salle informatique externalisée (énergie, climatisation, sécurité) et les moyens humains indispensables aux opérations usuelles (accueil, logistique, maintenance et -‐ là encore -‐ sécurité). Nous allons voir, en sept points, ce qui fait du marché des datacentres un marché intrinsèquement de croissance (économique, politique et social), comment il interagit avec son environnement et quel intérêt a un nouvel entrant à étudier une opportunité d’investir sur ce segment.
Projet Cambridge
Bertrand Guézel Confidentiel 8/33
3. Spécificités du marché des datacentres Avant de pénétrer un nouveau marché, l’investisseur désire prendre connaissance des principaux éléments constitutifs du secteur cible via un tour d’horizon couvrant les acteurs, les résultats issus des modèles de références et les perspectives à avenir. Le tableau ci-‐dessous, réunissant des données concordantes éditées par plusieurs sources, nous donne un cliché du marché, illustré par ses principaux animateurs. Equinix, leader mondial du marché a accéléré récemment sa croissance en s’appuyant à la fois sur une forte croissance organique associée à une croissance externe menée en sélectionnant des actifs stratégiques (IX Europe, sur le marché européen, et Switch & Data en Amérique du Nord, notamment).
Equinix Telehouse CoreSite Telx Interxion Telecity Global Switch
Founded: 1998 1990 2001 2000 1998 1998 1998 Company type: Public Public Private Private Private Public Private
Symbol/owner: NASDAQ:EQIX TYO:9433 Carlyle GI Partners Baker Capital LON:TCY Reuben Bros
Revenue H1 (2009) : $508.9m €82.9m £82.2m EBITDA H1 (2009) : $226.2m €29.8m £29.4m - Data centers: 79 47 10 15 26 23 9 Capacity (sq. f.): 6,100,000+ 750,000+ 2,000,000+ Unknown 590,000+ 620,000+ 2,790,000+ 2009 New DC’s: 8 6 1 1 4 3 0 2009 Expansions 3 0 1 5 4 1 0 - Countries served: 10 11 1 1 11 7 7 Markets served: 34 24 7 11 13 8 7 - Europe: 8 2 0 0 13 8 5 - North America: 22 2 0 0 0 0 5 - Asia-Pacific: 4 18 0 0 0 0 2 - Africa: 0 2 0 0 0 0 0 Un rapide calcul fait ressortir un EBITDA moyen de 42 %. Le prix du mètre carré navigant entre 654,00 et 1.512,00 euros, le revenu moyen s’établit à 1.068,00 euros/m2/mois. En gardant le ratio d’EBE de 42%, nous avons un m2 carré produisant une rentabilité brute à hauteur de 449,00 euros (par an). Sachant que le Top 7 ici présent opère en moyenne 200.000,00 m2 et que la majeure partie des contrats d’hébergement portent sur 3 à 5 ans, cela donne une idée à la fois de la rentabilité et de la visibilité du secteur. C’est ce détail qui différencie d’ailleurs les opérateurs de datacentres des exploitants. Ces derniers obtiennent de leurs clients respectifs des engagements de 3 à 5 ans quand l’opérateur de site (qui gère l’investissement immobiliers et tous les aspects jusqu’à livrer le site clés en main) peut se permettre d’imposer des contrat de leasing de 10 à 15 ans.
Projet Cambridge
Bertrand Guézel Confidentiel 9/33
Les chiffres de rentabilité du m2 sont en revanche à moduler en fonction des zones géographiques étant donné que le marché connaît de grandes disparités, que le datacentre soit situé à Tokyo, San Francisco, New-‐York, Londres ou Paris qui sont d’importants nœuds internet… ou à 50 kilomètres de Paris, où il sera légèrement plus difficile de convaincre un client et a fortiori un opérateur réseau d’y implanter son infrastructure. Reste que les investisseurs ne s’y trompent pas : la mise de départ est certes élevée car il faut compter en moyenne entre 6.000 dollars et 6.000 euros du m2, en fonction de la zone cible, sachant qu’un certain nombre d’investissements sont incontournables que l’investisseur retienne une opération de 5.000 m2 ou de 20.000 m2 (alimentation et secours énergétique, notamment). Il est intéressant de noter à ce titre que l’étude détaillée des chiffres communiqués par les grands acteurs internationaux fait ressortir une moyenne de 15.000 m2 par site. Dernier exemple en date, la communication de l’exploitant Interxion qui dévoile dans la presse spécialisée son investissement lié à son septième datacentre en région parisienne : « (…) il offrira 9000 mètres carrés pour un coût de 130 millions d’euros (équipement compris). PAR 7, c’est aussi 2300 W par mètre carré, soit une puissance totale de 10.35 MW pour les 4500 mètres carrés de la première phase et donc 20.7 MW à termes. » Si cela est vrai, cela porte l’investissement d’Interxion à un peu plus de 14.000 euros par mètre carré pour afficher un site dit « Haute Densité » dans le sens ou chaque baie disposera de plus de kW que la moyenne du marché. La norme non écrite consiste à fournir 1 à 2 kW par baie, les fournisseurs abordent le discours de la haute densité dès lors qu’ils proposent 4 à 5 kW par baie. Ces chiffres justifient l’engouement de certains investisseurs en matière de mètre carré technique, compte tenu de la rentabilité de certaines zones et la demande toujours croissante de ce type de services. D’ailleurs, les révisions de Gartner, IDC et consorts sont largement revenues sur le renversement de tendance du marché de l’hébergement. Marché ralenti par la surabondance de mètres carrés, notamment en Europe, il y a à peine 5 ans, la conjoncture présente un tout autre profil maintenant que les principaux fournisseurs jouent à raréfier ces mêmes mètres carrés et que, en face, le besoin en volume s’accélère grâce à la confirmation de nouveaux usages d’internet et de nouvelles tendances de consommation en ligne. En effet, si les termes « réseaux sociaux, streaming vidéo, e-‐commerce, cloud computing, MMORPG, HD » ou encore « 3D » font désormais partie du vocabulaire de tous bons professionnels et utilisateurs connectés, il n’en reste pas moins qu’il y a derrière cette révolution numérique des datacentres répartis sur le globe, et qu’il faut en construire de nouveaux pour soutenir la demande actuelle et encore plus celle à venir. Certes, les marchés européens et nord-‐américains sont désormais relayés par les Brésil, Russie, Inde et Chine (les fameux « BRIC ») mais c’est encore sans compter l’émergence de
Projet Cambridge
Bertrand Guézel Confidentiel 10/33
marchés qui ne sont pour l’instant pas – ou peu – connectés : l’Amérique du Sud, l’Afrique et encore une grande part de l’Asie, sans parler de l’Europe de l’Est s’apprêtent eux aussi à entrer en jeu et rattraper le reste du Monde moderne. Il y a par exemple de gros mouvements de concentrations au Brésil, en Argentine et au Mexique. Cela laisse toutefois le reste de l’Amérique latine – et les Caraïbes – dans l’attente de futurs investissements pour niveler les services. Que dire de la Russie qui connaît actuellement une période d’énormes investissements en matières de datacentres et de réseaux fibre optique dont les cibles secondaires sont bien entendu l’ensemble des pays d’Europe de l’Est, tout comme la Chine – qui a déjà fort à faire en matière de couverture de son propre territoire – se voit en futur fournisseur de ses voisins directs ou l’Afrique du Sud qui tente de s’imposer en leader continental face au Nigéria ? Ces vagues d’investissements sont par ailleurs intimement liées à la rentabilité des opérateurs télécom et tout particulièrement de réseaux mobiles. En clair, dès lors qu’une zone géographique connaît le développement de nouveaux réseaux, les nouveaux usages l’accompagnent et provoquent de nouvelles phases de croissance des fournisseurs de réseaux et de contenu justifiant l’implantation de nouveaux centres d’hébergement. Du côté des professionnels du contenu, justement, on ne compte plus les nouveaux jeux vidéo qui comprennent un volet « en ligne », les chaines de télévision lançant leur avatar asynchrone (catchup tv, tv à la demande, etc) accessibles via les « boxes » d’abonnés aDSL et bientôt fibre. Dans des domaines beaucoup plus terre à terre, les grands groupes internationaux ont besoin de toujours plus de datacentres afin d’homogénéiser leur informatique globale, les segments des Petites et Moyennes Entreprises et des Entreprises de Taille Intermédiaire prennent enfin le train du cloud computing -‐ dont les concepts de virtualisation de serveurs ont été mis à l’épreuve par les grandes entreprises depuis plusieurs années maintenant -‐ et les institutions financières multipliant les alliances intercontinentales en même temps que les produits dérivés requièrent toujours plus de datacentres afin de sécuriser les moyens de connexion à leurs plateformes En bref, alors que l’Europe, l’Amérique du Nord et quelques pays asiatiques (Japon, Corée) ou d’Amérique latine (Brésil) gèrent le mètre carré en flux tendu, il est difficile de voir un ralentissement du besoin quand la Chine, l’Inde, la Russie d’abord et l’ensemble de l’Europe de l’Est, de l’Afrique, de l’Asie et de l’Amérique du Sud connectent toujours plus d’entreprises et de foyers à mesure que la croissance des PIBs respectifs -‐ et incidemment du revenus moyens par foyer -‐ favorise et accélère l’accès aux nouvelles technologies.
Projet Cambridge
Bertrand Guézel Confidentiel 11/33
4. Clientèle type Etant donné le coût facial du poste « hébergement », il est certain que ce type de prestation ne peut s’adresser qu’aux professionnels. Non pas qu’aucun particulier ne bénéficie jamais de la qualité de ces infrastructures, mais il ne se doutent pas que les services fournis par leurs fournisseurs d’accès internet, leurs banques en ligne, leur webmarchands, etc., passent par ces centres de traitement de données. De fait, quatre principaux profils d’entreprises requérant les services des datacentres se dessinent :
-‐ les institutions financières, -‐ les sociétés cotées, -‐ les SSII, -‐ les pure players : opérateurs télécom, web marchands, moteurs de recherche, jeux
vidéo, plateforme de streaming, réseaux sociaux. Les institutions financières, tout d’abord, comptent à la fois les banques et les assurances mais également les Bourses, les sociétés de notations, les intermédiaires (brokers) ainsi que les fournisseurs de flux. Toutes ces entreprises sont à la recherche des meilleures performances pour traiter leurs données à destination des marchés. Leur plateformes de calcul et traitement sont en expansion permanente : la branche Investissements Marchés d’une célèbre banque française maintient sa position de leader européen en lançant un à deux nouveaux projets de salles machines de 500 m2 par an.
Ceci afin de multiplier ses capacités d’analyse des flux, de calcul d’opportunités, de traitement d’information et de transmission d’ordre ; toutes ces opérations étant de plus en plus automatisées via des algorithmes ultra perfectionnés, les exécutants humains sont
progressivement remplacés par des fermes de serveurs. Les capacités d’extension des bâtiments de bureaux étant intrinsèquement limitées, cette banque (et les concurrents qui souhaitent rester dans la course) consulte en permanence le marché pour anticiper ses besoins en salles machines. Certains hedge funds ne s’y sont pas trompés et ne sont aujourd’hui constitué que de deux types de profils : des mathématiciens pour élaborer des algorithmes intégrant jusqu’à vingt années d’historique sur un marché donné et pour les faire évoluer en fonction du comportement du marché afin de placer automatiquement leurs ordres avant les concurrents. Les places boursières elles-‐mêmes ont depuis longtemps quitté leurs « palais » historiques pour n’être que des fermes de serveurs identifiant, enregistrant, traitant, horodatant, archivant absolument tous les mouvements des opérateurs financiers.
Projet Cambridge
Bertrand Guézel Confidentiel 12/33
Aujourd’hui, toute institution financière intervenant sur les marchés doit composer avec l’implantation des datacentres retenus par telle et telle bourse.
Car, plus que le bug de l’an 2000 ou le passage à la monnaie unique en Europe, les attentats du 11 septembre 2001 ont eu pour effet une remise en question de l’infrastructure technique permettant jusque là de passer des ordres. En effet, depuis ces dramatiques événements, chaque place boursière de niveau mondial (New York Stock Exchange, London Stock Exchange mais également Francfort et Paris) n’autorise l’accès à ses outils que si l’abonné au service peut garantir un accès aux deux datacentres (minimum) retenus par chaque place financière afin d’assurer la continuité des cotations, quel que soit le contexte. Le double intérêt est ici bien entendu d’assurer un service exempt de risque face aux manœuvres mal intentionnées cherchant à provoquer un incident sur les marchés mondiaux mais également de bénéficier de systèmes redondants résistant aux « simples » incidents techniques. Enfin les bourses alternatives (ou MTF, pour Multilateral Trade Facilities) ont accéléré la course à l’armement technologique car, en multipliant les produits et services en élargissant les couvertures horaires, investissent (et leurs clients avec) largement en datacentres, de sorte à présenter une infrastructure technique sérieuse et évolutive. Bourses traditionnelles et alternatives, de même que clients et intermédiaires misent ainsi sur le proximity hosting (hébergement de proximité) pour assurer des temps de transmission d’ordre optimisés pour se maintenir dans la compétition. Dans tous les cas, ces méthodes requièrent des capacités d’accueil que seuls des datacentres professionnels offrent, dans le sens où les ressources humaines peuvent disposer d’immeubles de bureaux et les ressources technologiques sont alors hébergées dans des bâtiments leur offrant un environnement propice aux performance et à l’inévitable évolution de leur architecture. Si les places financières utilisent autant les datacentres, c’est bien autant pour sécuriser leurs plateformes que pour respecter les réglementations toujours plus strictes que leurs
Projet Cambridge
Bertrand Guézel Confidentiel 13/33
régulateurs respectifs mettent en place, en vue de dresser un cadre pour les Best Practices (les Meilleures Pratiques, équivalent de l’art). De fait, ces réglementations ont également influencé les sociétés cotées qui ont progressivement sécurisé voire tout bonnement transféré une partie – quand ce ne sont pas toutes -‐ leurs ressources technologiques. Le but des sociétés du CAC 40, par exemple, était -‐ dans un premier temps -‐ de rassurer les investisseurs en se mettant au même niveau qu’eux. L’effet secondaire étant que les grands groupes, par essence dispersés pour la plupart sur plusieurs continents, ont pu alors bénéficier d’un environnement technique homogène, structuré facilitant la maintenance de leurs outils bureautiques en même temps que leur informatique de production. On ne compte plus les projets de systèmes ERP et CRM hébergés (et synchronisés) au sein de datacentres disséminés en Europe, en Amérique du Nord et en Asie. Pour ce faire, ces sociétés cotées ont dû retenir la solution de datacentres prêts à l’emploi plutôt que d’investir en propre dans des capacités immobilières difficiles à rentabiliser quand ce n’est pas leur cœur de métier. Ainsi, un groupe de luxe du CAC 40 dispose-‐t-‐il de liaisons directes entre tous ses points de vente en Asie vers un datacentre au Japon qui rassemble toutes les données de caisse et compile les statistiques de vente avant qu’elles soient transférées vers le datacentre en Europe retenu par le siège. Cet autre groupe spécialiste des matériaux de construction dispose de salle machines en Europe, en Amérique du Nord et en Océanie pour distribuer les mises à jour des outils de bureautique. En la matière, les économies d’échelle liées au poste informatique s’avèrent considérables, et ce malgré l’investissement nécessaire à l’externalisation de serveurs, routeurs et pares-‐feu.
Enfin, les résultats de ce constructeur automobile, qui n’est plus aujourd’hui qu’un assembleur, repose-‐t-‐il pour partie sur la qualité des datacentres qui lui permettent de rassembler les résultats des centres de Recherche et Développement en Amérique du Sud, les études
conceptuelles issues de ses centres de style en Asie et en Europe, le traitement des fiches techniques et tarifaires communiquées par ses fournisseurs en Asie et en Europe. Le suivi en temps réel de ses capacités de production et de logistique est facilité grâce à l’externalisation d’une partie considérable de son outil informatique.
Projet Cambridge
Bertrand Guézel Confidentiel 14/33
Tout cela fait désormais partie intégrante de la communication des grands groupes pour rassurer les investisseurs sur leur capacité à sécuriser leur chaine d’information mais inspire depuis quelques temps les sociétés de taille intermédiaire et les petites entreprises. Tout d’abord, pour rester eux aussi dans la course et répondre au cahier des charges des grand donneurs d’ordre, les sous-‐traitants ont progressivement externalisé une partie de leur informatique de production, bénéficiant des mêmes effets de « proximity hosting » attendus par les institutions financières. Ensuite, ces projets ont vu naître de grandes PME et confirmé le positionnement de grands groupes informatiques qui, répondant aux appels d’offres de certaines filières, se sont positionnées sur les prestations de gestion d’infrastructures éclatées, la supervision des serveurs et suites logicielles, la maintenance des réseaux indispensables aux communications liées à ces systèmes en étoile. De fait, les Sociétés de Services en Ingénierie Informatique (les SSII), loin de se contenter de gérer pour le compte de leurs clients ces configurations complexes, donnent l’exemple en intégrant dans leurs stratégies respectives des partenariats avec des exploitants de datacentres internationaux. Manière pour ces spécialistes de s’assurer, là aussi, une certaine économie d’échelle en négociant un volume de mètres carrés techniques dans le monde entier plutôt que de négocier 50 ou 100 mètres carrés à chaque nouveau projet. Les projets confiés à ces SSII ont généré un retour d’expérience qui leur a permis de promouvoir les avantages de l’informatique distribuée, sous la forme de SaaS (Software as a Service, ou logiciel à la demande) et de Cloud Computing permettant la mise en commun de ressources techniques, la virtualisation de serveurs de moins en moins physiques et l’optimisation de budgets toujours plus gourmands. Loin d’être des concepts exotiques, ces solutions, lorsqu’elles sont maîtrisées par des experts autorisent des gains de productivité remarquables puisque c’est le fournisseur qui investit en capacité serveurs et système ; le client souscrit alors de la capacité au fur et à mesure que son besoin -‐ ponctuel ou durable -‐ en ressources techniques nécessite l’extension de l’existant. Dès lors, l’exploitant ne doit pas seulement séduire les utilisateurs mais, au surplus, s’attacher les faveurs des intermédiaires qui encouragent alors l’utilisation de datacentres. Mais il n’est pas de fidélisation plus réciproquement critique que celle des start-‐up de la netéconomie tant la qualité de service de ces utilisateurs ou inversement le moindre incident sont en permanence visible par le plus grand nombre. Ces « pure players » dont le cœur de métier et la stratégie tout entière sont basés sur la fiabilité des réseaux et des datacentres. Portails, moteurs de recherche, e-‐commerce, vidéo à la demande ou encore réseaux sociaux nécessitent peu de ressources au démarrage mais peuvent se révéler très consommateurs en espace, énergie et services associés quand le « buzz » fait son effet.
Projet Cambridge
Bertrand Guézel Confidentiel 15/33
L’Histoire du web retiendra cette plateforme française de streaming vidéo, qui avait pour ambition de concurrencer le géant américain du secteur, n’avait besoin que d’un quart de baie lors du démarrage de son service ; l’engouement pour ce service a provoqué une croissance de la demande telle que la start-‐up commandait ses extensions de service par demi-‐douzaines de baies jusqu’à rassembler ses capacités de calcul et de distribution sur un plateau de plusieurs centaines de mètres carrés au sein du même datacentre, avant de s’étendre sur d’autres sites. Et cette anecdote se répète quasiment à l’infini dès que l’on aborde le commerce en ligne ou les réseaux sociaux. Quelle n’est pas la satisfaction de l’exploitant ayant été le premier à croire au modèle des Yahoo, Google et autres DailyMotion. Etre le fournisseur de salle informatique d’une société n’ayant pas généré de profits, croire en son modèle (parfois flou) et être récompensé par sa fidélité lorsque ce client passe d’un quart de baie à une salle de 50 m2 pour ensuite demander à disposer d’un plateau de 2.000 m2 voire de quatre datacentres pour couvrir le Globe. Mais les premiers « pure-‐players » réclamant un partenariat fort avec les datacentres sont les opérateurs télécom et internet (les « carriers »). La qualité de service aidant, ce sont les premiers ambassadeurs de tout datacentre : un site accueillant de nombreux opérateurs sera alors qualifié de Carrier Hotel neutre ajoutera à l’attrait de ses atouts purement techniques un avantage certain lié à la qualité de la connectivité disponible en un seul et même endroit. Tous les exemples de sociétés citées précédemment demandent une qualité de la connectivité et de la bande passante qui ne peut passer que par la sécurisation des accès via de multiples carriers. La clé de l’attractivité n’est donc pas seulement la qualité technique du site (énergie, climatisation, accueil, logistique, sécurité) mais bien le partenariat établi de facto avec les utilisateurs, intermédiaires et partenaires ; c’est l’aspect humain à ne pas négliger, car sans le relationnel d’une équipe formée, ouverte, experte et motivée, un datacentre performant ne pourra être mis à l’épreuve du marché que grâce au relationnel de ses intervenants.
Projet Cambridge
Bertrand Guézel Confidentiel 16/33
5. Mode opératoire Dès lors que l’interaction de moyens techniques de base et de ressources humaines compétentes est énoncée en principe de base, il est important de décrire le mode opératoire régissant le quotidien d’un datacentre. Comme évoqué précédemment, un datacentre doit non seulement présenter des qualités techniques répondant à l’état de l’art mais en outre afficher une expertise humaine en matière d’accueil, de sécurité, de logistique et technique. Toutes ces compétences rassemblées font que l’équipage tout entier guide un navire sain dans la bonne direction. En effet, la disparité des profils de clients traités amène les commerciaux du site à louer des zones privatisées (un client commande une cage de 500 mètres) ou mutualisées (un autre espace de 500 mètres carrés hébergera 100 ou 200 clients différents). La stratégie de l’exploitant doit intégrer, dès son élaboration, un découpage de zones destiné à répondre à ces deux types de salles. Les zones mutualisées assurent une multitude de clients (petits et moyens) pour lesquels le revenu moyen (et la marge) par tête est relativement élevé. Compte tenu des surfaces engagées, les zones privatisées offrent certes un levier de négociation important pour le client mais offre à l’exploitant une référence qui attirera d’autres projets de taille – au minimum – équivalente.
Le datacentre disposera en divers points stratégiques de Meet Me Room – espaces fermés d’interconnexion à destination des carriers – elles-‐mêmes raccordées à une ou plusieurs Carrier Room(s) – salle d’accueil des opérateurs connectant le datacentre. Ces MMR imposent de gérer au quotidien des demandes de cross-connects (rocades et jarretières) de nature différentes (cuivre ou fibre optique) et reposant sur une multitude de types de connecteurs.
Il faut souligner ici l’importance des Carrier Room et Meet Me Room qui doivent présenter une capacité d’accueil suffisante, une praticité et une évolutivité qui, une fois les carriers séduits, les amènera à vanter les mérites du site. La Carrier Room, si elle n’accueille que trois ou quatre opérateurs lors du démarrage des opérations, doit pouvoir présenter assez d’intérêt pour attirer trente à quarante opérateurs qui, séduits par le potentiel de clients et donc de relais de croissance, investiront dans la connectivité nécessaire pour s’implanter sur le nouveau site.
Projet Cambridge
Bertrand Guézel Confidentiel 17/33
De même, après avoir attiré les fournisseurs d’accès locaux (historiques – les « incumbents » -‐ et alternatifs), le datacentre facilitera l’installation d’opérateurs étrangers cherchant à améliorer leur empreinte et leur capillarité réseau en répondant aux projets de leurs propres clients, en s’implantant sur un nouveau territoire ou tout simplement sécurisant leurs capacité réseau sur plusieurs datacentres. Le datacentre fera preuve d’une initiative, généralement bien accueillie par ces carriers, en mettant en place un point d’échange réseau. Le principe consiste à proposer la possibilité de connecter les carriers entre eux afin qu’ils échangent réciproquement de la capacité sur leurs réseaux respectifs. Mais ce point d’échange facilite aussi le raccordement de chaque client non opérateur. L’exploitant mettant à disposition les MMR, les câbles et -‐ dans certains cas -‐ les commutateurs, il est alors relativement simple pour l’exploitant de mettre en œuvre cet autre relai de croissance rémunéré, là aussi, par des redevances récurrentes. L’immixtion des datacentres est un fait relativement récent est observée de près par les parties prenantes de ce segment de marché ainsi que les analystes afin de déterminer la réaction des clients et discerner le potentiel de relai de croissance. En effet, les points d’échanges d’opérateurs (dits « IXP » pour Internet eXchange Point), sont depuis leurs débuts gérés par des sociétés très profitables au mode de fonctionnement associatif.
Les IXP proposent de gérer tous les aspects de cross-‐connects entre opérateurs et clients, la commutation du trafic, les mises en commun de capacité réseau, la fourniture de routeurs et commutateurs, le tout pour le bien de la « communauté » Internet. Ce mode de fonctionnement coopératif a le mérite de véhiculer des valeurs collant à l’état d’esprit Internet (échanges de gré à gré, relative liberté des échanges, élitisme technique des interlocuteurs, etc.) et propose de fait un financement commun de l’infrastructure de l’IXP. A raison d’un coût d’installation moyen de 1.000 euros, lié à la mise disposition accès au point d’échange et variant selon le type d’interface (cuivre ou fibre, Fast Ethernet, Gigabit Ethernet, 10 Gigabit Ethernet en attendant plus) et d’une redevance mensuelle fixée en fonction du
Projet Cambridge
Bertrand Guézel Confidentiel 18/33
besoin du client (100 Megabits par seconde, 500 Mbps, 1 Gbps, 10 Gbps), l’IXP agrège et redistribue le trafic des souscripteurs selon les configurations de routage demandées. Ce type de service permet d’améliorer substantiellement la visibilité de l’acteur qui propose une telle plateforme. Les plus gros points d’échange Internet sont européens. Ainsi, le DECIX (Francfort) avec un trafic moyen de 900 Gbps et des pics à 4 Tbps est le plus important nœud d’échange, suivi de l’AMSIX (Amsterdam) et du LINX (Londres). Malgré l’importance du trafic agrégé via ces sites neutres, ils voient grandir la menace de l’opérateur de datacentres Equinix qui a lui-‐même constitué une plateforme de services interconnectant ses propres clients. A raison d’un coût moyen de 1.000 euros par mois pour 10 Gbps, on comprend que ces points d’échange « traditionnels » voient d’un mauvais œil la concurrence d’un hébergeur intrinsèquement en position favorable puisqu’il est propriétaire de bâtiment et des infrastructures de livraison du service. Selon les statistiques de trafic publiques, on peut estimer le chiffre d’affaires du DECIX à 11 Millions d’euros, de l’Amsix à près de 10 Millions d’euros et le Linx à plus de 7 Millions d’euros. De son côté, Equinix interconnecte déjà autant de clients que Francfort et Amsterdam réunis et serait en position de bientôt router 90% du trafic mondial grâce à ses connexions avec 600 opérateurs télécom et internet. Générant 17 Millions de dollars, le poste « interconnexion » du bilan 2010 d’Equinix représente désormais 15% des revenus d’Equinix. Ce poste amalgame certes les redevances des simples cross-‐connects et les redevances liées à l’IXP mais c’est dire combien la fourniture de câble sous forme de service récurrent est un véritable relai de croissance pour une activité à la base plutôt proche de l’immobilier. Il est précieux de noter à cet instant que les efforts de l’exploitant du site en matière de point d’échange ne génèrent finalement que peu de coûts additionnels puisqu’ils font normalement partie intégrante de l’infrastructure du site. Alors que, en revanche, le retour en terme de redevances récurrentes et d’image est démultiplié. Somme toute, plus l’exploitant de datacentre présentera d’efforts à destination des opérateurs télécom et internet, plus la publicité sous-‐jacente sera positive et générera de facto un cercle vertueux : les carriers attirés par un datacentre encouragent leurs prospects et clients à le retenir pour leurs projets ; plus un datacentre présente de concentration de services et de potentiel commercial, plus ces carriers estiment que le risque lié à l’implantation de moyens réseaux est faible. Le sérieux du datacentre est, du reste, jugé au quotidien par la qualité et la réactivité des interventions de ses techniciens lors de la réalisation de nouveaux raccordements mais également lors d’interventions urgentes pour remettre en ordre de marche un cross-‐connect défaillant ; car le datacentre est garant des rocades et jarretières installées pour le compte de ses clients.
Projet Cambridge
Bertrand Guézel Confidentiel 19/33
Loin d’être une contrainte, cette prestation s’avère être une source de revenus supplémentaires considérable puisque les datacentres font désormais payer sous forme de redevance la mise à disposition de ces câbles ainsi que leur maintenance ; la probabilité de défaillance se révèle en réalité très faible et il relève finalement du simple effort commercial que de rétablir un service réseau pour lequel l’exploitant doit avant tout s’assurer de la qualité et de la disponibilité s’il souhaite s’assurer de la fidélité de ses clients. A titre d’exemple, les grands opérateurs proposent une matrice de coûts qui ressemble à la compilation des coûts moyens suivants :
• mise à disposition d’un circuit* cuivre (rj45 / Ethernet) complet : 250 euros ; • redevance annuelle d’un circuit cuivre (rj45 / Ethernet) complet : 250 euros ; • mise à disposition d’un circuit fibre optique complet : 1.000 euros ; • redevance annuelle d’un fibre optique complet : 250 euros ;
*Le circuit est composé de deux demi-circuit raccordant les équipements réseau respectifs du client et de l’opérateur réseau à la MMR. Au sein de cette dernière, les deux demi-circuit sont interconnectés via un « patch ». L’effet démultiplicateur de cette prestation vient du nombre de clients hébergés et du nombre d’interconnexions qu’ils requièrent tout au long de leur contrat. A titre d’exemple, un client souhaite généralement s’interconnecter à un minimum de deux opérateurs ce qui représente un coût additionnel minimum de 500 euros par mois, par client. Au-‐delà des aspects liés à la connectivité, la fidélité des clients sera également mise à l’épreuve par les perspectives d’évolutivité du site. Un datacentre mettant à la disposition du marché une surface de 4.500 mètres carrés sera, dans la durée, moins intéressant qu’un site présentant un potentiel de 20.000 mètres carrés mis à disposition du marché par tranches successives et contrôlées de 3.000 mètres carrés. Cela revêt par ailleurs un double aspect désormais stratégique de gestion de la rareté et de l’évolution du site ; encore une fois, les carriers jaugent l’intérêt d’un datacentre donné en fonction de la surface à terme et non seulement de la surface à la mise en production. De fait, l’ensemble des prescripteurs (SSII et carriers) communiquera sur la qualité du datacentre dès lors que la capacité d’accueil de nouveaux clients sera perçue comme étant envisageable. Mais l’installation de nouveaux plateaux et de nouveaux clients peut impacter l’infrastructure énergétique et climatique en place. Pour assurer un très haut niveau de service et former en permanence ses propres équipes, l’exploitant doit mettre en place des mesures de maintenance préventive et régulière de l’ensemble de la chaîne d’alimentation en énergie et de refroidissement. Ces exercices in situ ont pour objet de vérifier la bonne marche des mécanismes de sécurisation et de redondance de l’édifice tout entier, de minimiser les risques de maintenance curative et accessoirement de rassurer a priori les prospects et clients. C’est d’ailleurs à ce titre que chaque prospect important (celui visant une zone privatisée) bénéficie, au cours du processus de vente, d’une visite complète des installations, qui assureront la pérennité de la plateforme qu’il sera amené à confier à l’exploitant, en direct ou par l’intermédiaire d’un sous-‐traitant. La séduction puis la fidélisation des prescripteurs et clients passe ainsi par la transparence sur les coulisses.
Projet Cambridge
Bertrand Guézel Confidentiel 20/33
6. Valeur ajoutée Détailler les aspects purement techniques, la composition du marché, de la concurrence, des clients potentiels et des services de base composant un datacentre ne suffisent pas à le rendre attractif ni indispensable. Encore faut-‐il qu’il réponde à un besoin et que ce besoin justifie de la mise sur le marché d’une capacité d’accueil supplémentaire qui vient s’ajouter à une offre a priori déjà abondante sur un secteur, lui aussi a priori, mature. Le nouvel entrant sur le marché des datacentres doit présenter un ensemble de caractéristiques comparables à ses compétiteurs mais, au surplus, ses points différenciant, sa valeur ajoutée. Tout d’abord, l’existence d’un datacentre répond à certains projets soumis à certaines obligations règlementaires ; comme évoqué précédemment, un certain nombre de secteurs d’activités sont soumis à des obligations qui leurs sont propres. Contrôlés par des régulateurs, la mise en œuvre de projets informatiques liés à la production, la communication et l’archivage de données sensibles requiert de présenter à cette autorité de surveillance les meilleurs gages. Le client devra en effet communiquer à son autorité de surveillance – voire parfois aux marchés – les méthodes retenues pour respecter le cahier des charges sectoriel qui n’est parfois qu’implicite. Mais il arrive parfois que quelques réglementations détaillent par le menu chaque couche d’infrastructure et de service auquel le directeur de projet du client devra se référer au cours de chaque étape du déploiement de son architecture système, matériel et réseau.
Quelques projets font encore l’objet de validation du datacentre par le client, parfois accompagné de son régulateur, qui va jusqu’à anatomiser tous les aspects du datacentre ciblé. Il s’agit alors de mettre en avant tous les atouts du site afin de ressortir de cette mise à l’épreuve avec des certifications qui répondent à une filière, ce qui peut provoquer l’afflux de nombreux prospects alors moins sévères sur les seuls aspects financiers. Un datacentre du nord-‐parisien a obtenu, après un audit de sécurité commandité par un prospect, une certification indiquant que les travaux réalisés au niveau des murs d’enceinte et intérieurs aurait pu lui permettre d’héberger une agence de banque, coffre-‐fort inclus. Répondre aux contraintes techniques posées à certaines filières par leurs régulateurs respectifs peut
se révéler être un levier mais ne sera toutefois que marginal.
Projet Cambridge
Bertrand Guézel Confidentiel 21/33
Une marge certes non négligeable compte tenu du relai potentiel de notoriété et d’image, mais un volume d’affaires moins important que ce que le cœur de métier du datacentre doit apporter au marché : son gage de qualité en matière de connectivité et de visibilité, donc de pérennité de l’installation, donc de risque contractuel maîtrisé pour les Directeurs de Projet souhaitant s’engager. Car la majeure partie des projets de datacentre est bien portée par la notion de neutralité du site. Comme évoqué précédemment, la présence de nombreux opérateurs télécom et internet rassure les clients potentiels qui sollicitent ainsi leurs propres fournisseurs pour les mettre en concurrence, ces derniers faisant alors l’effort de connecter le – si ce n’était pas encore fait – afin de rester compétitifs. La notion de « Neutral Carrier Hotel » est à ce point primordiale que seuls les nouveaux bâtiments présentant cette qualité attirent l’attention des clients potentiels. Naturellement, il existe des centres d’hébergement non neutres et rentables, gérés ici par une SSII, là par un opérateur télécom seul ou encore par un fournisseur de services internet ayant transformé un hangar à sa disposition en salle informatique pour ses propres opérations. Ces exceptions présentent dans certains cas une rentabilité intéressante pour leurs exploitants respectifs quand ils sont remplis mais, non neutres, ils sont intrinsèquement dépourvus de potentiel de croissance que présente l’activité que mène l’investisseur en datacentre. En effet, ce dernier se dote avant tout de mécanismes accélérant la rentabilité de son site, amenant le point mort bien plus bas que celui d’un datacentre isolé. En outre, le niveau d’activité du datacentre neutre sera porté par le dynamisme du marché relayé par la multitude de carriers et SSII dont il accompagne les projets. Et une fois le seuil de rentabilité atteint, l’investisseur en datacentre lance généralement la phase suivante d’extension du site, là où le datacentre isolé sera contraint de respecter une surface de bâtiment donnée et des ratios énergétiques et climatiques figés. A titre d’exemple, le site de Telehouse « Voltaire », probablement le plus stratégique de Paris tant le nombre d’acteurs incontournables des télécoms et de l’Internet y sont présents, propose les conditions de location suivante :
• mise à disposition d’une baie dotée d’une double alimentation électrique : 2.500 euros ;
• location d’une baie 2 kvA : 20.000 euros par an. Ces conditions tarifaires sont identiques que l’ont soit « telco » ou client final. Or, la probabilité qu’un opérateur consomme son quota électrique est très faible puisque – en règle générale – les équipements réseau des opérateurs (routeurs, commutateurs, multiplexeurs et, dans une moindre mesure, pares-‐feu) sont beaucoup moins énergivores que les serveurs, bladecenters et baie de disques des clients webmarchands ou SSII. De fait, se dégagent deux modèles de facturation :
• forfaitaire pour le telco, ce qui assure un revenu minimum récurrent pour l’exploitant du site ;
• forfaitaire plus dépassements pour le client qui dépasse son quota énergétique (et qui bien souvent sera contraint de commander une ou plusieurs baies supplémentaires pour compenser), ce qui génère partiellement la croissance de l’exploitant.
Ce qui ne se voit pas dans ce modèle de revenu est la rentabilité de la seule Carrier Room. Même s’il faut trouver le juste équilibre entre proposition financière accueillante mais
Projet Cambridge
Bertrand Guézel Confidentiel 22/33
rentable, les telcos ne surconsomment pas au sein de la Carrier Room. C’est même tout le contraire puisqu’il s’agit surtout d’y concentrer des interconnexions de câbles. D’ailleurs, les opérateurs réseau souhaitant un « Pop » (Point of Presence, point d’accès) en Carrier Room souscrivent généralement deux baies : un emplacement pour les cross-‐connects et un second emplacement pour les équipements actifs de livraison de service. Là où un opérateur disposerait de 4 kW minimum (pour deux baies), il n’en consommera en réalité que 1 à 2, compte tenu que ses équipements n’occupent qu’un espace minime et sont surdimensionnés afin d’encaisser le potentiel de croissance du site. Les carriers acceptent généralement cette règle du jeu et ne cherchent à renégocier ces conditions qu’à l’abord de nouvelles échéances contractuelles, soit quand l’infrastructure mise à sa disposition est en grande partie rentabilisée. Ce qui rend plus facile la détente sur les prix si l’exploitant du datacentre souhaite accorder un nouveau barème. Du reste, le caractère neutre d’un datacentre est le critère retenu par les porteurs de projets internationaux au cours de leur recherche pour implanter durablement leur infrastructure réseau et/ou système. L’aspect multi opérateur d’un datacentre joue alors le rôle de filtre quasi naturel pour les benchmarkers, qui ne souhaitent pas prendre le risque de se lier dans la durée avec un site non évolutif, et se transforme en aimant à projet de grande ampleur. Car ce qu’ont compris les grands groupes d’abord, puis les SSII et depuis peu les PME et ETIs, c’est que se doter de sa propre infrastructure d’hébergement présente un coût nominal qui cache en réalité l’ensemble des coûts liés à la connectivité (et à la sécurisation de cette connectivité par la redondance d’opérateurs) puis d’extension de salle informatique pour suivre la demande en matière d’informatique de production comme de bureautique ou encore de mise à niveau des arrivées électriques ou des climatisations spécifiques.
Dès lors, en mutualisant un nombre important d’éléments d’infrastructure, le centre d’hébergement et de traitement de données neutre présente de multiples avantages. Sur un seul et même site, le datacentre rassemble plusieurs carriers, garantit l’approvisionnement en énergie et son secours et fait de même pour le froid et la sécurité.
Projet Cambridge
Bertrand Guézel Confidentiel 23/33
L’exploitant du datacentre prend enfin en charge les opérations de maintenance préventive et curative pour lesquelles le client final acquitte une redevance forfaitaire liée à son taux d’occupation. L’une des valeurs ajoutées communément acceptées de fait, et de prime abord, par les porteurs de projets est bien qu’un tel site leur permet de déléguer ces opérations afin de se concentrer sur leur véritable cœur de métier. Le Directeur de Projet peut ainsi présenter à son Comité Directeur un budget ventilé de manière optimale et reposant sur l’utilisation de ressources expertes aux postes adéquats. Mais si la mutualisation des coûts d’infrastructure pour répondre aux besoins spécifiques d’informatique de production et de bureautique est un argument qui plaît au secteur privé, ce n’est pas ce qui retient l’attention du secteur public. Celui-‐ci ne supporte pas la même pression quant au chiffre d’affaire ni aux résultats ni donc à l’utilisation des budgets à destination de ressources techniques plus ou moins stratégique. En revanche, le secteur public a une mission de qualité de service à destination des usagers et tend à dématérialiser ses services afin que le plus grand nombre puisse bénéficier de procédures asynchrones, sans se soucier des horaires d’ouverture des administrations. Loin d’être une mutation réservée aux seules économies occidentales, ces modes opératoires tendent à se généraliser dans le monde entier d’autant qu’il est paradoxalement plus aisé à mettre en œuvre pour une économie émergente car elle n’a pas à passer par l’étape intermédiaire proposant partiellement les services en ligne de son administration. Les émergents vont vite car ils utilisent aussi à leur avantage tous les atouts liés à la mise en place d’outils modernes correspondant aux usages d’aujourd’hui quand les précurseurs sont contraints de respecter un calendrier de mutation progressive entre le « tout-‐humain » et les guichets administratifs dématérialisés. Dans tous les cas, les entités publiques mettant en place des portails d’information, des interfaces de traitement ou encore des centres de calcul ou d’archivage, misent sur l’expertise de l’exploitant pour déléguer des prestations qui leur font défaut. Ainsi, les administrations à la recherche d’un prestataire capable d’héberger et sécuriser ses serveurs web, serveurs d’application, bases de données ainsi que ses routeurs et commutateurs. Les projets du secteur public nécessitent la mise à disposition des mêmes moyens avec des objectifs de qualité de service identiques à ceux du secteur privé. Les décisionnaires du public se révèlent être sensibles aux mêmes arguments car il gèrent en fait des projets de même ampleur qui – si on leur a retiré toute
Projet Cambridge
Bertrand Guézel Confidentiel 24/33
notion de rentabilité – font toutefois l’objet de cahiers des charges strictes et de contrôles de commissions jugeant la pertinence du choix du datacentre retenu. L’intérêt de surveiller la parution d’appels d’offres et d’y répondre tient dans le fait que ces projets, critiques pour les administrations, portent sur des durées d’engagement généralement importantes (il n’est pas rare de voir des projets de 3 à 5 ans, renouvelables). Ce qui, en terme de visibilité de résultats, permet d’inscrire dans les comptes la contribution d’un projet pluriannuel dont le revenu est produit par un client à la santé financière stable. Le service informatique de la seule ville de Paris, par exemple, a besoin d’une salle de 120 m2 rien que pour héberger ses propres moyens réseau destinés concentrer ses lignes adsl, ses terminaisons gsm et ses liaisons fibre entre ses principaux sites (interconnexion de serveurs bureautique et de calcul). L’exemple de cette administration donne une idée de la réserve de projets que représente le secteur public, si tant est qu’il soit correctement adressé. D’ailleurs, s’il y a, là aussi, matière à exploiter en référence le fait d’avoir été retenu par une administration pour l’hébergement d’une plateforme de services en ligne ou d’un centre calcul, c’est bien parce la valeur ajoutée intrinsèque d’un datacentre neutre repose sur un ensemble d’éléments qualitatifs et quantitatifs que chacun peut comparer de manière matricielle à l’ensemble des compétiteurs. Les éléments objectifs permettant de sélectionner un datacentre plutôt qu’un autre parlent autant à un technicien du privé que du public. Les éléments subjectifs qui serviront d’arguments à la force commerciale du datacentre et qui ne revêtent pas la même importance selon le profil de client sont de l’ordre des services associés. Ce qui est inclus dans le service dit « de base », ce qui est optionnel, ce qui fait l’objet de contrat de sous-‐traitance auprès de SSII tierces peut retenir l’attention du prospect dans sa recherche d’une offre à tiroir ou au contraire inquiéter le prospect dans l’attente d’une prestation clés en main.
Projet Cambridge
Bertrand Guézel Confidentiel 25/33
7. Services associés Nous l’avons vu, de nombreux critères tangibles tels que neutralité du réseau, qualité de la chaîne énergétique, qualité de la chaîne climatique ou encore l’anonymat et la sécurité du site vont permettre aux clients de comparer matriciellement et objectivement les qualités des sites du marché. Les aspects subjectifs vont alors départager en dernier lieu les datacentres en concurrence. Et, sur ces points, tous les datacentres ne sont pas dotés des mêmes avantages : situation géographique, facilité d’accès, facteur humain (qualité relationnelle des interlocuteurs), richesse de services associés… Selon que l’exploitant accueille ou non des partenaires prescripteurs voire qu’il en assure lui-‐même la promotion (afin d’attirer toujours plus de projets clients), le poste « Services Additionnels » est le point qui peut incarner le véritable talon d’Achille du datacentre. Car si l’opérateur du site a pris soin de border absolument tous les aspects purement techniques, architecturaux et pratiques de son site, le niveau de compétence et d’expertise des sociétés de services présentes sur site peut encore creuser l’écart avec les concurrents. Le datacentre est alors comparé à ses compétiteurs sur la gamme de services associés qu’il développe, seul ou en compagnie des sociétés de service présentes en son sein. La complémentarité effective de l’ensemble de ces compétences peut, et en fait doit, constituer un avantage, un point différenciant, détail non négligeable tant en terme de notoriété que d’image. Car un client qui étudie la possibilité d’externaliser une partie de son infrastructure système et réseau (quand ce n’est pas dans sa totalité) n’aura probablement pas la possibilité de se déplacer dans l’urgence pour régler chaque incident minime. Outre la supervision permanente de la totalité du site et de ses infrastructures, tout Carrier Hotel neutre propose individuellement à chaque client un lot de services de premier niveau constitué de l‘arrêt/redémarrage d’équipements, changement de composants extractibles, rotation de bandes ou CD, vérifications visuelles de connectivité, saisie de commandes via un écran clavier avec guidage à distance par le client. Au-‐delà, de ces services bas niveaux, sorte de gestes de premier secours informatique, chaque client peut choisir d’exploiter son infrastructure, seul ou accompagné d’un prestataire. Si le client ne dispose pas de ressources internes suffisantes pour assurer une surveillance 24/7 de ses équipements (ou s’il souhaite tout simplement les concentrer sur son cœur de métier), il va donc mettre en concurrence des prestataires capables de prendre en main le monitoring, la supervision et les opérations de maintenance de son informatique externalisée. L’opérateur du site doit faire le choix de compléter les services de premier niveau par une suite complète de services répondant aux attentes des prospects, de les sous-‐traiter à un
Projet Cambridge
Bertrand Guézel Confidentiel 26/33
partenaire ou tout simplement mettre en avant le ou les partenaires capables de remplir les tâches requises. Outre l’étendue de compétences nécessaire à l’intégration de ces prestations par l’exploitant du datacentre, il est primordial de mettre en perspective l’autre relai de croissance que suggère cette gamme de services additionnels et le fait que le datacentre perd une partie de sa neutralité si certains clients l’identifient comme un concurrent et non plus seulement un partenaire. En tout état de cause, la démarche la plus saine est celle qui permettra de multiplier les projets d’hébergement sans brouiller les cartes et consiste à confier les services additionnels aux professionnels dont c’est le cœur de métier. C’est à ce moment que l’opérateur du datacentre doit faire un autre choix : celui des prestataires qu’il mettra en avant. Certains de ces choix s’imposent d’eux-‐mêmes tant l’expertise et l’historique de certains acteurs restent des critères impartiaux. Nonobstant, le promoteur du Carrier Hotel devra surveiller l’émergence de nouveaux prestataires en vue de s’attacher leur concours à de futurs projets. Tel fournisseur de services d’hébergement de site web, tel gestionnaire de noms de domaine, tel spécialiste des bases de données, des environnements Open Source, des baies de stockage ou encore du cloud computing devront faire partie de l’offre alternative du datacentre. Les équipes commerciale et technique du datacentre sont ainsi mises à contribution pour un travail de veille du marché : quelles sont les sociétés qui connaissent une forte croissance (statistiques de vente), qui maîtrisent leur croissance (retour clients), respectent leurs engagements en matière de qualité de service (statistiques ticketing support technique), qui sont les nouveaux entrants, quel est leur positionnement technique et commercial ? L’importance de l’implantation géographique du datacentre peut d’ailleurs avoir une incidence sur ces éléments de marché. En effet, implanter un centre d’hébergement en périphérie d’une grande ville verra affluer les « usual suspects » du marché, généralement les SSII évoquées précédemment qui disposent de représentations tout autour du Globe et privilégiant, a minima, les grandes agglomérations. Toutefois, implanter un datacentre dans une zone non dense peut provoquer l’apparition de nouveaux acteurs et donc le développement du dynamisme économique. Ainsi, le promoteur du datacentre doit également s’interroger sur l’impact du choix d’implantation géographique de ses opérations, de l’interaction avec son environnement immédiat, de l’impact sur le milieu économique, social et politique.
Projet Cambridge
Bertrand Guézel Confidentiel 27/33
8. L’environnement du datacentre Il serait illusoire, de nos jours, de songer à implanter à un centre d’hébergement de données sans étude préalable de l’environnement de ce futur site ni de l’impact de l’implantation d’une telle activité sur ledit environnement. Encore que la notion d’environnement d’un datacentre peut paraître vaste, quel cadre fixer à cette étude ? Il est raisonnable de penser que la construction d’un bâtiment tel qu’un datacentre impacte directement l’environnement naturel et architectural, que l’emploi de ressources techniques et la couverture de service en 24/7/365 pèse sur l’environnement économique et social et que le chiffre d’affaire généré ainsi que le prestige de certains clients peut aider les acteurs politiques locaux à valoriser leur zone (emplois qualifiés et attractivité d’un district grâce aux nouvelles technologies). L’atout politique est d’ailleurs probablement celui à privilégier tant il interagit avec les autres. En effet, les leaders politiques locaux peuvent valider ou freiner (quand ce n‘est pas tout bonnement stopper) un projet de datacentre selon que les aspects architecturaux respectent le plan d’urbanisme. De même, les élus mais également les groupes de pression écologistes sont de plus en plus regardant quant à l’impact de tels sites tant les besoins énergétiques sont à contre-‐courant du discours ambiant misant ici sur le « green » et là sur le « durable ». Force est admettre que leurs actions conjointes ont tout de même quelques effets positifs alors que certains promoteurs peu regardant envisageaient d’exploiter les ressources en eau pure de nappe phréatique pour alimenter leurs systèmes de refroidissement. Loin de s‘opposer à ces forces politiques, l’investisseur doit au contraire s’appuyer sur une alliance basée sur la transparence avec les pouvoirs publics, les administrations et – le cas échéant – les organisations non gouvernementales. En effet, les progrès réalisés en matière d‘économie d’énergie, de recyclage et d’optimisation des processus de production d’énergie et de froid permettent aujourd’hui de présenter des sites en avance sur les normes de bilan énergétique. Certes, l’enthousiasme lié à la vague de miniaturisation des processeurs -‐ et donc progressivement d’encombrement des équipements informatiques – a rapidement été atténué par le constat que les utilisateurs profitaient de ces innovations pour remplir d’autant plus les espaces qui leur étaient alloués.
Projet Cambridge
Bertrand Guézel Confidentiel 28/33
C’est ainsi que de nombreux datacentres se sont retrouvés en situation de plafonnement énergétique, leurs capacités respectives de production étant limitées alors qu’il faut à la fois fournir de l’énergie aux équipements du client mais également à toute la chaine climatique (et son secours !). Toutefois, de nombreuses innovations technologiques et en matière de processus d’exécution contribuent à présenter par anticipation ce que sera l’empreinte du futur centre d’hébergement. Les derniers projets de datacentres sont allées jusqu‘à avancer un bilan neutre voire positif : utilisation d’une membrane blanche pour recouvrir le toit et ainsi limiter l’apport calorifique extérieur (et donc le besoin de refroidissement intérieur), récupération et recyclage de la chaleur générée par l’ensemble des équipements actifs, diminution voire suppression des produits chimiques dans les circuits de refroidissement, insonorisation du site compensant l’installation des blocs de climatisation à l’extérieur du bâtiment (afin d’optimiser la surface intérieure), choix de matériaux en fonction de leurs composants, sélection d’un constructeur en fonction de son engagement à respecter les normes et procédures « vertes », etc. Un promoteur de datacentre a même récemment annoncé utiliser une pile à combustible pour compenser d’éventuelles défaillances de l’approvisionnement énergétique du site. En clair : le site est autonome si le fournisseur d’électricité devait connaître un incident sur son réseau de distribution.
Autant d’arguments qui permettent ensuite de valoriser un site qui est sensé présenter des qualités de haute densité tant énergétique que climatique et accueillir fermes de serveurs, bladecenters, calculateurs et baies de stockage. Tous ces termes sont pourtant parfois absents du vocabulaire local, pour ne pas dire inconnus, tant la zone d’implantation retenue manque d’acteurs liés aux nouvelles technologies. Le promoteur qui concrétise son projet de datacentre va de surcroît entrainer dans son sillage le développement du tissu économique local. L’émergence de sociétés de services en administration de
réseau, sécurité, hébergement de site web, gestion des noms de domaine, etc., va compléter le lot d’intégrateurs de plateformes de cloud computing. La présence d’un tel site a donc tendance à contribuer au développement de profils techniques. L’exploitant a, au demeurant, tout intérêt à encourager la montée en compétences des ressources humaines locales voire sponsoriser certaines formations diplomantes dans le but de détecter le plus tôt possible les talents qui rejoindront ses rangs. La démarche précédant l’implantation d’un centre d’hébergement est certainement un exercice d’équilibriste pendant lequel toute opération de séduction, de conviction et persuasion des pouvoirs publics a pour unique objectif l’obtention de l’appui nécessaire -‐ si possible inconditionnel – à la réalisation du projet.
Projet Cambridge
Bertrand Guézel Confidentiel 29/33
En contrepartie, ces pouvoirs publics disposent d’un levier de promotion de leur district insistant tous azimuts sur son attractivité et sa visibilité pour le marché ainsi que la conséquence en terme d’image. Enfin, dans certains cas, les services informatiques de ces pouvoirs publics peuvent voir le bénéfice d’une telle infrastructure leur facilitant le choix du site dans lequel héberger leur propre architecture système et réseau.
Projet Cambridge
Bertrand Guézel Confidentiel 30/33
9. Retour sur investissement Malgré tous les aspects valorisant développés jusqu’ici, l’investisseur peut s’interroger sur l’utilité et le bien-‐fondé de sa démarche, même une fois l’appui politique acquis. Celle-‐ci ne sera validée qu’au regard du retour sur investissement. Au-‐delà des aspects conceptuels et architecturaux du datacentre, du respect de normes et de réglementations, le site doit produire un résultat financier. Nonobstant le prestige de certains clients et la valeur ajoutée apportée par la solution mise à leur disposition, le datacentre doit être rentable. Bien que présentant de sérieux atouts sociaux, économiques et écologiques, l’activité ne doit pas moins présenter des perspectives de croissance qui justifient la décision initiale de risquer des fonds dans ce domaine. L’historique des principaux acteurs de ce secteur fait réaliser combien ce marché est encore jeune : Telehouse a été fondé en 1988, Equinix en 1998 tout comme Telecity et Interxion, Digital Realty Trust en 2004. Et bien qu’on le pensait mature tant l’approche de ses leaders est professionnelle, industrialisée et appuyée par une ingénierie financière rodée, bon nombre d’études font au contraire ressortir des éléments intangibles du potentiel de croissance de la filière, au cours des prochaines années.
Alors que l’éclatement de la bulle de la netéconomie de -‐ 2000 à 2002 -‐ a fait ressortir une surcapacité de mètres carrés techniques, la relance du marché et le retour des start-‐up rentables et des projets maîtrisés a au contraire souligné la mauvaise gestion de ces mètres carrés. Le manque d’anticipation des opérateurs de datacentres les a conduit à s’appuyer sur des partenaires financiers pour réorganiser leurs investissements puis leur croissance, parfois organique, parfois externe. Les récents rapprochements ayant marqué les tribunes économiques camouflent pourtant les fusions et acquisitions encore à venir. Le numéro 1 mondial des promoteurs (DRT) dispose à ce jour de plus du double de la capacité de ses deux challengers réunis.
Projet Cambridge
Bertrand Guézel Confidentiel 31/33
La marge de progression de chaque fournisseur – promoteur comme opérateur de site -‐ est encore considérable, tout comme l’ensemble du marché qui connaît actuellement une extension de ses frontières. La région parisienne semble saturée ? Les exploitants cherchent des mètres carrés en province ; Londres croule sous le datacentres ? De nouveaux sites ouvrent à 80 ou 100 km du centre ; même chose à New-‐York, Chicago, Francfort, Madrid. Et ce ne sont là que des exemples de marchés disposant désormais d’un retour d’expérience et maîtrisant donc les cycles de vie des centres d’hébergement et de traitement de données. En effet la concentration de centres d’affaires donne une idée du volume récurrent de nouveaux projets. Toutefois, ces zones, déjà adressées par les géants Equinix, Telehouse, Telecity Interxion ou encore Reliance donnent une idée du potentiel de croissance des zones en friches que sont l’Amérique du Sud, l’Afrique, l’Océanie et l’Asie et qui commencent seulement à générer de l’intérêt auprès de ces acteurs. Ces zones font d’ailleurs actuellement l’objet d’investissements massifs de la part des opérateurs télécom et de leurs partenaires afin de déployer de nouveaux câbles intercontinentaux et sous-‐marins. Ces déploiements renouvellent des câbles d’ancienne génération, saturés depuis plusieurs années et incapable de soutenir le rythme de croissance (proprement exponentiel) soutenu par la consommation de données dématérialisées. De nombreux câbles viennent d’être déployés depuis l’Asie (Inde, Singapour, Chine et Japon) pour longer les côtes africaines et raccorder l’Europe à la fois par la Méditerranée et l’Atlantique. Le Brésil et l’Argentine sont également les cibles privilégiées de nouveaux déploiements de câbles depuis les Etats-‐Unis. En 2009, une étude IDC commandée par Interxion faisait ressortir que les datacentres neutres sont en passe de devenir un carrefour incontournable. Après avoir questionné 400 décideurs informatiques de haut niveau et sondé les fournisseurs de datacentres, il est attendu une croissance de 23% par an, sur 5 ans, portant la taille du marché mondial de 725 millions d’euros (2008) à plus de 2 milliards d’euros en 2013. Compte tenu que les champions cités n’attaquent une nouvelle zone géographique qu’en fonction de son volume potentiel (Equinix héberge 4.000 clients dans 38 centres répartis dans 13 pays, pour une moyenne 15.000 m2 par centre), il reste de nombreuses zones encore peu denses à aborder pour un acteur envisageant d’apporter une solution aux marchés de niche. Le plus important partenaire immobilier d’Equinix, Digital Realty Trust (DRT), dispose de pas moins de 70 datacentres répartis en 27 lieux sélectionnés pour attirer des clients aussi renommés que Yahoo ou Google. Cet opérateur immobilier qui dégageait, fin 2010, un chiffre d’affaire de 867 Millions de dollars grâce à 1 338 000 m2 se permettait dès début 2011 de réinvestir 1.3 Milliard de dollars pour faire croître son empreinte de 17 % et disposer de 15 nouveaux sites totalisant 214.000 m2 supplémentaires en portefeuille (une moyenne de 14.000 m2). La progression du chiffre d’affaire de DRT donne une idée du rythme de croissance de ce marché : 283 Millions de dollars en 2006, 398 Millions de dollars en 2007, 532 Millions de dollars en 2008 puis 639 Millions de dollars en 2009. La marge nette issue de ses opérations 2011 ressort à 102 Millions de dollars, avant dividendes, soit près de 12% de résultat net sur une activité à mi-‐chemn entre les services informatiques et la promotion immobilière, disposant d’une visibilité pluri-‐annuelle compte
Projet Cambridge
Bertrand Guézel Confidentiel 32/33
tenu, encore une fois, que les clients prestigieux (Equinix, Facebook, Morgan Stanley, JP Morgan ou Microsoft) s’engagent sur de longues durées. Les deux plus importants concurrents de DRT (Dupont Fabros Technology et Terramark) dégagent chacun un chiffre d’affaire cinq à six fois inférieur au leader, avec certes des surfaces en portefeuille également moins importantes, tout en présentant des ratios de rentabilité du m2 équivalent.
La règle voudrait que lorsque les leaders du marché montrent autant d’engouement, sur un marché qui n’a pas encore dévoilé tout son potentiel, ils ne laissent guère de place pour un nouvel entrant. Or, une partie importante du marché global reste à adresser puisque, comme évoqué plus haut, de nombreuses
zones géographiques sont toujours fragmentées et occupées par de petits opérateurs, généralement locaux. Or, la stratégie d’investissement des leaders du marché reste dictée, en filigrane, par les projets de ses clients existants ou par les relai de croissance identifiée. Les champions du datacentre n’ont pas encore creusé certains marchés car ils n’ont pas identifié les start-‐up de demain qui dynamiseront les marchés émergents. Le risque d’investissement est donc lié aujourd’hui à la présence et l’agressivité d’un acteur majeur sur le marché géographique envisagé. Si la zone approchée est au contraire constituée d’acteurs mineurs, l’investissement peut faire ressortir des ratios de rentabilité calqués sur ceux communiqués par les chefs de file… tant que les règles énoncées plus haut sont respectées. Enfin, l’investisseur inclura dans sa stratégie le risque (positif) d’offre de rachat du site par un concurrent qui souhaiterait pénétrer la même zone et qui, pour gagner du temps, tentera une opération de croissance externe si le site cible présente des caractéristiques proches de ses pré-‐requis : surface, énergie, nombre de client, nombre de m2 exploités, nombre de m2 disponibles, rentabilité du m2. Si tel est le cas, une telle approche couronnera les efforts de l’investisseur et consacrera son entrée dans le monde relativement fermé des acteurs majeurs de ce secteur indispensable qu’est le marché des datacentres.
Projet Cambridge
Bertrand Guézel Confidentiel 33/33
10. Addendum Au-‐delà de l’expérience du rédacteur, qui compte pas moins de quinze années de gestion de projets internationaux, de vente de projets complexes et de développement de stratégie dans les domaines des services liés à m’informatique et aux télécommunications, le présent document s’appuie sur de précieux compléments d’information issus des sources suivantes : Datacenter Knowledge : www.datacenterknowledge.com ; Uptime Institute : www.uptimeinstitute.com ; Datacenter Journal : www.datacenterjournal.com ; Datacenter Map : www.datacentermap.com ; Silicon : datacenter.silicon.fr ; Packet Clearing House : www.pch.net ; Equinix : www.equinix.com ; Globalswitch : www.globalswitch.com ; Digital Realty Trust : www.digitalrealtytrust.com Telecity Group : www.telecitygroup.fr ; Interxion : www.interxion.com ; NYSE Euronext : www.nyse.com ; Ces sites internet fournissent des cas d’études et statistiques qui ont permis d’étayer les propos du rédacteur par des exemples et données chiffrées à jour
Fin du document./