Datacenter : pérennisez vos services externalisés

Les datacenters sont  les nouvelles banques du XXI° siècle. Bien choisir son fournisseur est donc crucial, notamment en termes de pérennité. Voici quelques clés de sélection

Les datacenters sont des centres dans lesquels les entreprises externalisent parfois « physiquement » leurs serveurs mais toujours leurs données. C’est donc une part de savoir-faire et de leur patrimoine que les entreprises confient à un tiers de confiance. De plus, pour les services informatiques, les opérations d’externalisation peuvent exiger une préparation assez lourde et générer des coûts non négligeables : déménagement, reconnexion des serveurs, validation etc… Déménager ses serveurs ou ses données sont donc des projets impactant Il s’avère préférable de bien choisir son datacenter dans une perspective à moyen terme. Du coup, la notion de pérennité devient très importante.

C’est justement sous la terminologie de pérennité que se cache une énorme ambiguïté.  Aujourd’hui, le réflexe est d’amalgamer la pérennité d’un datacenter avec celle de matériels informatiques classiques ou des fournisseurs qui les délivrent. Il faut reconnaitre que par le passé,  les clients ont bien été « éduqués » par les professionnels du marché. Par exemple combien de sociétés se sont trouvé désemparées suite à la disparition des offres de leurs  fournisseurs : arrêt du support de l’OS  (Operating Système) ou disparition de la gamme de serveurs qu’elles utilisaient… Face à ce rique,  le refuge  a été de sélectionner des fournisseurs ayant « pignon sur rue ». Faute d’avoir une solution pérenne, le client  garde au pire l’assurance de conserver le même interlocuteur et au mieux l’espoir de ne pas être le seul dans cette situation afin de mieux se faire entendre…

Ce scénario  ne s’applique  pas du tout  pour le marché du datacenter. Les contrats d’hébergement ont la particularité d’être bornés dans le temps. Ils ont une date de début mais surtout une date de fin.  Ainsi un client  peut  dans un délai de deux ou trois mois se retrouver « à la rue » sans le moindre recours contractuel.  Les fournisseurs d’hébergement ont donc le privilège de pouvoir «sélectionner» ses clients en renouvelant ou non leur bail de location. Ils peuvent choisir leurs clients selon leurs critères. Le besoin de  pérennité de l’entreprise est donc soumis à la décision du fournisseur.

Alors que doit faire l’entreprise : s’engager sur des durées de contrats très longues ou renoncer à l’externalisation ? Ces choix ne sont pas réalistes. La gestion d’un système d’information est trop imbriquée dans la compétitivité d’une entreprise. Il n’y a pas de solution miracle,  mais seulement  une démarche reposant sur la réduction des risques. Voici quelques critères que nous vous conseillons de prendre en compte. Ils reposent sur la notion de «proximité». Non pas la proximité physique mais une proximité de gestion qui peut se structurer autour de 3 axes :

  1. La  « proximité » du management
    Les décisionnaires du fournisseur sont-ils accessibles ? Vous connaissent-ils en tant que client ?
  2. La  » proximité » de la stratégie du fournisseur
    Est-elle fixée  à  10 000 km d’ici ? Le client est-il noyé dans le « camembert »  de secteur d’activités non stratégique ?
  3. La « proximité » de la vision d’un client
    Quelle est la segmentation de la clientèle du datacenter : gold, silver ? Dans quelle catégorie se ranger pour quels niveaux de service ?
  4. La « proximité » de l’approvisionnement
    La pérennité d’un Datacenter, c’est aussi le fait que ses infrastructures assurent la croissance des besoins en énergie et en refroidissement dans le futur. Si celui-ci est déjà saturé, il ne pourra pas absorber la croissance de ses clients et devra en résilier une partie.

Dans le monde de l’hébergement et des datacenters, la pérennité est plus complexe qu’elle n’ y paraît au premier abord. Les entreprises ont donc intérêt à étudier l’évolution de ses fournisseurs dans les années à venir tant au niveau de ses capacités de production que de son actionnariat ou encore de sa stratégie de développement commercial. Et de choisir des fournisseurs fiers de leurs clients !

François Barre, ingénieur commercial Datacenter

Cloud et Ecologie, quelles avancées ?

Les usages numériques ne lancent pas la green it-tude pourquoi pas leurs infrastructures ?

 

Internet est souvent perçu comme virtuel. Or Internet, c’est avant tout la mise en relation de serveurs et d’ordinateurs ou de ressources informatiques via des routes appelées réseaux. Si les usages numériques devant révolutionner l’utilisation des transports restent encore marginaux, les tendances du Cloud laissent quant à eux présager une nouvelle dynamique vers l’Internet Vert.

La décentralisation annoncée par les nouveaux usages numériques n’est pas encore au rendez-vous. Le télétravail et la visio-conférence restent encore des outils culturellement mal perçus ; les déplacements professionnels ont certes un peu baissé mais plus du fait de la réduction des budgets des entreprises… De plus, en y regardant de plus près la multiplication des commandes en ligne ne favorisent pas tant que cela la réduction des transports de marchandise ou des déchets d’emballage.

Si les usages ne permettent pas encore la révolution verte, on peut observer que l’industrie numérique s’efforce quant à elle de relever ce défi, ne serait-ce que pour des questions d’économie. Prenons les composants de l’industrie numérique un à un

–  Réseaux :
le smart grid restera probablement marginal en France et dans les pays développés, même si intellectuellement la fusion multi-usages des réseaux est très intéressante ; la vraie révolution c’est le passage du cuivre (de plus en plus onéreux) vers la fibre optique. Quelques soient les débats actuels sur la rapidité des déploiements, la fibre optique gagne du terrain et c’est tant mieux car elle offre de vrais atouts écologiques : légèreté, recyclage, pose…

– Serveurs : trois composants sont à prendre en compte : puissance, consommation électrique et matériaux. Pour ces derniers, l’acier souvent utilisé ne pose pas de problème majeur en termes de production ou de recyclage. C’est plutôt le cœur du serveur qui reste intéressant à étudier. Les travaux sur la puissance et l’émission de chaleur, notamment avec le projet Moon Shot d’HP, sont extrêmement prometteurs. En effet, avec une réduction à la source de la consommation électrique tant pour l’usage que pour le refroidissement, les clés du green IT sont en train d’émerger.

En complément, la virtualisation des serveurs constitue elle aussi une grande avancée. Compte-tenu des besoins de stockage, de sauvegarde de données des entreprises et de haute disponibilité (serveur miroirs), la croissance des besoins est exponentielle.
La virtualisation permet de multiplier la puissance d’un serveur en partageant plus facilement des serveurs mutualisés ou en multipliant les usages des serveurs dédiés.

Compte-tenu du coût des solutions actuelles de virtualisation, on peut imaginer que de nouvelles sources d’innovation restent à creuser et que des offres de clusters open-source vont émerger rapidement.
–  Centres informatiques de données : les datacenters consomment comme de petites villes ! tant pour les serveurs hébergés que pour leur fonctionnement intrinsèque. La réutilisation de la chaleur est intéressante mais insuffisante. La réflexion doit porter sur le rendement énergétique global, avec des mesures précises – dont la mesure de la consommation – et évaluation des dommages collatéraux (projets sur les nappes phréatiques ou banquises). Le refroidissement par l’air ambiant ou free-cooling est vraiment très intéressant à cet égard ; il doit pourtant être couplé avec une exigence de haute disponibilité et haute densité sans quoi ces datacenters ne répondront pas aux exigences de nouvelles générations de serveurs. Reste ensuite à creuser la question des matériaux de construction et la source de l’énergie… sujet de réflexion plus complexe.
– Applications : le calcul de la consommation énergétique d’une application est très tendance et les préconisations se multiplient : pas de flash, choix des CSS… Il est probable que ces normes intégreront peu à peu les cahiers des charges des développeurs et des SSII… dans quelques années…
 
– Postes de travail : le rêve serait un bureau sans ordinateur, câbles et autre périphérique. Et cela est en train d’arriver ! La virtualisation et le cloud permettent d’accéder à toutes les ressources informatiques grâce aux réseaux informatiques. On pourrait disposer d’outil de communication simplifié accédant à toutes les données, applications… et d’une certaine façon nous vivons déjà cette réalité. Restent ensuite les exigences de sécurité, confidentialité et contrôle.
Ainsi, la révolution verte sera-t-elle le fruit de l’informatique dans les nuages ? Cette vision poétique le laisse le présager. Tout comme on peut espérer que la révolution numérique des entreprises devienne un des piliers de l’innovation et de croissance.

CELESTE offre 1 Tera de stockage à tous ses clients

A l’heure des débats sur la conservation des données en France, CELESTE lance une offre de stockage cloud illimitée dans son datacenter écologique Marilyn.

Cette solution permet un stockage de données privé et sans limite, d’autant que les clients peuvent utiliser leur fibre 1Gb/s pour déposer et récupérer leurs données.
Une offre unique sur le marché pour répondre aux besoins croissants des entreprises.
La croissance forte des besoins de stockage de données des entreprises se trouvent actuellement limitée par les solutions techniques proposées. Solutions sur bande, NAS ou SAN ne suffisent plus aux équipes informatiques. Fort de ce constat, l’équipe de Recherche et de Développement de CELESTE s’est lancé pour défi de proposer une offre innovante et inexistante sur le marché : le stockage élastique.
Tout naturellement, CELESTE propose à ses clients d’utiliser leur fibre optique pour déposer leurs données dans son datacenter.Le choix technique de l’équipe s’est orienté vers une solution de stockage cloud à copies multiples. Grâce à cette approche, en cas de besoin de stockage supplémentaire, l’ajout de machines renforce simplement les capacités de stockage, sans qu’on soit limité comme pour les solutions NAS ou SAN existantes. Ainsi le stockage n’est plus limité par les serveurs. De plus, les capacités de la solution peuvent être augmentées à chaud sans interruption de service ni perte de données.
Destinée aux entreprises, la solution de Stockage Cloud de CELESTE est facturée au To. Les données sont répliquées en temps réel dans le datacenter Marilyn de CELESTE. Marilyn est un datacenter de conception TIER IV, 100% disponible. Quant au dépôt des données, il est possible en FTP, SFTP ou encore RSYNC via des connexions haut débit. Le suivi de la consommation est visible en temps réel sur l’espace client.
« Le stockage de données consomme de l’énergie, car les disques durs fonctionnent en permanence. Grâce à la conception écologique de notre datacenter Marilyn, nous consommons 35% d’énergie en moins. Nous proposons donc une offre Made in France et moins chère que nos concurrents américains. Cette offre révolutionne le marché du stockage par sa simplicité et son efficacité » précise Nicolas Aubé, président de CELESTE,

La qualité d’un datacenter est liée à l’optimisation de sa consommation électrique

Même si les exploitants s’en défendent, l’augmentation des tarifs de l’énergie électrique a remis «à plat» le mode de fonctionnement traditionnel  des datacenters.

Initialement pour des raisons de délais de mise sur le marché et d’économie d’investissement, le concept du datacenter restait calqué sur celui des  salles informatiques. Les investissements étaient focalisés sur les équipements  techniques : climatiseurs, transformateurs électriques, onduleurs…et leurs back-ups. Pour les bâtiments, le modèle était  la réfection d’espace «bureaux ».

Cette approche a depuis quelques années dépassé ses limites, et ce pour plusieurs raisons :

Le trop faible rendement électrique de ces installations

Rappelons ici les exigences d’un datacenter en d’énergie électrique. Pour délivrer une alimentation de 1kVA aux serveurs hébergés, il fallait compter 1kVA supplémentaire pour la climatisation et le double pour chacun de leur système de sécurisation. Donc une baie de 10 kVA impliquait une disponibilité de 40 kVA.

Le coût de cette énergie électrique

Initialement ce coût était insignifiant, mais depuis maintenant quelques années nous assistons à une augmentation annuelle et continuelle entre 5 et 7 % de cette énergie dans le monde : c’est-à-dire qu’en 4 ans le prix  du Kilowatt « a pris » plus de 25 % d’augmentation, et tout laisse à penser que cette escalade va continuer (Source Reuters).

Qualité de service garantie dans le temps

Par définition, l’hébergement de serveurs est une démarche qui s’inscrit dans la durée. Pour un opérateur de Datacenter cela signifie qu’il doit calculer son budget de fonctionnement  pour plusieurs années, alors que plus grand montant échappe entièrement à son contrôle : le coût de Kilowatt.
Dans ce contexte,  pour maintenir en condition opérationnelle leurs offres,  les opérateurs de datacenter n’ont que deux solutions: soit ils augmentent régulièrement leurs tarifs pour absorber cette inflation, soit ils «rognent» sur d’autres dépenses  en  acceptant de dégrader la qualité de leurs services d’hébergement. La première approche étant généralement contractuellement impossible, il ne reste que la seconde. Il est paradoxal de constater que c’était justement pour éviter cette dégradation de la qualité de l’environnement de ses serveurs que le client  avait choisi d’externaliser ses serveurs dans un centre informatique professionnel.
Ne soyons pas défaitistes, car non seulement des solutions existent et elles sont même déjà commercialisées. Leurs implémentations ont permis de générer des économies d’énergie conséquentes pour une même capacité d’hébergement grâce à :

  1. La refonte des procédés de refroidissement des datacenters avec l’utilisation de ressources moins onéreuses, les ressources naturelles comme l’air ambiant avec le free-cooling
  2. L’utilisation d’onduleurs à inertie à la place de batteries (moins consommateur d’énergie électrique pour leur maintien en condition opérationnelle)
  3. Une optimisation de l’utilisation de certains équipements par la mutualisation de leur fonction pour tout le Datacenter

En résumé, nous pouvons considérer que pour un client le gage de la qualité d’un datacenter est sa capacité à optimiser l’utilisation de l’énergie électrique pour l’hébergement de serveurs informatiques.

François Barre
Ingénieur Commercial Datacenter CELESTE