Le gourvernement français visite le datacenter Marilyn

Le vendredi 15 octobre 2015, 2 ministres ont visité le siège social de Marilyn :

Michel Sapin, finance Minister des Finances et des Comptes publics.

Myriam El Khomri, Ministre du Travail, de l’Emploi, de la Formation professionnelle et du Dialogue social.

Nicolas Aubé, Président de Marilyn, et Frédérique Dofing, Directrice Générale, ont fait visité les datacenters Marilyn et StarDC. Les ministres étaient heureux de voir autant d’innovation et les 75 emplois que le Groupe a récemment créé.

Selon la devise de Mme El Khomri « L’emploi est l’affaire de tous ».

Nicolas Aubé showing Datacenter Marilyn to French ministers Michel Sapin and Myriam El Khomri

Nicolas Aubé présente le Datacenter Marilyn aux ministres francais Michel Sapin and Myriam El Khomri

Michel Sapin and Myriam El Khomri visiting StarDC

Michel Sapin et Myriam El Khomri atttentifs à la présentation du StarDC

Myriam El Khomri at Marilyn headquarters

Myriam El Khomri au siége social de Marilyn

Entreprises, et si vous aviez votre propre Datacenter?

A l’heure du développement du Cloud, de nombreuses entreprises hésitent à franchir le cap de l’externalisation de leurs données pour des raisons de proximité et de sécurité du centre informatique. Comment allier haute disponibilité, haute densité et proximité ?

CELESTE propose de changer les paradigmes de cette approche en lançant une nouvelle offre : le StarDC, le mini-datacenter haute-densité et écologique pour les entreprises.
Avec Marilyn situé à Champs sur Marne, CELESTE et enia architectes ont créé le datacenter nouvelle génération. Écologique, haute-densité et haute-disponibilité, ce centre vertical a fait ses preuves en 3 ans d’exploitation. Marilyn est un datacenter urbain. Restait toutefois à satisfaire une demande forte: celle du petit datacenter régional, du module aisément installable au sein même de l’entreprise, en France ou à l’étranger.
CELESTE, entreprise reconnue dans l’univers de l’hébergement et son partenaire enia architectes ont prolongé leurs recherches en ce sens. En collaboration avec Critical Building, StarDC est né de ce besoin. Ce mini-datacenter de 4 baies allie les atouts d’un fonctionnement écologique à haute-densité et une exploitation professionnelle sans pour autant nécessiter un lourd investissement. Il répond également au risque d’obsolescence prématurée des datacenters usuellement construits.
Un mini-datacenter TIER III haute-densité clé en main.
Livré clé en main dans un délai prévisionnel de 4 mois, ce datacenter d’une capacité de 168 serveurs ne prend pas plus d’espace qu’une place de parking. Conçu selon les principes du TIER III, il est aussi envisagé comme une solution pérenne et modulaire. En effet, sa capacité totale peut être quadruplée sans altération de ses performances. D’une puissance de 20 kVA, il dispose de deux voies électriques redondées et ondulées. Grâce à ce système, le StarDC peut fonctionner en autonomie pendant 20 minutes. Ou plus encore grâce au tableau électrique permettant un mode secours pour les entreprises dotées d’un groupe électrogène optionnel.

Un refroidissement écologique et économe

Ce nouveau brevet enia / CELESTE à l’instar de son grand frère ne fait pas appel au refroidissement par eau. En effet, le design de ce container renforce ses capacités de refroidissement par l’air ambiant. Quatre modes de refroidissement sont envisagés : free-cooling, climatisation, chauffage et régime mixte. A cet effet, des unités de traitement d’air et un système de climatisation sont intégrés au StarDC.

Un fonctionnement et une exploitation sur-mesure

Toutes les fonctionnalités d’un datacenter nouvelle génération sont intégrées dans la conception du container :

  • Connectivité en Fibre Optique – avec deux baies dédiées à la fibre
  • Redondance de tous les équipements
  • Supervision temps réel 24/7
  • Contrôle accès
  • Vidéo-surveillance
  • Détection incendie et extinction automatique

En fonction de leurs équipes informatiques, les entreprises peuvent ensuite faire le choix de déléguer l’exploitation et la maintenance de leur datacenter aux équipes de CELESTE.
Le starDC se positionne comme une offre innovante et dont la tarification concurrence très agressivement les offres actuelles.

Datacenters : la haute densité devient la règle

La haute densité est devenue la règle de la conception des nouveaux sites informatiques ; découvrez pourquoi !

La révolution du temps réel avec Internet implique une nouvelle approche de la continuité de service et ainsi des exigences fortes de disponibilité de tous les maillons de la chaine informatique : connexions, serveurs, centres informatiques… Pour ces derniers, la haute densité est devenue le critère clé de conception et d’évaluation.

Un datacenter est un bâtiment sécurisé hébergeant des ressources informatiques. Ce bâtiment est conçu pour assurer la continuité de fonctionnement et de service de ces ressources. La continuité de service est donc au cœur de la conception de tous les centres informatiques du monde même s’il n’existe pas de norme pour la mesurer. Depuis 2007, les professionnels du secteur se réfèrent à la classification de l’Uptime Institute, avec des niveaux de « Tier I » à « Tier IV » (1) suivant le degré de disponibilité du service.

L’efficacité énergétique n’est donc pas un critère « historique » pour la conception des datacenters, et notamment pour ceux construits avant 2009. Des contraintes sur les rendements efficaces pèsent sur les équipements, du transformateur à l’onduleur ou les climatiseurs… Mais force est de constater que la conception elle-même (urbanisation, bâtiment…) des salles informatiques n’est pas prise en compte.

Entre 2004 et 2008, l’apparition de processeurs plus denses et de serveurs très consommateurs d’énergie comme les « blades » a fait monter les besoins en densité des datacenters de 500 W au m2 à plus de 1000 W. Du coup, de nombreux centres se trouvent confrontés à des problèmes de sous-dimensionnement électrique et thermique : ils ne peuvent plus répondre à la demande des clients. Ils subissent des pannes dues à la sur-consommation, comme des pannes du système de refroidissement l’été pouvant impacter le fonctionnement des serveurs en quelques minutes.

Au-delà des problèmes de dimensionnement, les coûts de l’énergie deviennent une problématique prépondérante pour le fonctionnement du datacenter : coût financier compte-tenu des évolutions du prix de l’électricité sur le marché européen et évidemment coût écologique. La prise en compte de l’empreinte écologique est devenue pour certaines entreprises et collectivités un nouveau critère de sélection des fournisseurs ou d’arbitrage entre solutions techniques équivalentes. Les centres énergivores deviennent moins attractifs pour les clients.

D’un point de vue opérationnel, financier et écologique, l’efficacité énergétique est devenue le point clé pour l’évaluation des datacenters. Sur le marché, elle est traditionnellement mesurée par avec le ratio « Power Usage Effectiveness ». Le « P.U.E. » indique le rendement énergétique moyen sur une année. Sur les sites d’ancienne génération, ce ratio est de l’ordre de 2 : pour 1 W d’énergie utile pour les serveurs, 1W est utilisé pour le fonctionnement du site, notamment pour la production de froid. D’autres ratios peuvent être utilisés comme la consommation de Carbone ou d’eau.

Depuis 2009, deux avancées importantes ont été apportées pour améliorer l’efficacité énergétique et la haute densité des sites industriels. La première consiste en une meilleure urbanisation des salles informatiques : organisation en « allées froides » et « allées chaudes », création des séparations étanches pour le confinement des flux d’air et l’optimisation du rendement de la climatisation. Sur les dernières salles construites par les exploitants historiques de datacenters, ces procédés ont été mise en œuvre.

S’il est difficile de connaître le rendement de ces salles, on peut estimer que le gain est d’environ 15% par rapport aux salles traditionnelles. En effet, la démarche de confinement est efficace ; elle permet d’utiliser le refroidissement par l’air ambiant ou free-cooling dans les zones tempérées. Dans ce cas, les systèmes de climatisation utilisent le froid de l’air extérieur si possible.

L’autre avancée est celle des exploitants de sites Internet (comme Google, Facebook ou Microsoft), qui travaillent sur des serveurs moins sensibles aux températures élevées ou dotés de système de refroidissement des composants avec de l’eau froide. Avec cette approche, on peut ne plus refroidir les salles informatiques, voire même éteindre des salles complètes lorsqu’il fait trop chaud à un endroit donné. Cette démarche semble efficace, mais elle implique une maîtrise complète de la chaîne datacenters + serveurs + applications et ne peut donc pas être mises en œuvre dans la plus part des centres dits « ouverts », c’est-à-dire acceptant tous types de serveurs.

D’autres tendances voient le jour… D’autres projets remplacent l’énergie électrique nécessaire à la climatisation par un apport d’eau froide via une source d’eau naturelle. L’impact sur l’environnement n’est pas négligeable et il faut en tenir compte afin de calculer le rendement de ces installations, ce qui peut le dégrader sensiblement. Une démarche intéressante reste cependant la modularité des salles informatiques, démarche déjà initiée sur le marché. L’enjeu est de monter une infrastructure rapidement, pour des montées en charge rapides ou pour des besoins temporaires. Prenez l’exemple des datacenters en containers de certains équipementiers : ils permettent l’hébergement de plusieurs baies avec un système compact de circulation de l’eau pour le refroidissement et le cheminement des connexions électriques et réseaux.

De plus, ce système est adapté au « cloud computing » car il suit les besoins en infrastructure « à la demande ». Par contre, les rendements énergétiques vont dépendre de la technologie de refroidissement choisie. Les datacenters en containers qu’on peut voir sur le marché utilisent tous un réseau d’eau froide pour le refroidissement des machines. Or l’énergie utilisée pour refroidir l’eau ne permet pas d’effectuer de véritables économies.

Haute densité et efficacité énergétique sont intimement liées ; de nombreuses pistes sont explorées pour combiner haute densité et écologie tant au niveau des infrastructures, que des matériaux ou encore des matériels. La révolution numérique porte en elle les germes d’une nouvelle révolution écologique : l’Internet Vert.

Nicolas Aubé – Président de CELESTE

Avec « Marilyn », le nouveau concept de datacenter écologique haute densité, CELESTE veut montrer qu’il est possible de réaliser un centre informatique haute-densité sans utiliser d’eau pour le refroidissement. Celui-ci est réalisé uniquement par l’air, qui circule à travers les étages. Pendant 95% de l’année, l’air extérieur est injecté et éventuellement mélangé à l’air extrait des salles. Le rendement (P.U.E.) du site est estimé à 1,3 ; soit une réduction de 35% par rapport au ratio d’usage. Le site affiche une densité jusqu’à 10 kVA par baie.

(1) La disponibilité du service est calculée en fonction de la redondance des équipements et de l’ensemble des composants de l’infrastructure.

Datacenter : pérennisez vos services externalisés

Les datacenters sont  les nouvelles banques du XXI° siècle. Bien choisir son fournisseur est donc crucial, notamment en termes de pérennité. Voici quelques clés de sélection

Les datacenters sont des centres dans lesquels les entreprises externalisent parfois « physiquement » leurs serveurs mais toujours leurs données. C’est donc une part de savoir-faire et de leur patrimoine que les entreprises confient à un tiers de confiance. De plus, pour les services informatiques, les opérations d’externalisation peuvent exiger une préparation assez lourde et générer des coûts non négligeables : déménagement, reconnexion des serveurs, validation etc… Déménager ses serveurs ou ses données sont donc des projets impactant Il s’avère préférable de bien choisir son datacenter dans une perspective à moyen terme. Du coup, la notion de pérennité devient très importante.

C’est justement sous la terminologie de pérennité que se cache une énorme ambiguïté.  Aujourd’hui, le réflexe est d’amalgamer la pérennité d’un datacenter avec celle de matériels informatiques classiques ou des fournisseurs qui les délivrent. Il faut reconnaitre que par le passé,  les clients ont bien été « éduqués » par les professionnels du marché. Par exemple combien de sociétés se sont trouvé désemparées suite à la disparition des offres de leurs  fournisseurs : arrêt du support de l’OS  (Operating Système) ou disparition de la gamme de serveurs qu’elles utilisaient… Face à ce rique,  le refuge  a été de sélectionner des fournisseurs ayant « pignon sur rue ». Faute d’avoir une solution pérenne, le client  garde au pire l’assurance de conserver le même interlocuteur et au mieux l’espoir de ne pas être le seul dans cette situation afin de mieux se faire entendre…

Ce scénario  ne s’applique  pas du tout  pour le marché du datacenter. Les contrats d’hébergement ont la particularité d’être bornés dans le temps. Ils ont une date de début mais surtout une date de fin.  Ainsi un client  peut  dans un délai de deux ou trois mois se retrouver « à la rue » sans le moindre recours contractuel.  Les fournisseurs d’hébergement ont donc le privilège de pouvoir «sélectionner» ses clients en renouvelant ou non leur bail de location. Ils peuvent choisir leurs clients selon leurs critères. Le besoin de  pérennité de l’entreprise est donc soumis à la décision du fournisseur.

Alors que doit faire l’entreprise : s’engager sur des durées de contrats très longues ou renoncer à l’externalisation ? Ces choix ne sont pas réalistes. La gestion d’un système d’information est trop imbriquée dans la compétitivité d’une entreprise. Il n’y a pas de solution miracle,  mais seulement  une démarche reposant sur la réduction des risques. Voici quelques critères que nous vous conseillons de prendre en compte. Ils reposent sur la notion de «proximité». Non pas la proximité physique mais une proximité de gestion qui peut se structurer autour de 3 axes :

  1. La  « proximité » du management
    Les décisionnaires du fournisseur sont-ils accessibles ? Vous connaissent-ils en tant que client ?
  2. La  » proximité » de la stratégie du fournisseur
    Est-elle fixée  à  10 000 km d’ici ? Le client est-il noyé dans le « camembert »  de secteur d’activités non stratégique ?
  3. La « proximité » de la vision d’un client
    Quelle est la segmentation de la clientèle du datacenter : gold, silver ? Dans quelle catégorie se ranger pour quels niveaux de service ?
  4. La « proximité » de l’approvisionnement
    La pérennité d’un Datacenter, c’est aussi le fait que ses infrastructures assurent la croissance des besoins en énergie et en refroidissement dans le futur. Si celui-ci est déjà saturé, il ne pourra pas absorber la croissance de ses clients et devra en résilier une partie.

Dans le monde de l’hébergement et des datacenters, la pérennité est plus complexe qu’elle n’ y paraît au premier abord. Les entreprises ont donc intérêt à étudier l’évolution de ses fournisseurs dans les années à venir tant au niveau de ses capacités de production que de son actionnariat ou encore de sa stratégie de développement commercial. Et de choisir des fournisseurs fiers de leurs clients !

François Barre, ingénieur commercial Datacenter