Articles

Serveurs et vétusté des datacenters, une question de disponibilité

L’intérêt d’une entreprise de  placer ses serveurs informatiques dans des  datacenters  repose d’abord sur des raisons  économiques : suppression  des coûts  des  climatiseurs, des onduleurs, de la sécurité d’accès, de l’entretien de la salle etc…. Cependant il s’avère nécessaire de rester très vigilant sur le niveau de qualité du prestataire à qui elle confie ses serveurs. Est-il utile de rappeler que pour la plupart des entreprises le « blocage » de son système d’information signifie un arrêt complet de son activité ?
Une étude récente a montré que 60% des pannes  des serveurs informatiques sont  dues à  des pannes provenant  de l’environnement dans lequel ils sont installés :
– Coupure du réseau électrique, sans reprise automatique ou suffisante  par les onduleurs,

– Panne des  climatiseurs, transformant  la salle informatique en «sauna»,
– Dépôt de poussière, générant des faux contacts dans les circuits des serveurs

A l’origine beaucoup de datacenter se sont construits à partir de la réfection de bâtiments de bureaux sous prétexte qu’ils possédaient déjà une salle informatique. Cette réhabilitation a  conduit à des installations initialement  saines, mais qui  ont rapidement  atteint  leurs limites de fiabilité au fur et à mesure de leur « remplissage ».
Au-delà d’un taux d’occupation de 70 %, il est courant de voir apparaître des aménagements qui érodent le niveau de fiabilité d’un datacenter, par exemple :
– Création de salles privatives mais avec un seul climatiseur ou sans onduleur de secours faute de place
– Réduction du nombre d’opérations de tests et de maintenance suite à des difficultés d’accès : climatiseurs dans les salles de baies, sur les toits
– Mauvaise répartition des flux d’air de refroidissement  suite à des modifications de l’agencement des salles : suppression ou ajout de cloisons
– Équipement de  nouvelles salles sans dédoublement des compteurs électriques suite  à des problèmes de câblage ou de placeCes modifications disparates ont non seulement entraîné une baisse de la qualité des datacenters, mais ont aussi complexifié  l’exploitation au quotidien : multiplication des interventions,  difficulté d’accès,  absence de solution de substitution lors des interventions. D’ailleurs, il est courant de voir des opérateurs baisser les bras en annonçant la fermeture de leurs vieux datacenters.

Alors que  faut-il faire ? Reprendre ses serveurs. Non pas du tout.  Il faut simplement  garder à l’esprit que l’externalisation de serveurs est un projet qui s’inscrit dans la durée. On ne confie par ses serveurs pour 12 mois. On doit choisir un prestataire capable d’assurer un environnement de fonctionnement uniforme pour les 10 ans à venir quelques soient son taux de remplissage, l’évolution de la technologie des serveurs informatique, ses coûts de fonctionnement… un datacenter du XXI siècle.

Le Datacenter Marilyn tient ses promesses

Un an après la mise en service du datacenter « Marilyn » du fournisseur d’accès à Internet CELESTE, c’est l’occasion de revenir sur les premiers résultats de son exploitation. Nous avons interviewé Nicolas Aubé, président de Marilyn

M. Aubé pouvez-vous nous rappeler pourquoi ce datacenter est innovant ?

NA : C’est le premier centre informatique écologique et haute densité. Sa conception verticale permet de réaliser un refroidissement par l’air ambiant quasiment toute l’année. L’air chaud dégagé par les serveurs est utilisé pour chauffer nos bureaux, le surplus est évacué via des volets automatiques en haut des tours.

Pourquoi ce nom de Marilyn ?

NA : Car nous avons pensé à la célèbre actrice dans le film « Sept ans de réflexion » lorsque sa robe s’envole sur une grille d’aération. Dans notre datacenter, l’air passe à travers les étages et peut faire s’envoler les robes !

marilyn-nicolas aub

Votre projet a-t-il suscité de l’intérêt du public ?

NA : Oui, nous en avons été les premiers surpris. Nous avons fait une première session porte-ouvertes qui a connu un tel succès que nous en avons fait … 20 éditions. Nous avons eu de nombreux reportages de presse papier/Internet et de chaînes nationales de télévision. Je crois que la face cachée de l’Internet intéresse le public.

Le fonctionnement est-il optimal toute l’année ?

NA : Depuis la mise en service en octobre 2011, à Marne-la-Vallée, nous avons eu l’occasion de tester des températures extérieures extrêmes entre -15°C en février et 40°C en août. Le taux d’humidité ambiante a varié de 15% à 100%. Nous avons ainsi pu valider l’ensemble des plages de fonctionnement du datacenter.

Quels sont les modes de fonctionnement ?

NA : Le mode froid est lorsque la température extérieure est de moins de 22°C, soit 80% de l’année. Il n’y a pas besoin de climatisation pour refroidir l’air. Nous recyclons l’air chaud refoulé par les ordinateurs et le mélangeons avec de l’air froid, extérieur, afin de souffler un air d’une température comprise entre 17°C et 22°C dans les colonnes froides devant les serveurs. Le mode de refroidissement est tellement efficace que nous avons dû le limiter les premières semaines, avant que les salles se remplissent, car la température avait tendance à être trop basse.
Une très bonne surprise est également le fonctionnement dans les plages entre 20 et 22°C : le refroidissement par l’air ambiant a bien fonctionné même à ces températures assez chaudes : la température dans les salles n’était pas supérieure à la température extérieure, malgré plusieurs centaines de serveurs informatiques en fonctionnement. Et cela sans aucune climatisation. C’est le cœur de notre modèle : nous dépensons uniquement l’énergie pour faire tourner les ordinateurs, pas pour climatiser.Le mode « tiède » est entre 22°C et 32°C. Ici, nous utilisons toujours l’air extérieur, car sa température reste inférieure à celle expulsée par les serveurs. Nous climatisons l’air extérieur afin de le ramener à 22°C, et nous expulsons tout l’air chaud par la toiture. Ce mode reste assez efficace.
Le mode « chaud » se produit au-delà de 32°C. Nous fonctionnons alors en circuit fermé, en climatisant l’air chaud produit par les serveurs, comme un datacenter ordinaire. Dans ce mode, nous ne réalisons pas d’économie, mais il ne représente que 5% de l’année. Nous avons remarqué également qu’il reste intéressant d’ouvrir partiellement les volets au sommet des tours, afin de créer une dépression dans l’allée chaude et un effet de tirage naturel.Quelles sont les contraintes de ce procédé ?

NA : il nécessite une étanchéité parfaite entre l’avant des serveurs (allées froides) et l’arrière (allées chaudes). Pour cela, nous fournissons des caches à nos clients. Nous avons constaté qu’en cas de fuites d’air frais trop importantes, nous devions augmenter la pression dans les allées froides.
Comment vos clients ont-ils accepté ces innovations ?

NA : Nous étions un peu inquiets sur le fait de savoir si nos clients accepteraient ce modèle de salle informatique verticale ; et même si certains n’auraient pas le vertige car on travaille au-dessus de 5 étages grillagés. Or nous sommes heureux de voir que ce n’est pas le cas, les clients ont tout de suite adhéré à notre concept et ces innovations ont été plutôt un moteur commercial qu’un frein.

Pourquoi dites-vous que le datacenter Marilyn est en haute densité ?

NA : Il s’agit de la puissance électrique disponible par baie. De par notre process de refroidissement, nous pouvons fournir des baies en haute densité sans aucune modification à nos équipements. Le datacenter est équipé pour une densité moyenne de 5 kVA par baie, ce qui est nettement supérieur aux autres datacenters que nous connaissons en France. Nous pouvons fournir des baies en standard jusqu’à 10 kVA.

Les clients ont-ils besoin de cette haute densité ?

NA : Cela dépend du type de matériel et d’utilisation. Nous constatons que les clients qui utilisent des serveurs lames, qui font de la virtualisation ou du cloud computing ont besoin de haute densité. Par contre ils ont besoin de moins d’espace. Un de nos clients avait une suite privative de 10 baies avec 20 kVA dans un datacenter en Ile de France. Il a choisi de déménager chez CELESTE en ne prenant que 2 baies à haute densité, avec 20 kVA de puissance. Il a pu ainsi réaliser des économies dans la gestion de ses équipements et dans son budget datacenter.

Comme d’autres datacenters dont un à Courbevoie, avez-vous subi des pannes cette année ?

NA : Non, le datacenter a été disponible à 100% comme nous l’avons garanti à nos clients. En effet, nous disposons de deux chaînes électriques totalement indépendantes, dans des bâtiments distincts, depuis l’arrivée haute tension jusqu’à la distribution dans les baies.

Pouvez-vous indiquer une référence client du datacenter Marilyn ?

NA : Par exemple Econocom, un intégrateur leader en Europe. Ils ont été séduits par nos innovations en termes de réduction des dépenses énergétiques. Ils nous ont fait confiance dès l’ouverture du datacenter.

Quelles modifications avez-vous apportées depuis un an ?

NA : nous avons étendu la gamme commerciale en termes de densité. En effet, nous avons pu répondre à des appels d’offre qui demandaient jusqu’à 15 kVA par baie. Par ailleurs nous avons également mis au catalogue des baies avec 1 kVA pour des besoins en faible consommation. Nous avons lancé des baies « cloud » avec une consommation variable, facturée à l’usage. Cette offre convient parfaitement aux fournisseurs de Cloud computing. Nous avons également exploité les synergies avec notre offre de fibre 1 Giga. Nous proposons une offre couplée avec une baie dans notre datacenter Marilyn et une fibre optique à 1 Giga en VPN Ethernet chez le client.

Concrètement quel bénéfice cette offre apporte-t-il au dirigeant d’une entreprise située à Paris par exemple ?

NA : Il déplace son informatique dans un datacenter écologique. Il a ainsi accès à ses serveurs distants comme s’ils étaient sur son réseau local de Paris. Il gagne des m2 dans ses locaux Parisiens, diminue ses coûts électriques et renforce la sécurité de ses systèmes. S’il fait le choix de Marilyn comme site de back-up il dispose d’une infrastructure haute disponibilité et redondée.

Quels sont vos projets pour le futur ?

NA : En 2013, nous avons prévu d’équiper la deuxième tour du datacenter Marilyn. Par ailleurs, CELESTE est membre de nuage, le projet de recherche collaboratif sur le cloud computing écologique qui est soutenu par l’Etat. A ce titre, nous travaillons à un modèle de datacenters en réseau, dédiés pour le cloud. Nous avons également été approchés par des investisseurs ou des industriels qui souhaitent réutiliser notre brevet « Marilyn » en France ou à l’étranger. Nous avons conçu un contrat de licence à cet effet.

Dans quels pays le datacenter Marilyn pourrait-il être répliqué ?

NA : dans de nombreux pays ; si le climat n’est pas trop chaud et sec. Partout en Europe, sauf au sud ; dans le Nord, le centre ou l’Est des USA, au Brésil, en Asie du sud-Est, au Japon, en Australie du sud.
Nicolas Aubé, merci

Le Datacenter Marilyn garantit une disponibilité de 100%

A peine après 10 mois de travaux, la construction du datacenter Marilyn de CELESTE s’achève pour une mise en service fin septembre. Les choix technologiques effectués tout au long du projet font désormais de Marilyn le datacenter le plus innovant : écologique, haute densité avec une disponibilité de 100% de l’alimentation électrique et du maintien de la température.

En octobre dernier, la première pierre du centre informatique de CELESTE est posée ; et 10 mois après le datacenter est déjà quasiment terminé. Ce nouveau concept de datacenter éveille la curiosité, le panneau de présentation visible de l’A4 y est pour beaucoup. Les visites se multiplient quotidiennement : hébergeurs, banques, SSII ou encore curieux de tous les datacenters d’Ile de France…

Il faut dire que les choix techniques de CELESTE font de Marilyn le datacenter le plus innovant de l’année

  • Double chaîne électrique avec arrivée ERDF  3MW
  • Deux transformateurs HT 20 000 V
  • 2 locaux BT avec
    • des tableaux avec niveaux de services « 3 3 3 » pour effectuer maintenance, changement de pièce ou upgrade à chaud
    • deux onduleurs avec volet d’inertie qui évitent ainsi de refroidir des batteries
  • Distribution électrique doublée pour chaque baie
  • Un groupe électrogène dimensionné pour reprendre l’intégralité de la puissance du centre

En conclusion, cette architecture de conception TIER IV permet de garantir une disponibilité de 100% de l’alimentation électrique et du maintien de la température grâce à une approche simple et robuste. C’est ce qui séduit les visiteurs au-delà de la qualité des fournisseurs retenus pour les baies, onduleurs ou encore le rendement énergétique très bas de 1,3 (PUE).

A l’origine du brevet de Marilyn et président de CELESTE,  Nicolas Aubé est surpris et heureux par l’engouement de la communauté pour Marilyn « Les demandes de visites et sollicitations de conférences au niveau mondial se multiplient et le taux de pré-réservation est bien supérieur aux prévisions. Nous sommes fiers et en même temps impatients d’être le 26 septembre pour les premiers souffles de Marilyn. »

Les fondamentaux de la Haute Disponibilité

La haute Disponibilité concerne de plus en plus d’entreprises comme de particuliers, par la dépendance que créent Internet et les nouvelles technologies, qui ne sont pas disponibles en permanence. Il n’y a pas de norme en ce qui concerne la durée d’une interruption de service. Cela dépend du contexte et de la criticité de l’application.

Par exemple un système de navigation embarqué dans un avion sera conçu pour avoir une période d’indisponibilité de 5 minutes par an, alors que l’application de facturation d’une entreprise sera conçue pour une période d’indisponibilité d’une journée par an.

Définition

haute-dispoOn définit la haute disponibilité comme un système permettant d’assurer une continuité opérationnelle d’un service sur une période donnée. Pour mesurer la disponibilité, on utilise une échelle qui est composée de 9 échelons. Un service Hautement Disponible est 99% disponible soit moins de 3,65 jours par an.

Afin de calculer la disponibilité, les métriques suivantes sont utilisées:

1.MTBF (Mean Time Between Failure) : mesure du temps estimé entre 2 défaillances d’un système.

2.MTTR (Mean Time to Resolution) : mesure du temps estimé pour restaurer la fonctionnalité.

La formule de calcul de disponibilité est : Disponibilité = MTBF / (MTBF + MTTR)

Internet et la Haute Disponibilité

Dans de plus en plus d’entreprises, Internet ce situe au cœur de l’activité et le besoin de disponibilité est donc constant. En effet, ce média est utilisé tout autant pour communiquer vers l’extérieur que pour supporter de nombreuses applications de l’entreprise (CRM, ERP, etc.) ou encore la téléphonie.

Il convient donc de distinguer le besoin de l’entreprise sur les deux niveaux : services disponibles pour les clients  versus services nécessaires au fonctionnement interne. L’un des exemples le plus parlant est celui des sites web des entreprises, qui sont aujourd’hui au centre de la communication et de la plupart des métiers des entreprises.

La haute disponibilité des sites web est organisée autour de différents axes qui peuvent être primordiaux:

• la redondance des matériels,

• les localisations des matériels,

• l’application des mises de sécurité des applications serveurs,

• la sécurisation du réseau de l’entreprise,

• la disponibilité permanente de solution de sauvegarde/secours/reprise sur incident,

• le dimensionnement en puissance des matériels.

Redondance des matériels

La redondance est le mécanisme qui permet de dupliquer un ou plusieurs composants d’une architecture par un ou plusieurs éléments identiques.

Avoir n serveur(s) sur x site(s) permettra une redondance de l’information, avec un risque de panne divisé par x+n…

Toutefois il faut des systèmes qui permettent de basculer automatiquement d’un site à l’autre. Les systèmes les plus couramment mis en œuvre afin d’assurer cette redondance sont les clusters.

Les clusters peuvent être actif/passif ou actif/actif. Le premier cas représente un groupe de machines de secours sur lequel on basculera l’infrastructure, alors qu’un système actif/actif permettra d’avoir les deux systèmes en fonctionnement en parallèle; dans ce cas,  un seul des deux matériels peut fonctionner en solo.

Maintien des applications et mises à jour des logiciels

Les applications peuvent présenter des bugs, la résolution par les mises à jour permet de corriger ces défauts. Ainsi on peut éviter que des personnes malveillantes explorent une faille qui permettrait l’accès aux informations de l’entreprise. Disposer de service de maintenance s’avère donc important et parfois compte-tenu des compétences techniques nécessaires, il s’avère judicieux d’externaliser les opérations de maintenance.

Reprise sur incident au coeur du dispositif

Il s’agit d’un plan qui permet de reprendre une activité totale ou partielle suite à un sinistre survenu sur le système d’information. Le but de ce plan est de minimiser l’impact du sinistre sur l’activité de l’entreprise.

Les points essentiels dans un plan de reprise sont:

• la sauvegarde des équipements

• la disponibilité de machines de secours

• des solutions de secours, avec mode dégradé (en qualité de service) ex.: un lien de backup avec un débit plus petit

Mise en application : la disponibilité d’internet pour l’entreprise

De plus en plus d’applications demandent une haute disponibilité d’Internet pour fonctionner… Le fonctionnement d’internet (voir article sur le lab CELESTE) mais surtout des connections spécifiques à Internet permettent d’assurer la pleine disponibilité de celui-ci « naturellement ».

Des solutions avancées permettent de limiter fortement le risque de panne ou de dégradation de services :

1. Disposer de plusieurs connections internet passant par des points terrestres différents

2. S’assurer de la disponibilité permanente d’une solution de sauvegarde/secours/reprise sur incident (mode transparent)

3. Opter pour des connexions avec Garantie de Temps de Rétablissement

4. Choisir des connexions avec un débit garanti

Avoir n connections internet

Avoir deux connections internet passant par deux localisations terrestres différentes peut permettre de sécuriser la solution d’accès à Internet. En cas de panne d’une des lignes, le trafic est routé c’est-à-dire redirigé automatiquement sur la seconde. La présence de deux routeurs en mode actif/passif permet de renforcer la redondance du système. Dans ce cas, il est préférable d’opter pour un système automatique de back-up, transparent pour les utilisateurs.

Avoir un plan de secours

En cas de panne du matériel, le matériel peut être redondé dans  l’infrastructure de l’opérateur : le matériel fonctionne alors de manière transparente en cas de panne, et comme précédemment la mise en place de deux routeurs renforce la redondance du système.

Opter pour une Garantie de Temps de Rétablissement

La GTR est la garantie du temps de rétablissement sur une connexion dans le cas d’une interruption de service. Cette GTR doit garantir que l’interruption de service soit la moins pénalisante pour l’entreprise.

Une GTR de 4 heures sur les connexions Internet sera l’option idéale pour les solutions de téléphonie sur IP ou dans le cadre d’un VPN IP d’entreprise , notamment quand il permet l’utilisation d’un ERP/CRM centralisé.

Choisir des connexions avec un débit garanti

Même si le service Internet n’est pas totalement interrompu, il peut être très fortement altéré. Dans ce cas, il faut s’assurer auprès de son fournisseur de service d’avoir un débit garanti. Cela est d’autant plus important dans le cas de téléphonie sur IP. En effet, une altération de la qualité du lien aura comme conséquence directe une baisse de la qualité de la communication téléphonique.

Pour tous les liens, SDSL, fibre optique mais aussi  ADSL, pour disposer d’un débit garanti, on configure un canal prioritaire afin de s’assurer d’avoir un minimum de bande passante pour chaque application ou usage spécifique de l’entreprise (téléphonie, internet…).

Afin de fournir un service hautement disponible, il faut s’assurer que l’infrastructure permettant la fourniture de ce service soit fonctionnelle 100% du temps. Dans cet article nous nous sommes essentiellement concentré sur les liens internet, mais il ne faut pas oublier l’énergie, la climatisation, les serveurs, etc.

La criticité ou le taux de disponibilité nécessaire d’une application ou d’un service guide  donc le choix des connexions Internet à mettre en œuvre pour une solution haute disponibilité. Et toutes les connexions se ne valent pas !

Service R&D