Serveurs et vétusté des datacenters, une question de disponibilité

L’intérêt d’une entreprise de  placer ses serveurs informatiques dans des  datacenters  repose d’abord sur des raisons  économiques : suppression  des coûts  des  climatiseurs, des onduleurs, de la sécurité d’accès, de l’entretien de la salle etc…. Cependant il s’avère nécessaire de rester très vigilant sur le niveau de qualité du prestataire à qui elle confie ses serveurs. Est-il utile de rappeler que pour la plupart des entreprises le « blocage » de son système d’information signifie un arrêt complet de son activité ?
Une étude récente a montré que 60% des pannes  des serveurs informatiques sont  dues à  des pannes provenant  de l’environnement dans lequel ils sont installés :
– Coupure du réseau électrique, sans reprise automatique ou suffisante  par les onduleurs,

– Panne des  climatiseurs, transformant  la salle informatique en «sauna»,
– Dépôt de poussière, générant des faux contacts dans les circuits des serveurs

A l’origine beaucoup de datacenter se sont construits à partir de la réfection de bâtiments de bureaux sous prétexte qu’ils possédaient déjà une salle informatique. Cette réhabilitation a  conduit à des installations initialement  saines, mais qui  ont rapidement  atteint  leurs limites de fiabilité au fur et à mesure de leur « remplissage ».
Au-delà d’un taux d’occupation de 70 %, il est courant de voir apparaître des aménagements qui érodent le niveau de fiabilité d’un datacenter, par exemple :
– Création de salles privatives mais avec un seul climatiseur ou sans onduleur de secours faute de place
– Réduction du nombre d’opérations de tests et de maintenance suite à des difficultés d’accès : climatiseurs dans les salles de baies, sur les toits
– Mauvaise répartition des flux d’air de refroidissement  suite à des modifications de l’agencement des salles : suppression ou ajout de cloisons
– Équipement de  nouvelles salles sans dédoublement des compteurs électriques suite  à des problèmes de câblage ou de placeCes modifications disparates ont non seulement entraîné une baisse de la qualité des datacenters, mais ont aussi complexifié  l’exploitation au quotidien : multiplication des interventions,  difficulté d’accès,  absence de solution de substitution lors des interventions. D’ailleurs, il est courant de voir des opérateurs baisser les bras en annonçant la fermeture de leurs vieux datacenters.

Alors que  faut-il faire ? Reprendre ses serveurs. Non pas du tout.  Il faut simplement  garder à l’esprit que l’externalisation de serveurs est un projet qui s’inscrit dans la durée. On ne confie par ses serveurs pour 12 mois. On doit choisir un prestataire capable d’assurer un environnement de fonctionnement uniforme pour les 10 ans à venir quelques soient son taux de remplissage, l’évolution de la technologie des serveurs informatique, ses coûts de fonctionnement… un datacenter du XXI siècle.

Obsolescence of data centers and servers, a matter of availability

The interest of a company to put its servers in data centers based primarily on economic reasons : eliminating the costs of air conditioners, UPS, security access, maintenance of the room etc …. However it is necessary to remain vigilant on the quality level of service to which it entrusts its servers. Is it useful to remember that for most companies the « blocking » of its information system means a complete cessation of its activity ?
A recent study showed that 60% Failures of computer servers are due to failures from the environment wherein they are installed :
– Breaking of the electrical network, automatic or without sufficient recovery by UPS,

– Failure of air conditioners, transforming the computer room in a « sauna »,
– Dust deposition, generating false contacts in the circuits of servers

Originally many datacenter were built from the refurbishment of office buildings under the pretext that they already had a computer room. This leads to a rehabilitation facility originally healthy, but quickly reached their limits of reliability as and when they are « filling ».
Beyond an occupancy rate 70 %, it is common to see appear amenities that erode the reliability of a data center, for example :
– Creation of private rooms but only one air conditioner or without backup UPS lack of space
– Reducing the number of test operations and maintenance due to access difficulties : air conditioners in the rooms berries, rooftop
– Poor distribution of cooling air flow after changes in the arrangement of rooms : deletion or addition of partitions
– New equipment rooms without duplication of electric meters due to wiring problems or siteThese disparate changes have not only led to a decline in the quality of data centers, but also more complex daily operations : multiple interventions, difficulty of access, absence of substitution solution during interventions. Besides, it is common for operators to give up announcing the closure of their old datacenters.So what should be done ? Resume its servers. Not at all. You just keep in mind that outsourcing server is a project that falls within the period. It is entrusted by its servers for 12 month. One should choose a provider capable of providing consistent operating environment for 10 years to come whatever its filling rate, changing technology computer servers, operating costs … a datacenter XXI century.

Le Datacenter Marilyn tient ses promesses

Un an après la mise en service du datacenter « Marilyn » du fournisseur d’accès à Internet CELESTE, c’est l’occasion de revenir sur les premiers résultats de son exploitation. Nous avons interviewé Nicolas Aubé, président de Marilyn

M. Aubé pouvez-vous nous rappeler pourquoi ce datacenter est innovant ?

NA : C’est le premier centre informatique écologique et haute densité. Sa conception verticale permet de réaliser un refroidissement par l’air ambiant quasiment toute l’année. L’air chaud dégagé par les serveurs est utilisé pour chauffer nos bureaux, le surplus est évacué via des volets automatiques en haut des tours.

Pourquoi ce nom de Marilyn ?

NA : Car nous avons pensé à la célèbre actrice dans le film « Sept ans de réflexion » lorsque sa robe s’envole sur une grille d’aération. Dans notre datacenter, l’air passe à travers les étages et peut faire s’envoler les robes !

marilyn-nicolas aub

Votre projet a-t-il suscité de l’intérêt du public ?

NA : Oui, nous en avons été les premiers surpris. Nous avons fait une première session porte-ouvertes qui a connu un tel succès que nous en avons fait … 20 éditions. Nous avons eu de nombreux reportages de presse papier/Internet et de chaînes nationales de télévision. Je crois que la face cachée de l’Internet intéresse le public.

Le fonctionnement est-il optimal toute l’année ?

NA : Depuis la mise en service en octobre 2011, à Marne-la-Vallée, nous avons eu l’occasion de tester des températures extérieures extrêmes entre -15°C en février et 40°C en août. Le taux d’humidité ambiante a varié de 15% à 100%. Nous avons ainsi pu valider l’ensemble des plages de fonctionnement du datacenter.

Quels sont les modes de fonctionnement ?

NA : Le mode froid est lorsque la température extérieure est de moins de 22°C, soit 80% de l’année. Il n’y a pas besoin de climatisation pour refroidir l’air. Nous recyclons l’air chaud refoulé par les ordinateurs et le mélangeons avec de l’air froid, extérieur, afin de souffler un air d’une température comprise entre 17°C et 22°C dans les colonnes froides devant les serveurs. Le mode de refroidissement est tellement efficace que nous avons dû le limiter les premières semaines, avant que les salles se remplissent, car la température avait tendance à être trop basse.
Une très bonne surprise est également le fonctionnement dans les plages entre 20 et 22°C : le refroidissement par l’air ambiant a bien fonctionné même à ces températures assez chaudes : la température dans les salles n’était pas supérieure à la température extérieure, malgré plusieurs centaines de serveurs informatiques en fonctionnement. Et cela sans aucune climatisation. C’est le cœur de notre modèle : nous dépensons uniquement l’énergie pour faire tourner les ordinateurs, pas pour climatiser.Le mode « tiède » est entre 22°C et 32°C. Ici, nous utilisons toujours l’air extérieur, car sa température reste inférieure à celle expulsée par les serveurs. Nous climatisons l’air extérieur afin de le ramener à 22°C, et nous expulsons tout l’air chaud par la toiture. Ce mode reste assez efficace.
Le mode « chaud » se produit au-delà de 32°C. Nous fonctionnons alors en circuit fermé, en climatisant l’air chaud produit par les serveurs, comme un datacenter ordinaire. Dans ce mode, nous ne réalisons pas d’économie, mais il ne représente que 5% de l’année. Nous avons remarqué également qu’il reste intéressant d’ouvrir partiellement les volets au sommet des tours, afin de créer une dépression dans l’allée chaude et un effet de tirage naturel.Quelles sont les contraintes de ce procédé ?

NA : il nécessite une étanchéité parfaite entre l’avant des serveurs (allées froides) et l’arrière (allées chaudes). Pour cela, nous fournissons des caches à nos clients. Nous avons constaté qu’en cas de fuites d’air frais trop importantes, nous devions augmenter la pression dans les allées froides.
Comment vos clients ont-ils accepté ces innovations ?

NA : Nous étions un peu inquiets sur le fait de savoir si nos clients accepteraient ce modèle de salle informatique verticale ; et même si certains n’auraient pas le vertige car on travaille au-dessus de 5 étages grillagés. Or nous sommes heureux de voir que ce n’est pas le cas, les clients ont tout de suite adhéré à notre concept et ces innovations ont été plutôt un moteur commercial qu’un frein.

Pourquoi dites-vous que le datacenter Marilyn est en haute densité ?

NA : Il s’agit de la puissance électrique disponible par baie. De par notre process de refroidissement, nous pouvons fournir des baies en haute densité sans aucune modification à nos équipements. Le datacenter est équipé pour une densité moyenne de 5 kVA par baie, ce qui est nettement supérieur aux autres datacenters que nous connaissons en France. Nous pouvons fournir des baies en standard jusqu’à 10 kVA.

Les clients ont-ils besoin de cette haute densité ?

NA : Cela dépend du type de matériel et d’utilisation. Nous constatons que les clients qui utilisent des serveurs lames, qui font de la virtualisation ou du cloud computing ont besoin de haute densité. Par contre ils ont besoin de moins d’espace. Un de nos clients avait une suite privative de 10 baies avec 20 kVA dans un datacenter en Ile de France. Il a choisi de déménager chez CELESTE en ne prenant que 2 baies à haute densité, avec 20 kVA de puissance. Il a pu ainsi réaliser des économies dans la gestion de ses équipements et dans son budget datacenter.

Comme d’autres datacenters dont un à Courbevoie, avez-vous subi des pannes cette année ?

NA : Non, le datacenter a été disponible à 100% comme nous l’avons garanti à nos clients. En effet, nous disposons de deux chaînes électriques totalement indépendantes, dans des bâtiments distincts, depuis l’arrivée haute tension jusqu’à la distribution dans les baies.

Pouvez-vous indiquer une référence client du datacenter Marilyn ?

NA : Par exemple Econocom, un intégrateur leader en Europe. Ils ont été séduits par nos innovations en termes de réduction des dépenses énergétiques. Ils nous ont fait confiance dès l’ouverture du datacenter.

Quelles modifications avez-vous apportées depuis un an ?

NA : nous avons étendu la gamme commerciale en termes de densité. En effet, nous avons pu répondre à des appels d’offre qui demandaient jusqu’à 15 kVA par baie. Par ailleurs nous avons également mis au catalogue des baies avec 1 kVA pour des besoins en faible consommation. Nous avons lancé des baies « cloud » avec une consommation variable, facturée à l’usage. Cette offre convient parfaitement aux fournisseurs de Cloud computing. Nous avons également exploité les synergies avec notre offre de fibre 1 Giga. Nous proposons une offre couplée avec une baie dans notre datacenter Marilyn et une fibre optique à 1 Giga en VPN Ethernet chez le client.

Concrètement quel bénéfice cette offre apporte-t-il au dirigeant d’une entreprise située à Paris par exemple ?

NA : Il déplace son informatique dans un datacenter écologique. Il a ainsi accès à ses serveurs distants comme s’ils étaient sur son réseau local de Paris. Il gagne des m2 dans ses locaux Parisiens, diminue ses coûts électriques et renforce la sécurité de ses systèmes. S’il fait le choix de Marilyn comme site de back-up il dispose d’une infrastructure haute disponibilité et redondée.

Quels sont vos projets pour le futur ?

NA : En 2013, nous avons prévu d’équiper la deuxième tour du datacenter Marilyn. Par ailleurs, CELESTE est membre de nuage, le projet de recherche collaboratif sur le cloud computing écologique qui est soutenu par l’Etat. A ce titre, nous travaillons à un modèle de datacenters en réseau, dédiés pour le cloud. Nous avons également été approchés par des investisseurs ou des industriels qui souhaitent réutiliser notre brevet « Marilyn » en France ou à l’étranger. Nous avons conçu un contrat de licence à cet effet.

Dans quels pays le datacenter Marilyn pourrait-il être répliqué ?

NA : dans de nombreux pays ; si le climat n’est pas trop chaud et sec. Partout en Europe, sauf au sud ; dans le Nord, le centre ou l’Est des USA, au Brésil, en Asie du sud-Est, au Japon, en Australie du sud.
Nicolas Aubé, merci

The Marilyn Datacenter keeps its promises

One year after the commissioning of the datacenter ‘Marilyn’ of the ISP to Internet CELESTE, It is an opportunity to revisit the first results of its operations. We interviewed Nicolas Aubé, President of Marilyn

M. Aubé, can you remind us why this datacenter is innovative ?

NA : This is the first ecological computer center and high density. Its vertical design allows a cooling by ambient air almost year-round. The hot air generated by the server is used for heating our offices, the surplus is discharged via automatic shutters at the top of the towers.

Why this name of Marilyn ?

NA : Because we thought the famous actress in the movie ‘Seven year itch’ when her dress flew on an air grille. In our datacenter, the air passes through the floors and can soar dresses !

marilyn-nicolas aub

Your project aroused the interest of the public ?

NA : Yes, We were the first surprised. We did a first session open door which has been so successful that we have fact… 20 editions. We have had many reports of press paper/Internet and national television channels. I believe that the hidden face of the Internet interested public.

Is the operation optimal year-round ?

NA : Since commissioning in October 2011, in marne-la – Vallée, We had the opportunity to test extreme outdoor temperatures between-15 ° C in February and 40 ° C in August. Ambient humidity ranged from 15% to 100%. We were able to validate all of the beaches of functioning of the datacenter.

What are the modes of operation ?

NA : Cold mode is when the temperature is less than 22 ° C, either 80% of the year. There not need air conditioning to cool the air. We recycle hot air discharged by computers and mix it with cold air, outside, in order to blow air to a temperature between 17 ° C and 22 ° C in the cold columns before the servers. The cooling mode is so effective that we had to limit it the first weeks, front rooms are filled, because the temperature tended to be too low.
A very good surprise is also functioning in the ranges between 20 -22 ° C : cooling by ambient worked well even in these relatively warm temperatures : the temperature in the rooms was not higher than the outdoor temperature, Despite hundreds of computer servers in operation. And this without any air conditioning. This is the heart of our model : We only spend the energy to turn computers, not for air conditioning.«Warm» mode is between 22 ° C and 32 ° c.. Here, We always use the outside air, because its temperature remains lower than expelled by servers. We climatisons the outside air to bring it back to 22 ° C, and we repel any warm air by the roof. This mode remains effective enough.
The ‘hot’ mode occurs above 32 ° c.. We then operate closed circuit, cooling the hot air produced by the servers, as a regular data center. In this mode, We don’t realize economy, but it represents only 5% of the year. We have noticed also that it remains interesting to partially open the flaps at the top of the towers, to create a depression in the hot aisle and a natural drawing effect.

What are the constraints of the process ?

NA : It requires a tight seal between the front of the servers (cold aisles) and the rear (hot aisles). For this, We provide our clients with caches. We found that in the case of too much fresh air leaks, We increase the pressure in the cold aisles.

How have your customers they accepted these innovations ?

NA : We were a little worried on knowing if our customers accept this model of vertical computer room ; and even if some would not have Vertigo because it works above 5 floor gratings. However we are pleased to see that this is not the case, customers immediately joined our concept and these innovations have been rather a commercial engine as a brake.

Why do you say that the Marilyn datacenter is in high density ?

NA : It’s available for Bay power. Through our process of cooling, We provide berries in high density without any modification at our facilities. The datacenter is equipped with a medium density 5 kVA per Bay, What is significantly higher than the other datacenters we know in France. We provide standard arrays up to 10 kVA.

Customers need this high density ?

NA : It depends on the type of equipment and use. We find that customers who use servers blades, making virtualization or cloud computing need high-density. However they need less space. One of our customers had a suite of suite 10 berries with 20 kVA in a datacenter in island of France. He chose to move in CELESTE taking that 2 high density arrays, with 20 power kVA. He was able to achieve savings in the management of its facilities and its data center budget.

As with other data centers including one in Courbevoie, have you suffered outages this year ?

NA : Non, the datacenter has been available to 100% as we guaranteed it to our customers. Indeed, We have two completely independent electric strings, in separate buildings, Since the high voltage to the distribution in the bays.

Can you tell a client reference of the Marilyn datacenter ?

NA : For example Econocom, a leading European integrator. They have been seduced by our innovations in terms of reduction in energy expenditure. They have trusted us since the opening of the datacenter.

Have what changes you made since a year ?

NA : We have extended the commercial range in terms of density. Indeed, We were able to respond to calls for tender seeking up to 15 kVA per Bay. In addition we also put in the catalogue of the berries with 1 kVA for low consumption requirements. We launched berries « cloud » with variable consumption, charged to the use. This offer is ideal for Cloud computing providers. We have also exploited the synergies with our range of fiber 1 Giga. We propose an offer coupled with a Bay in our datacenter Marilyn and a fiber optic to 1 Giga Ethernet VPN client.

Concretely what benefit this offer brings to the Manager of an undertaking located in Paris for example ?

NA : He moves his computer in a green datacenter. It has access to its remote servers as if they were on its local network of Paris. He won the m2’s Parisian premises, decreases its electrical costs and enhances the security of its systems. If it is the choice of Marilyn as a back-up site it has a high availability and redundant infrastructure.

What are your plans for the future ?

NA : En 2013, We planned to equip the second tower of the Marilyn datacenter. Furthermore, CELESTE is a member of cloud, the collaborative research project on cloud computing, which is supported by the State ecological. In this respect, We are working on a model of data centers network, dedicated for the cloud. We have also been approached by investors or manufacturers who wish to reuse our patent ‘Marilyn’ in France or abroad. We have designed a license therefor agreement.

In which countries the datacenter Marilyn could be replicated ?

NA : in many countries ; If the climate is not too hot and dry. Everywhere in Europe, except South ; in the North, the centre or East of the USA, in the Brazil, in Southeast Asia, at the Japan, in South Australia.
Nicholas Aubé, Thank you