Cloud et Ecologie, quelles avancées ?

Les usages numériques ne lancent pas la green it-tude pourquoi pas leurs infrastructures ?

 

Internet est souvent perçu comme virtuel. Or Internet, c’est avant tout la mise en relation de serveurs et d’ordinateurs ou de ressources informatiques via des routes appelées réseaux. Si les usages numériques devant révolutionner l’utilisation des transports restent encore marginaux, les tendances du Cloud laissent quant à eux présager une nouvelle dynamique vers l’Internet Vert.

La décentralisation annoncée par les nouveaux usages numériques n’est pas encore au rendez-vous. Le télétravail et la visio-conférence restent encore des outils culturellement mal perçus ; les déplacements professionnels ont certes un peu baissé mais plus du fait de la réduction des budgets des entreprises… De plus, en y regardant de plus près la multiplication des commandes en ligne ne favorisent pas tant que cela la réduction des transports de marchandise ou des déchets d’emballage.

Si les usages ne permettent pas encore la révolution verte, on peut observer que l’industrie numérique s’efforce quant à elle de relever ce défi, ne serait-ce que pour des questions d’économie. Prenons les composants de l’industrie numérique un à un

–  Réseaux :
le smart grid restera probablement marginal en France et dans les pays développés, même si intellectuellement la fusion multi-usages des réseaux est très intéressante ; la vraie révolution c’est le passage du cuivre (de plus en plus onéreux) vers la fibre optique. Quelques soient les débats actuels sur la rapidité des déploiements, la fibre optique gagne du terrain et c’est tant mieux car elle offre de vrais atouts écologiques : légèreté, recyclage, pose…

– Serveurs : trois composants sont à prendre en compte : puissance, consommation électrique et matériaux. Pour ces derniers, l’acier souvent utilisé ne pose pas de problème majeur en termes de production ou de recyclage. C’est plutôt le cœur du serveur qui reste intéressant à étudier. Les travaux sur la puissance et l’émission de chaleur, notamment avec le projet Moon Shot d’HP, sont extrêmement prometteurs. En effet, avec une réduction à la source de la consommation électrique tant pour l’usage que pour le refroidissement, les clés du green IT sont en train d’émerger.

En complément, la virtualisation des serveurs constitue elle aussi une grande avancée. Compte-tenu des besoins de stockage, de sauvegarde de données des entreprises et de haute disponibilité (serveur miroirs), la croissance des besoins est exponentielle.
La virtualisation permet de multiplier la puissance d’un serveur en partageant plus facilement des serveurs mutualisés ou en multipliant les usages des serveurs dédiés.

Compte-tenu du coût des solutions actuelles de virtualisation, on peut imaginer que de nouvelles sources d’innovation restent à creuser et que des offres de clusters open-source vont émerger rapidement.
–  Centres informatiques de données : les datacenters consomment comme de petites villes ! tant pour les serveurs hébergés que pour leur fonctionnement intrinsèque. La réutilisation de la chaleur est intéressante mais insuffisante. La réflexion doit porter sur le rendement énergétique global, avec des mesures précises – dont la mesure de la consommation – et évaluation des dommages collatéraux (projets sur les nappes phréatiques ou banquises). Le refroidissement par l’air ambiant ou free-cooling est vraiment très intéressant à cet égard ; il doit pourtant être couplé avec une exigence de haute disponibilité et haute densité sans quoi ces datacenters ne répondront pas aux exigences de nouvelles générations de serveurs. Reste ensuite à creuser la question des matériaux de construction et la source de l’énergie… sujet de réflexion plus complexe.
– Applications : le calcul de la consommation énergétique d’une application est très tendance et les préconisations se multiplient : pas de flash, choix des CSS… Il est probable que ces normes intégreront peu à peu les cahiers des charges des développeurs et des SSII… dans quelques années…
 
– Postes de travail : le rêve serait un bureau sans ordinateur, câbles et autre périphérique. Et cela est en train d’arriver ! La virtualisation et le cloud permettent d’accéder à toutes les ressources informatiques grâce aux réseaux informatiques. On pourrait disposer d’outil de communication simplifié accédant à toutes les données, applications… et d’une certaine façon nous vivons déjà cette réalité. Restent ensuite les exigences de sécurité, confidentialité et contrôle.
Ainsi, la révolution verte sera-t-elle le fruit de l’informatique dans les nuages ? Cette vision poétique le laisse le présager. Tout comme on peut espérer que la révolution numérique des entreprises devienne un des piliers de l’innovation et de croissance.

CELESTE offre 1 Tera de stockage à tous ses clients

A l’heure des débats sur la conservation des données en France, CELESTE lance une offre de stockage cloud illimitée dans son datacenter écologique Marilyn.

Cette solution permet un stockage de données privé et sans limite, d’autant que les clients peuvent utiliser leur fibre 1Gb/s pour déposer et récupérer leurs données.
Une offre unique sur le marché pour répondre aux besoins croissants des entreprises.
La croissance forte des besoins de stockage de données des entreprises se trouvent actuellement limitée par les solutions techniques proposées. Solutions sur bande, NAS ou SAN ne suffisent plus aux équipes informatiques. Fort de ce constat, l’équipe de Recherche et de Développement de CELESTE s’est lancé pour défi de proposer une offre innovante et inexistante sur le marché : le stockage élastique.
Tout naturellement, CELESTE propose à ses clients d’utiliser leur fibre optique pour déposer leurs données dans son datacenter.Le choix technique de l’équipe s’est orienté vers une solution de stockage cloud à copies multiples. Grâce à cette approche, en cas de besoin de stockage supplémentaire, l’ajout de machines renforce simplement les capacités de stockage, sans qu’on soit limité comme pour les solutions NAS ou SAN existantes. Ainsi le stockage n’est plus limité par les serveurs. De plus, les capacités de la solution peuvent être augmentées à chaud sans interruption de service ni perte de données.
Destinée aux entreprises, la solution de Stockage Cloud de CELESTE est facturée au To. Les données sont répliquées en temps réel dans le datacenter Marilyn de CELESTE. Marilyn est un datacenter de conception TIER IV, 100% disponible. Quant au dépôt des données, il est possible en FTP, SFTP ou encore RSYNC via des connexions haut débit. Le suivi de la consommation est visible en temps réel sur l’espace client.
« Le stockage de données consomme de l’énergie, car les disques durs fonctionnent en permanence. Grâce à la conception écologique de notre datacenter Marilyn, nous consommons 35% d’énergie en moins. Nous proposons donc une offre Made in France et moins chère que nos concurrents américains. Cette offre révolutionne le marché du stockage par sa simplicité et son efficacité » précise Nicolas Aubé, président de CELESTE,

La qualité d’un datacenter est liée à l’optimisation de sa consommation électrique

Même si les exploitants s’en défendent, l’augmentation des tarifs de l’énergie électrique a remis «à plat» le mode de fonctionnement traditionnel  des datacenters.

Initialement pour des raisons de délais de mise sur le marché et d’économie d’investissement, le concept du datacenter restait calqué sur celui des  salles informatiques. Les investissements étaient focalisés sur les équipements  techniques : climatiseurs, transformateurs électriques, onduleurs…et leurs back-ups. Pour les bâtiments, le modèle était  la réfection d’espace «bureaux ».

Cette approche a depuis quelques années dépassé ses limites, et ce pour plusieurs raisons :

Le trop faible rendement électrique de ces installations

Rappelons ici les exigences d’un datacenter en d’énergie électrique. Pour délivrer une alimentation de 1kVA aux serveurs hébergés, il fallait compter 1kVA supplémentaire pour la climatisation et le double pour chacun de leur système de sécurisation. Donc une baie de 10 kVA impliquait une disponibilité de 40 kVA.

Le coût de cette énergie électrique

Initialement ce coût était insignifiant, mais depuis maintenant quelques années nous assistons à une augmentation annuelle et continuelle entre 5 et 7 % de cette énergie dans le monde : c’est-à-dire qu’en 4 ans le prix  du Kilowatt « a pris » plus de 25 % d’augmentation, et tout laisse à penser que cette escalade va continuer (Source Reuters).

Qualité de service garantie dans le temps

Par définition, l’hébergement de serveurs est une démarche qui s’inscrit dans la durée. Pour un opérateur de Datacenter cela signifie qu’il doit calculer son budget de fonctionnement  pour plusieurs années, alors que plus grand montant échappe entièrement à son contrôle : le coût de Kilowatt.
Dans ce contexte,  pour maintenir en condition opérationnelle leurs offres,  les opérateurs de datacenter n’ont que deux solutions: soit ils augmentent régulièrement leurs tarifs pour absorber cette inflation, soit ils «rognent» sur d’autres dépenses  en  acceptant de dégrader la qualité de leurs services d’hébergement. La première approche étant généralement contractuellement impossible, il ne reste que la seconde. Il est paradoxal de constater que c’était justement pour éviter cette dégradation de la qualité de l’environnement de ses serveurs que le client  avait choisi d’externaliser ses serveurs dans un centre informatique professionnel.
Ne soyons pas défaitistes, car non seulement des solutions existent et elles sont même déjà commercialisées. Leurs implémentations ont permis de générer des économies d’énergie conséquentes pour une même capacité d’hébergement grâce à :

  1. La refonte des procédés de refroidissement des datacenters avec l’utilisation de ressources moins onéreuses, les ressources naturelles comme l’air ambiant avec le free-cooling
  2. L’utilisation d’onduleurs à inertie à la place de batteries (moins consommateur d’énergie électrique pour leur maintien en condition opérationnelle)
  3. Une optimisation de l’utilisation de certains équipements par la mutualisation de leur fonction pour tout le Datacenter

En résumé, nous pouvons considérer que pour un client le gage de la qualité d’un datacenter est sa capacité à optimiser l’utilisation de l’énergie électrique pour l’hébergement de serveurs informatiques.

François Barre
Ingénieur Commercial Datacenter CELESTE

Pour évaluer la sécurité d’un datacenter

La sécurité d’un datacenter, c’est la sécurité de vos données ou de celles vos clients. Ne vous laissez pas abuser par des prétextes sécuritaires, souvent marketing d’ailleurs, pour éviter les questions sur les conditions réelles d’exploitation et de maintenance des sites de votre hébergeur.

Les centres de données sont les usines des temps modernes. Ils hébergent Internet : les sites web, les emails, les données et les photos des particuliers ; mais également les données des entreprises. A l’heure de la centralisation de l’informatique et du cloud computing, ils deviennent la clé de voûte de l’économie numérique. Une panne d’un datacenter, et des milliers de personnes peuvent être privées de réseau, de téléphone, d’emails ou de données.

 

Pour autant, on ne connaît pas bien leur sécurité. Souvent sous prétexte de confidentialité, certains exploitants de datacenters communiquent peu d’information sur leur architecture thermique, électrique, et sur les pannes rencontrées. Cette communication est plutôt faite par les utilisateurs qui ont à souffrir d’une interruption de service. Il n’existe pas de norme définissant la sécurité d’un datacenter.

 

Des critères basés sur l’architecture des datacenters permettent à un organisme privé, l’Uptime institute, de classifier les datacenters. Ils sont catégorisés de « Tier I » à « Tier IV ». Toutefois, ces catégories sont souvent utilisés à tort et sans contrôle par les concepteurs de datacenters. De surcroît, elles ne tiennent pas compte des nouvelles configurations des datacenters et des processus d’exploitation.

Afin de connaître la sécurisation de son datacenter, voici quelques questions de base qu’il nous paraît utile de poser à son hébergeur :

La sécurité thermique est souvent l’élément le plus négligé, et il est à l’origine de nombreuses pannes. Pour un datacenter de 1 MW de puissance informatique, si le système de refroidissement ne fonctionne plus, c’est 1 MW de chaleur qui s’accumule et fait monter la salle en température. Comment sont refroidies les machines ? Est-ce par un système de circulation d’eau glacée dans un faux-plancher ? Est-ce de l’eau glacée directement dans les machines ? Est-ce de l’air recyclé et climatisé ? Du refroidissement par l’air ambiant ? Quelles sont les plages de température extérieure pour lesquelles le système est conçu ? Que se passe-t-il en cas de fuite d’eau si l’eau est utilisée ?

Il est nécessaire de contrôler la tolérance aux pannes de ce système de refroidissement. Le réseau est-il doublé ? Les unités de production de froid sont-elles redondées ?

– La sécurité électrique doit être examinée depuis la haute tension jusqu’aux serveurs informatiques. De combien de sources électriques haute-tension votre datacenter dispose-t-il ? les câbles haute-tension sont-ils doublés, sur deux parcours différents ? Un risque d’incendie existe sur les transformateurs haute-tension : sont-ils protégés contre l’incendie ? Sont-ils doublés ? De nombreux datacenters n’ont qu’un seul tableau général basse tension : est-ce le cas du vôtre ? Les salles informatiques sont-elles protégées des micro-coupures électrique ; c’est-à-dire est-ce que les onduleurs sont utilisées en permanence ? Quelles sont les procédures de maintenance et d’entretien des systèmes de stockage d’énergie, comme par exemple les batteries ? Comment les groupes électrogènes sont-ils dimensionnés ? Peuvent-ils secourir tout le datacenter ou uniquement la puissance de l’informatique ? Quelle est la réserve de carburant disponible ?

Au niveau des baies électriques, combien de sources électriques sont distribuées ? S’agit-il de phases différentes de la même voie, ce qui ne représente pas une sécurisation ; ou bien de voies produites par des onduleurs distincts ? Les serveurs informatiques sont-ils branchés sur deux sources distinctes ?

– Les réseaux de fibre optique des datacenters doivent également être sécurisés. Combien d’adductions en fibre optiques sont présents ? Les chemins de fibre optique sont-ils disjoints de bout en bout : dans la rue et dans le bâtiment ? des points de présence opérateur jusqu’au baies des clients ?

 

D’autres éléments de sécurité peuvent être examinés : contrôle d’accès, vidéosurveillance, détection d’incendie, extinction automatique d’incendie. Un élément capital est aussi la présence de personnel sur le site : agents de sécurité, mais aussi personnel de maintenance, soudeurs de fibre optique, techniciens réseaux et systèmes. Les procédures de mise en production, maintenance, SAV, astreinte doivent être clairement définies et appliquées. Pour avoir des indications sur la qualité de l’exploitation, une visite est utile : le site doit être propre et des cartons vides ne doivent pas se trouver dans les salles. Les portes d’accès aux salles et aux baies doivent être fermées, le câblage bien ordonné et étiqueté. Les salles, baies et locaux techniques doivent être clairement repérés.

 

On ne peut jamais être certain qu’un incident ne se produira pas dans un datacenter. Cependant il est tout à fait indispensable d’être très exigeant vis-à-vis de son hébergeur en termes de sécurité, disponibilité et conditions d’exploitation. La sécurité ne consiste pas à se murer dans des sous-terrains et prétexter le secret professionnel. La sécurité c’est avant tout une question de moyens et de processus mais aussi d’information claire et transparente vis-à-vis de ses clients