Cloud and Ecology, what progress?

Internet is often seen as virtual. But the Internet is primarily the linking of computers or servers and computing resources via routes called networks. If digital uses to revolutionize the use of transport are still marginalized, the Cloud trends allow for their presage a new dynamic to the Green Internet.

Decentralization announced by the new digital usages has not up to expectations. Remote work and videoconferencing still remain culturally misunderstood tools; business travel have certainly dropped a little but more due to the reduction in corporate budgets … Moreover, a closer look will show the proliferation of online orders do not favor this as reducing freight transport or packaging waste.
If customs do not allow the Green Revolution, one can observe that the digital industry is striving for its part to meet this challenge, not least for matters of cost cutting. Let the components of the digital industry one by one :

Networking : the smart grid is likely to remain marginal in France and in developed countries, although intellectually multi-purpose network merger is very interesting; the real revolution is the passage of the copper (more expensive) to the optical fiber. Whatever the current debate on rapid deployments, fiber optics is gaining ground and that’s good because it provides real environmental benefits: lightweight, recycling, pose …

Servers : Three components are taken into account: power, power consumption and materials. For the latter, the commonly used steel poses no major problem in terms of production or recycling. Rather it is the heart of the server that remains interesting to study. Work on power and heat emission, particularly with the project Moon Shot of HP, are extremely promising. Indeed, with a source reduction of electricity consumption as for use for cooling, the keys of green IT are emerging.

In addition, server virtualization also constitutes a great advance. Taking into account storage needs, data backup corporate and high availability (mirror server), growth is exponential needs.
Virtualization allows to multiply the power of a server by sharing more easily shared servers or multiplying the uses dedicated servers.
Taking into account the cost of existing virtualization solutions, we can imagine that new sources of innovation are still digging and offers open-source clusters will emerge quickly.

Computer data centers : data centers consume as small towns! As for hosted servers for their inner workings. Reuse of the heat is advantageous but not sufficient. The reflection should cover the overall energy efficiency, with specific measures – which the measure of consumption – and evaluation of collateral damage (projects on groundwater or ice floes). Cooling by ambient air or free cooling is very interesting in this regard; Yet it must be coupled with a requirement of high availability and high density without which these data centers will not meet the requirements of new generations of servers. Then remains the issue of building materials and the source of energy … more complex matters.

Applications : the calculation of the energy consumption of an application is very trendy and the recommendations are multiplying: no flash, choice of CSS … It is likely that these standards gradually incorporate the specifications for developers and system integrators … in a few years …

Workstations : the dream is an office without a computer, cables and other devices. And this is happening! Virtualization and cloud provide access to all IT resources through computer networks. We could have simplified communication tool accessing all data, applications … and in some ways we are already living this reality. Then remains the security requirements, confidentiality and access control.

Thus, will the green revolution be the fruit of cloud computing? This poetic vision leaves presage. Just as one can hope that the digital revolution businesses become a pillar of innovation and growth.

More on the Free Cooling by MARILYN

Cloud et Ecologie, quelles avancées ?

Les usages numériques ne lancent pas la green it-tude pourquoi pas leurs infrastructures ?

 

Internet est souvent perçu comme virtuel. Or Internet, c’est avant tout la mise en relation de serveurs et d’ordinateurs ou de ressources informatiques via des routes appelées réseaux. Si les usages numériques devant révolutionner l’utilisation des transports restent encore marginaux, les tendances du Cloud laissent quant à eux présager une nouvelle dynamique vers l’Internet Vert.

La décentralisation annoncée par les nouveaux usages numériques n’est pas encore au rendez-vous. Le télétravail et la visio-conférence restent encore des outils culturellement mal perçus ; les déplacements professionnels ont certes un peu baissé mais plus du fait de la réduction des budgets des entreprises… De plus, en y regardant de plus près la multiplication des commandes en ligne ne favorisent pas tant que cela la réduction des transports de marchandise ou des déchets d’emballage.

Si les usages ne permettent pas encore la révolution verte, on peut observer que l’industrie numérique s’efforce quant à elle de relever ce défi, ne serait-ce que pour des questions d’économie. Prenons les composants de l’industrie numérique un à un

–  Réseaux :
le smart grid restera probablement marginal en France et dans les pays développés, même si intellectuellement la fusion multi-usages des réseaux est très intéressante ; la vraie révolution c’est le passage du cuivre (de plus en plus onéreux) vers la fibre optique. Quelques soient les débats actuels sur la rapidité des déploiements, la fibre optique gagne du terrain et c’est tant mieux car elle offre de vrais atouts écologiques : légèreté, recyclage, pose…

– Serveurs : trois composants sont à prendre en compte : puissance, consommation électrique et matériaux. Pour ces derniers, l’acier souvent utilisé ne pose pas de problème majeur en termes de production ou de recyclage. C’est plutôt le cœur du serveur qui reste intéressant à étudier. Les travaux sur la puissance et l’émission de chaleur, notamment avec le projet Moon Shot d’HP, sont extrêmement prometteurs. En effet, avec une réduction à la source de la consommation électrique tant pour l’usage que pour le refroidissement, les clés du green IT sont en train d’émerger.

En complément, la virtualisation des serveurs constitue elle aussi une grande avancée. Compte-tenu des besoins de stockage, de sauvegarde de données des entreprises et de haute disponibilité (serveur miroirs), la croissance des besoins est exponentielle.
La virtualisation permet de multiplier la puissance d’un serveur en partageant plus facilement des serveurs mutualisés ou en multipliant les usages des serveurs dédiés.

Compte-tenu du coût des solutions actuelles de virtualisation, on peut imaginer que de nouvelles sources d’innovation restent à creuser et que des offres de clusters open-source vont émerger rapidement.
–  Centres informatiques de données : les datacenters consomment comme de petites villes ! tant pour les serveurs hébergés que pour leur fonctionnement intrinsèque. La réutilisation de la chaleur est intéressante mais insuffisante. La réflexion doit porter sur le rendement énergétique global, avec des mesures précises – dont la mesure de la consommation – et évaluation des dommages collatéraux (projets sur les nappes phréatiques ou banquises). Le refroidissement par l’air ambiant ou free-cooling est vraiment très intéressant à cet égard ; il doit pourtant être couplé avec une exigence de haute disponibilité et haute densité sans quoi ces datacenters ne répondront pas aux exigences de nouvelles générations de serveurs. Reste ensuite à creuser la question des matériaux de construction et la source de l’énergie… sujet de réflexion plus complexe.
– Applications : le calcul de la consommation énergétique d’une application est très tendance et les préconisations se multiplient : pas de flash, choix des CSS… Il est probable que ces normes intégreront peu à peu les cahiers des charges des développeurs et des SSII… dans quelques années…
 
– Postes de travail : le rêve serait un bureau sans ordinateur, câbles et autre périphérique. Et cela est en train d’arriver ! La virtualisation et le cloud permettent d’accéder à toutes les ressources informatiques grâce aux réseaux informatiques. On pourrait disposer d’outil de communication simplifié accédant à toutes les données, applications… et d’une certaine façon nous vivons déjà cette réalité. Restent ensuite les exigences de sécurité, confidentialité et contrôle.
Ainsi, la révolution verte sera-t-elle le fruit de l’informatique dans les nuages ? Cette vision poétique le laisse le présager. Tout comme on peut espérer que la révolution numérique des entreprises devienne un des piliers de l’innovation et de croissance.

CELESTE offre 1 Tera de stockage à tous ses clients

A l’heure des débats sur la conservation des données en France, CELESTE lance une offre de stockage cloud illimitée dans son datacenter écologique Marilyn.

Cette solution permet un stockage de données privé et sans limite, d’autant que les clients peuvent utiliser leur fibre 1Gb/s pour déposer et récupérer leurs données.
Une offre unique sur le marché pour répondre aux besoins croissants des entreprises.
La croissance forte des besoins de stockage de données des entreprises se trouvent actuellement limitée par les solutions techniques proposées. Solutions sur bande, NAS ou SAN ne suffisent plus aux équipes informatiques. Fort de ce constat, l’équipe de Recherche et de Développement de CELESTE s’est lancé pour défi de proposer une offre innovante et inexistante sur le marché : le stockage élastique.
Tout naturellement, CELESTE propose à ses clients d’utiliser leur fibre optique pour déposer leurs données dans son datacenter.Le choix technique de l’équipe s’est orienté vers une solution de stockage cloud à copies multiples. Grâce à cette approche, en cas de besoin de stockage supplémentaire, l’ajout de machines renforce simplement les capacités de stockage, sans qu’on soit limité comme pour les solutions NAS ou SAN existantes. Ainsi le stockage n’est plus limité par les serveurs. De plus, les capacités de la solution peuvent être augmentées à chaud sans interruption de service ni perte de données.
Destinée aux entreprises, la solution de Stockage Cloud de CELESTE est facturée au To. Les données sont répliquées en temps réel dans le datacenter Marilyn de CELESTE. Marilyn est un datacenter de conception TIER IV, 100% disponible. Quant au dépôt des données, il est possible en FTP, SFTP ou encore RSYNC via des connexions haut débit. Le suivi de la consommation est visible en temps réel sur l’espace client.
« Le stockage de données consomme de l’énergie, car les disques durs fonctionnent en permanence. Grâce à la conception écologique de notre datacenter Marilyn, nous consommons 35% d’énergie en moins. Nous proposons donc une offre Made in France et moins chère que nos concurrents américains. Cette offre révolutionne le marché du stockage par sa simplicité et son efficacité » précise Nicolas Aubé, président de CELESTE,

La qualité d’un datacenter est liée à l’optimisation de sa consommation électrique

Même si les exploitants s’en défendent, l’augmentation des tarifs de l’énergie électrique a remis «à plat» le mode de fonctionnement traditionnel  des datacenters.

Initialement pour des raisons de délais de mise sur le marché et d’économie d’investissement, le concept du datacenter restait calqué sur celui des  salles informatiques. Les investissements étaient focalisés sur les équipements  techniques : climatiseurs, transformateurs électriques, onduleurs…et leurs back-ups. Pour les bâtiments, le modèle était  la réfection d’espace «bureaux ».

Cette approche a depuis quelques années dépassé ses limites, et ce pour plusieurs raisons :

Le trop faible rendement électrique de ces installations

Rappelons ici les exigences d’un datacenter en d’énergie électrique. Pour délivrer une alimentation de 1kVA aux serveurs hébergés, il fallait compter 1kVA supplémentaire pour la climatisation et le double pour chacun de leur système de sécurisation. Donc une baie de 10 kVA impliquait une disponibilité de 40 kVA.

Le coût de cette énergie électrique

Initialement ce coût était insignifiant, mais depuis maintenant quelques années nous assistons à une augmentation annuelle et continuelle entre 5 et 7 % de cette énergie dans le monde : c’est-à-dire qu’en 4 ans le prix  du Kilowatt « a pris » plus de 25 % d’augmentation, et tout laisse à penser que cette escalade va continuer (Source Reuters).

Qualité de service garantie dans le temps

Par définition, l’hébergement de serveurs est une démarche qui s’inscrit dans la durée. Pour un opérateur de Datacenter cela signifie qu’il doit calculer son budget de fonctionnement  pour plusieurs années, alors que plus grand montant échappe entièrement à son contrôle : le coût de Kilowatt.
Dans ce contexte,  pour maintenir en condition opérationnelle leurs offres,  les opérateurs de datacenter n’ont que deux solutions: soit ils augmentent régulièrement leurs tarifs pour absorber cette inflation, soit ils «rognent» sur d’autres dépenses  en  acceptant de dégrader la qualité de leurs services d’hébergement. La première approche étant généralement contractuellement impossible, il ne reste que la seconde. Il est paradoxal de constater que c’était justement pour éviter cette dégradation de la qualité de l’environnement de ses serveurs que le client  avait choisi d’externaliser ses serveurs dans un centre informatique professionnel.
Ne soyons pas défaitistes, car non seulement des solutions existent et elles sont même déjà commercialisées. Leurs implémentations ont permis de générer des économies d’énergie conséquentes pour une même capacité d’hébergement grâce à :

  1. La refonte des procédés de refroidissement des datacenters avec l’utilisation de ressources moins onéreuses, les ressources naturelles comme l’air ambiant avec le free-cooling
  2. L’utilisation d’onduleurs à inertie à la place de batteries (moins consommateur d’énergie électrique pour leur maintien en condition opérationnelle)
  3. Une optimisation de l’utilisation de certains équipements par la mutualisation de leur fonction pour tout le Datacenter

En résumé, nous pouvons considérer que pour un client le gage de la qualité d’un datacenter est sa capacité à optimiser l’utilisation de l’énergie électrique pour l’hébergement de serveurs informatiques.

François Barre
Ingénieur Commercial Datacenter CELESTE