Français

Vers le cloud privé pour plus de sécurité

Externaliser ses données et donc son patrimoine reste une décision difficile pour la plupart des chefs d’entreprises. Techniquement et juridiquement de nombreuses questions sont encore complexes et les réponses floues. Cependant une réflexion sur le volet infrastructure des offres de Cloud permet d’avancer vers des solutions plus rassurantes pour les entreprises.

Les entreprises qui ont l’intention d’optimiser leurs ressources informatiques sont réticentes à franchir le pas de l’externalisation de leur infrastructure technique et leur SI. Les questions soulevées relèvent de la sécurité à différents niveaux : garantie d’accès et de sécurité à leurs données, localisation physique des serveurs par exemple. De nombreux analystes table sur la solution du Cloud Privé.

Mais qu’est-ce que le cloud privé ? La définition communément admise est le fait de dédier une infrastructure pour un client. Les entreprises bénéficiant d’un cloud privé auraient ainsi accès à une infrastructure permettant la création et la destruction de machines virtuelles et de ressources de stockage.

Ces offres de cloud privé répondent bien à la demande de traçabilité, car c’est l’entreprise elle-même qui créé ses machines virtuelles, dans un datacenter bien identifié. Elles peuvent également répondre à la problématique de sécurité, sous réserve que les réseaux soient bien segmentés et isolés.

Toutefois, il est intéressant de revenir à la définition du cloud computing : l’accès distant à des ressources informatiques à la demande. Le fait de dédier une infrastructure à une entreprise va quelque peu à l’encontre de ce concept, et n’apporte pas les avantages liés à l’investissement : les coûts des ressources informatiques sont supportées totalement par l’entreprise, quel que soit son utilisation. Concernant la consommation électrique, elle ne pourra être modulée que si le système de cloud privé pemet d’éteindre les serveurs non utilisés. Dans la pratique, peu d’entreprises sont incitées à les éteindre, car les offres actuelles tiennent peu compte de la consommation électrique.

La définition communément admise du cloud privé est une infrastructure de virtualisation dédiée ; mais elle n’a donc pas les avantages du cloud computing …

Peut-on concilier les impératifs de sécurité des entreprises avec les avantages du cloud ?
Il nous semble que c’est possible avec une infrastructure mutualisée, mais dont les réseaux sont privés. Dans ce modèle, les entreprises ont accès sur un réseau privé à des machines virtuelles sur une plateforme mutualisée.  Le réseau est une base essentielle pour la sécurité. Il permet de définir quels utilisateurs ont accès à quelles ressources. Il  permet aussi de limiter et tracer les zones où se trouvent les données. Si les zones ne sont pas routées sur Internet, c’est un élément déterminant de la sécurité.

A partir du moment où on définit que le « cloud privé » est le cloud sur un réseau privé ; et non un cloud « dédié », alors les entreprises peuvent bénéficier des avantages du cloud : consommation de machines virtuelles à la demande, facturation en fonction de la consommation. L’hébergeur va mutualiser les ressources entre plusieurs entreprises, et va optimiser la consommation d’énergie de ces machines afin de réduire ses coûts. Cette solution nous semble plus vertueuse et plus efficace économiquement.

La définition du cloud privé nous semble donc pouvoir être revue. Plutôt qu’une infrastructure dédiée pour une entreprise, c’est plutôt une infrastructure mutualisée sur un réseau privé qui permet de bénéficier des avantages du cloud computing. Reste aux hébergeurs à trouver les solutions réseaux adéquates afin de garantir à leurs clients que leurs ressources sont bien à l’abri.

Salles informatiques : points clé

Les nouveaux usages de l’informatique se traduisent par une augmentation du nombre de serveurs de l’entreprise à caser dans la salle informatique et de la puissance électrique à souscrire. La salle n’est pas toujours adaptée en termes électriques, de réseaux et de sécurité. Mais que faire de ses serveurs ?

L’alternative pour l’hébergement de serveurs est simple : aménager une salle informatique dans les locaux de l’entreprise, voire construire son propre centre informatique ou les externaliser dans un datacenter ouvert aux entreprises. Pour simplifier appelons datacenter, l’espace dédié au stockage des serveurs qu’il soit localisé au sein d’une entreprise ou qu’il soit exploité par une société spécialisée dans des bâtiments spécifiques.

Pour le bon fonctionnement et la sécurisation des serveurs, le datacenter doit être

  • Alimenté par une forte puissance électrique, avec une redondance des alimentations électriques. Double adduction électrique, groupe électrogène, onduleurs seront nécessaires en cas d’exigence de haute disponibilité électrique
  • Sécurisé tant physiquement que techniquement afin d’empêcher toute altération, destruction ou subtilisation de données ou de matériels.
  • Climatisé ou refroidi de façon efficace pour éviter la surchauffe des matériels et conçus pour limiter les risques d’incendie
  • Interconnecté à Internet avec des débits garantis et symétriques puissants pour gérer le trafic des utilisateurs externes (site web par exemple)

L’ensemble de ces contraintes est difficile à satisfaire pour un responsable informatique, souvent limité dans ses budgets. D’un part, l’emplacement physique des locaux est parfois éloigné des  postes sources d’électricité, des réseaux de fibre ou de cuivre, l’accès aux ressources limite ainsi les possibilités techniques de l’entreprise. D’autre part, les locaux existants, s’ils ont la chance de ne pas être exigus (rarement le cas en région parisienne avouons-le), doivent être aménagés et les coûts sont parfois très élevés : systèmes de climatisation, matériels, travaux, génie civil. Enfin, ce type d’infrastructure comporte des coûts cachés qui peuvent grever la rentabilité de l’entreprise : assurance, formation des équipes, contrôles  anti-incendie, facture d’électricité, gardiennage ou contrôle d’accès.. .

Pour une salle informatique d’une quarantaine de  serveurs dans une configuration standard (basse-densité, climatisation, clé de serrure), nous estimons que l’investissement global atteint 50 k€ et une charge mensuelle d’exploitation environ 2,5 k€  (hors serveurs et formation).

Le choix s’avère assez rapide… Cependant pour le choix du datacenter « externe » il est nécessaire de prendre en compte 3 autres paramètres en dehors évidemment des tarifs et conditions de vente du prestataire ou contraintes spécifiques (approche green IT, facturation à la consommation).

  1. Evolutivité de l’offre d’hébergement du prestataire à court terme et moyen terme : notamment en termes de disponibilité de baies supplémentaires et de puissance électrique (haute-densité) pour palier au pic d’activité des serveurs (exemple des soldes pour les e-commerçants)
  2. Offres de services sur le site. Offre  de connexions : offres de connexion, débits, nombre d’opérateurs, option de raccordement haute disponibilité et services de monitoring.  Mais aussi offre de câblage, de reboot de serveurs, de stockage des matériels, de salle de réunion…
  3. Localisation géographique ou plus exactement accessibilité pour les équipes et les prestataires. En plus de la distance, il faut prendre en compte de façon plus globale, le temps d’accès et l’infrastructure de transport (train, RER , parking..). Et the last but not the least,  l’offre de d’interconnexion pour faciliter l’administration à distance des serveurs par les équipes de l’entreprise (lan to lan, vpn ethernet)

Sur la base des projets de nos clients, quelle que soit leurs localisations, et en guise de conclusion, nous conseillons aux entreprises qui souhaitent optimiser leurs dépenses d’infrastructure réseau en maximisant leur disponibilité une solution mixte : une salle informatique au sein de leurs locaux réduite en terme de surface mais équipée d’onduleurs et refroidie pour les serveurs de back-up, une externalisation des serveurs sur des sites exploités par des professionnels et surtout une gestion sécurisée et performante grâce à une interconnexion de niveau 2.

Cette solution permet de disposer d’une architecture sécurisée et redondée sur plusieurs sites physiques tout en se dégageant des contraintes d’éligibilités électrique et réseau

Econocom choisit Marilyn pour l’extension de ses datacenters

 

Leader européen indépendant pour la gestion des infrastructures informatiques et télécoms, le groupe Econocom propose des solutions de services innovantes, notamment dans le domaine du Cloud. La société a fait le choix d’externaliser une partie de son infrastructure au sein du Datacenter de CELESTE en bénéficiant d’une très haute disponibilité et sécurité. Un CAMPUS de Datacenter a pu voir le jour grâce au partenariat avec CELESTE, campus dont des extensions à un niveau européen sont prévues dans les prochains mois. L’objectif de ce CAMPUS est de fournir des services Cloud à la fois unifiés et au plus proche des clients.

Pour mettre en œuvre cette stratégie gagnante et fondée sur l’innovation, le groupe s’appuie sur son centre d’expertise européen, des collaborateurs reconnus, une infrastructure réseau robuste et des valeurs de responsabilité et d’entrepreneuriat. Ce n’est donc pas un hasard si le Datacenter de CELESTE a été retenu dans le cadre de l’évolution de l’infrastructure de la société.

Au-delà de la proximité géographique entre les datacenters d’Econocom et de CELESTE, le site Marilyn a été avant tout choisi sur des critères de développement durable et d’innovation. Cependant, le PUE cible de 1,3 de Marilyn n’est pas l’unique critère de choix pour ce « projet de campus de Datacenter ». En effet, de conception TIER IV avec une chaîne électrique entièrement doublée, Marilyn propose un niveau de disponibilité de 100%. De plus, la sécurité du site est renforcée par de nombreux moyens techniques et humains : accès biométrique, caméras de surveillance, contrôle anti-intrusion ou gardiens, sans évoquer les procédures de gestion du site.

Afin de renforcer la haute disponibilité de l’infrastructure, les deux centres informatiques CELESTE et ECONOCOM sont reliés par un Lan To Lan (interconnexion) sécurisé reposant sur deux liens en fibre optique 1 GIGA. De plus, les deux datacenters sont connectés en double adduction passant par deux chemins différents.

Compte-tenu de l’étroite collaboration entre les deux sociétés, de nombreuses évolutions et services sont envisagés pour faire évoluer ce projet unique de CAMPUS d’hébergement, qui répond aux attentes des sociétés en termes de fiabilité et de performance.

Eric GUILLOT, Directeur Global Services Centres, « le choix de CELESTE est un choix stratégique pour Econocom qui nous permet de proposer des solutions d’avenir pour nos clients; nous avons des ambitions très importantes de développement autour de ce partenariat et d’ores et déjà nos nouvelles offres rencontrent un très grand succès commercial »
Econocom
Créé il y a 37 ans, Econocom est le premier groupe européen indépendant de gestion des infrastructures informatiques et télécoms. Fort de ses expertises complémentaires (distribution, financement, services et télécoms) et de sa gamme de solutions d’entreprise innovantes, Econocom accompagne les entreprises dans la transformation de leurs systèmes d’information.
Implanté dans 17 pays, le groupe Econocom compte 3 700 collaborateurs pour un chiffre d’affaires de 1 584 millions d’euros et un résultat opérationnel courant de 66,6 millions d’euros en 2011.

Serveurs et vétusté des datacenters, une question de disponibilité

L’intérêt d’une entreprise de  placer ses serveurs informatiques dans des  datacenters  repose d’abord sur des raisons  économiques : suppression  des coûts  des  climatiseurs, des onduleurs, de la sécurité d’accès, de l’entretien de la salle etc…. Cependant il s’avère nécessaire de rester très vigilant sur le niveau de qualité du prestataire à qui elle confie ses serveurs. Est-il utile de rappeler que pour la plupart des entreprises le « blocage » de son système d’information signifie un arrêt complet de son activité ?
Une étude récente a montré que 60% des pannes  des serveurs informatiques sont  dues à  des pannes provenant  de l’environnement dans lequel ils sont installés :
– Coupure du réseau électrique, sans reprise automatique ou suffisante  par les onduleurs,

– Panne des  climatiseurs, transformant  la salle informatique en «sauna»,
– Dépôt de poussière, générant des faux contacts dans les circuits des serveurs

A l’origine beaucoup de datacenter se sont construits à partir de la réfection de bâtiments de bureaux sous prétexte qu’ils possédaient déjà une salle informatique. Cette réhabilitation a  conduit à des installations initialement  saines, mais qui  ont rapidement  atteint  leurs limites de fiabilité au fur et à mesure de leur « remplissage ».
Au-delà d’un taux d’occupation de 70 %, il est courant de voir apparaître des aménagements qui érodent le niveau de fiabilité d’un datacenter, par exemple :
– Création de salles privatives mais avec un seul climatiseur ou sans onduleur de secours faute de place
– Réduction du nombre d’opérations de tests et de maintenance suite à des difficultés d’accès : climatiseurs dans les salles de baies, sur les toits
– Mauvaise répartition des flux d’air de refroidissement  suite à des modifications de l’agencement des salles : suppression ou ajout de cloisons
– Équipement de  nouvelles salles sans dédoublement des compteurs électriques suite  à des problèmes de câblage ou de placeCes modifications disparates ont non seulement entraîné une baisse de la qualité des datacenters, mais ont aussi complexifié  l’exploitation au quotidien : multiplication des interventions,  difficulté d’accès,  absence de solution de substitution lors des interventions. D’ailleurs, il est courant de voir des opérateurs baisser les bras en annonçant la fermeture de leurs vieux datacenters.

Alors que  faut-il faire ? Reprendre ses serveurs. Non pas du tout.  Il faut simplement  garder à l’esprit que l’externalisation de serveurs est un projet qui s’inscrit dans la durée. On ne confie par ses serveurs pour 12 mois. On doit choisir un prestataire capable d’assurer un environnement de fonctionnement uniforme pour les 10 ans à venir quelques soient son taux de remplissage, l’évolution de la technologie des serveurs informatique, ses coûts de fonctionnement… un datacenter du XXI siècle.