Les bonnes pratiques et leviers d'amélioration

Télécharger la publication
L’amélioration de la performance environnementale du Data center peut s’approcher par 3 angles :
  • le levier physique : l’éco-conception du bâtiment, les choix technologiques, la performance des équipements et des filières de fin de vie
  • le levier gouvernance : mise en place d’un système de management de l’environnement et/ou de l’énergie
  • le levier logique : le dimensionnement des besoins au plus juste et l’optimisation de l’usage.

Les 3 approches sont complémentaires et interdépendantes, chacune peut être mise en place par les différentes parties du Data center (infrastructure, informatique, service).
De nombreuses actions d’amélioration sont identifiées dans le UE Code of Conduct for Data centers disponible sur le site du Joint Research Center de la Commission Européenne. 

L’optimisation de l’infrastructure jusqu’au service

A tous les niveaux (infrastructures, informatique, services), les taux d’utilisation représenté par le ratio entre la quantité provisionnée et la quantité réellement utilisée peuvent être optimisés. Les raisons de ce surdimensionnement sont nombreuses, et connues : dimensionnement en anticipation des usages en particulier pour passer d’éventuels « pics de charge », réservation concessionnaire des approvisionnements énergétiques, voire des contraintes règlementaires (secteur Banque-Finance, santé). Aujourd’hui, les Data centers sont de plus en plus opérés comme des éléments d’un ensemble plus vaste, piloté côté usage par des plateformes de virtualisation. La notion de cloud et l’impératif de performance (latence, disponibilité) ne doivent pas masquer l’impératif d’optimisation de chaque Data center de l’ensemble.

Le Data center dans son contexte - quel rôle pour l'exploitant ?

le levier physique : à la conception du data center


De nombreux choix techniques qui auront un impact déterminant sur la performance environnementale sont figés dès la phase de conception d’un Data center.

A priori la performance technique, c’est-à-dire un niveau de sécurisation et de disponibilité maximum va à l’encontre de la performance environnementale car elle implique d’installer des équipements techniques supplémentaires afin de contrer sans délais tout défaut. Or ces équipements supplémentaires consomment de l’énergie, nécessitent des opérations de maintenance, produisent des déchets et représentent des coûts supplémentaires.

Le challenge pour les opérateurs de Data center est de trouver dès la conception le compromis idéal entre performance environnementale et disponibilité.

Par ailleurs, il faut garder à l’esprit que la performance environnementale devra être évaluée à travers plusieurs indicateurs afin d‘éviter le transfert de pollution.

Cette problématique pourra être analysée par la réalisation d’études prévisionnistes basées sur des relevés et mesures météorologiques.

Ces études ont pour finalité de pouvoir comparer la performance des différents choix techniques de conception sur toute la vie du Data center (à différents taux de charge électrique), cela permettra d’arbitrer les choix de conception et l’équilibre entre CAPEX et OPEX en raisonnant en approche « Coût global » .Ces études sont réalisées en tenant compte de certaines hypothèses et de données relatives aux années précédentes. Il est donc évident que les indicateurs obtenus suite à une année exceptionnelle, chaude ou froide, peuvent différer notablement de ce qui a été prévu en phase étude.

En effet, les solutions techniques développées, de type Free Cooling / Free Chilling, sont très dépendantes des conditions extérieures. Différents modes de fonctionnement, associés chacun à une plage de consommation énergétique, sont observés selon les conditions météorologiques. Les fluctuations des conditions extérieures agissent donc directement sur la consommation du Data center et par conséquent sur son efficacité énergétique.

Selon l’implantation géographique du Data center, l’investissement lié à ces technologies, souvent plus coûteuses que les technologies standard, peut trouver ou non un intérêt. En effet, certaines situations géographiques ne permettent pas un fonctionnement régulier des modes dits « Free ». De plus, ces technologies entrainent la mise en place de tout un système d’instrumentation et de régulation, pour permettre le fonctionnement optimal de ces systèmes, auquel il faut associer un personnel compétent capable de maintenir et d’exploiter ce type de systèmes complexes.

L’évaluation des coûts en approche TCO (Total Cost of Ownership ou approche du coût global) et le calcul CAPEX/OPEX permet aux concepteurs d’étudier la viabilité économique de ces solutions et de calculer la période d’amortissement des investissements.

Au –delà de l’environnement extérieur, des choix de conception intrinsèquement liés au Data center, et non à son environnement, permettent d’accroître sa performance énergétique. Une urbanisation des salles informatiques optimisée permet une réduction de la consommation énergétique. Notamment, le confinement des allées, chaudes ou froides, est souvent recommandé.

La performance environnementale des Data centers est donc très dépendante du choix des équipements techniques de l’infrastructure et de ses modalités d’exploitation, mais également des équipements informatiques.

Il convient d’étudier la possibilité de recyclage de chaleur : chauffer les bâtiments à proximité par exemple; elle est relativement simple à mettre en place, et ne nécessite pas d’avoir été pensé à la conception.

le levier gouvernance

systèmes de management


L’exploitation des datacenter et des services qu’ils hébergent selon les référentiels de bonnes pratiques, qu’il s’agisse de référentiel technique comme le UE Code of Conduct for Datacenter ou de système de management de l’énergie et/ou de l’environnement, permet de mettre en place une démarche d’amélioration continue de la performance environnementale.

Le principe des systèmes de management repose sur l’approche PDCA (plan- do –check –act), c’est-à-dire qu’à l’issue d’analyses initiales (analyse SWOT, analyse environnementale, revue énergie, analyse réglementaire), l’entreprise peut identifier ses priorités et intégrer les enjeux environnementaux et énergétiques dans sa stratégie de développement.

Les grands axes doivent être détaillés en actions opérationnelles, puis, la performance doit être suivie de manière périodique afin de pouvoir attester de l’amélioration réelle ou de détecter les écarts et donc de mettre en place des actions correctives.

Les normes ISO 14001 et ISO 50001 incluent des exigences relatives aux achats et aux relations avec les fournisseurs ainsi que des exigences relatives aux services supports et à la communication.

La révision des normes simplifie la mise en place des systèmes de management en allégeant la partie documentaire notamment.Les enjeux liés à l’environnement, l’énergie, la sécurité de l’information étant au cœur des préoccupations des Data centers, de plus en plus de sites développent des approches dites intégrées, c’est-à-dire d’avoir un système de management intégrant plusieurs référentiels.

Les systèmes de management proposent une méthode qui permet d’associer l’ensemble des collaborateurs et piloter les différents processus de l’entreprise.

Ils sont tout à fait compatibles avec les référentiels de bonnes pratiques tels que le UE Code of Conduct for Data center et peuvent être mis en place de manière simultanée.

communication avec les parties prenantes et outils 


En exploitation, les Data centers accueillent deux catégories de personnes : ceux qui gèrent les bâtiments et les infrastructures (UPS, groupes électrogènes, batteries, climatisation, sécurité physique, etc) et ceux qui utilisent les Data centers y en plaçant leurs équipements IT. Les compétences associées à ces métiers sont assez différentes : électricité, climatisation et sécurité d’un côté ; profils informatiques de l’autre (Ingénieurs systèmes et réseaux, ingénieurs en développement informatique).

Afin d’améliorer et de maintenir un bon niveau de performance environnementale, il est essentiel de sensibiliser les différents acteurs aux enjeux environnementaux du Data center et aux impacts de l’utilisation de cet outil.

La communication avec les parties prenantes peut se faire selon différents canaux : affichage sur site, reporting environnemental selon les services consommés, informations sur les bonnes pratiques, challenge entre les équipes. La finalité étant que chaque acteur puisse s’approprier ces notions et mettre en place une démarche d’amélioration.

L’amélioration passe également par le développement d’outils communs, en effet, dans la majorité des cas, chaque acteur a son outil de travail pour gérer les opérations quotidiennes dans les Data centers ; Bien souvent ces outils ne communiquent pas (ou peu) entre eux. Un simple exemple : il n’est pas trivial d’étudier l’impact sur une application si une maintenance est effectuée sur une chaîne électrique du Data center : il faut bien souvent jongler avec plusieurs outils.

Les outils GTB (gestion technique du bâtiment) et DCIM (Data center Infrastructure Management) permettent de gérer le bâtiment, l’infrastructure du Data center et l’infrastructure IT dans le même outil avec les mêmes processus (Change management, Incident management, Gestion des Maintenances, etc). Le principe est d’étendre les bonnes pratiques ITIL sur toute la chaîne d’éléments (des équipements IT à l’infrastructure du Data center) dans le même outil.

Ceci permet tout d’abord en ayant un outil commun d’avoir une meilleure visibilité et de mieux appréhender les interdépendances entre chaque composant. De plus, il est possible d’avoir une seule CMDB (Configuration Management Database) afin de centraliser toutes les informations au même endroit. Enfin, il permet de gérer le « Capacity Planning » au sein du même outil afin de mieux anticiper les besoins en capacité par rapport aux capacités déjà utilisées. Une dizaine d’outils existent sur le marché.

Ces outils permettent également d’effectuer des calculs de rendements de bout en bout afin de vérifier les principaux indicateurs de performance des Salles IT (Climatisation, Électricité, Hygrométrie, etc).

Les processus de maintenance des infrastructures des Data centers sont encore très manuels et assez peu intégrés avec les processus IT. Ils sont généralement basés sur des systèmes de GMAO (Gestion de Maintenance Assistée par Ordinateur) et nécessitent des actions manuelles afin de notifier les clients de futures maintenances. Les outils DCIM devraient permettre d’aider à la « numérisation » des processus de maintenance. De nouvelles méthodes de travail seront alors nécessaires aux techniciens de maintenance qui travaillent encore bien souvent avec des documents « papier » qu’ils numérisent à la fin de leurs maintenances

le levier logique


L’étude US Data center Energy Usage Report (Juin 2016) révèle que les actions sur le levier logique offrent un potentiel majeur pour assurer à la fois la maîtrise des coûts d’exploitation (en particulier la consommation énergétique) mais aussi les investissements, malgré une augmentation extrêmement forte des usages de l’ordre de 20%-25% annuels.

Le Data center est effectivement à la croisée des besoins et des moyens, et doit donc être capable de gérer ces deux points de vue. D’un côté, il est dépendant des usages et contraintes, qu’il subit mais dont il peut mesurer les caractéristiques. D’un autre, l’exploitant de Data center dispose de divers degrés de liberté pour optimiser le rendement de l’infrastructure, à savoir les coûts d’exploitation (dont l’énergie est un des composants majeurs) et les investissements (le nombre et les caractéristiques des serveurs, réseau, etc).

Les actions sur le levier logique sont essentiellement de deux sortes :
  • Virtualisation : l’utilisation extensive des bonnes pratiques des techniques de virtualisation est en cours de déploiement par les DSI depuis plusieurs années, avec des taux de virtualisation très variables selon les organisations. Il est important d’ajouter à la quantité de virtualisation, la notion de qualité de la virtualisation, en allant vers des démarches cloud-natives typiquement orientées vers le devops (l’intégration de l’infrastructure dans le développement d’applications). La typologie d’usage qui découle d’une meilleur virtualisation pointe vers l’instanciation à la demande, la facturation à l’usage,… qui sont autant d’évolutions auxquelles préparer l’exploitation des Data centers.
  • Le levier gouvernance : mise en place d’un système de management de l’environnement et/ou de l’énergie.
  • Consolidation : la consommation des ressources physiques est d’autant plus efficace que ces ressources peuvent être ajustées au besoin, à la hausse comme à la baisse. Rappelons qu’un serveur en veille consomme de l’ordre de 50%-70% de ce qu’il consomme en mode actif – c’est dire ce que coûte la sous-utilisation du parc dans des infrastructures sous utilisées (on parle de serveurs fantômes). Le processus de planification est un mécanisme d’ajustement - le plus souvent à la hausse uniquement - qui peut traiter des évolutions macroscopiques des usages. Néanmoins d’autres temporalités ou spécificités techniques peuvent s’exprimer dans les usages et nécessiter d’autres approches : la gestion des débordements, la fédération de moyens (par exemple des moyens géolocalisés pour les applications du fog computing lié à l’Internet des Objets).

Le Data center est donc potentiellement riche en métriques qui peuvent analyser les opérations sous les deux aspects – évolution des besoins et adéquation des moyens :
  • Les métriques caractérisant les usages et contraintes :
- L’analyse de l’activité des machines virtuelles déployées, par exemple leur nombre et type, leur fréquence, les ressources exploitées (éventuellement en fonction des enveloppes provisionnées), etc. en essayant de dégager des tendances 
- La prise en compte de l’impact des contraintes opérationnelles, telles que les SLA, les zones de déploiement (le syndrome du ‘1 service 1 serveur’), ou encore l’évolution des besoins de stockage
  • Les métriques caractérisant la productivité des ressources mises à disposition : 
- L’analyse des caractéristiques des serveurs (puissance consommée, puissance de calcul) et leur utilisation (sur les ressources CPU, RAM, voire réseau)
- L’efficacité globale du Data center, à savoir son taux d’utilisation, de panne et/ou de problèmes de ressources (par exemple des bandes passantes réseau saturées, des machines physiques en surcharge), mais aussi le nombre de serveurs en sous-utilisation-
 Les flux environnementaux (consommations d’eau, d’énergie, de ressources informatiques)L’ensemble de ces indicateurs permettent à terme d’étendre progressivement les KPI de performance du Data center vers la caractérisation des services qu’il héberge et l’identification des stratégies d’exploitation pour en tirer parti.

Ces métriques induisent une relation potentiellement fructueuse entre l’exploitant et l’utilisateur de la ressource Data center, au travers d’une gouvernance avec les DSI pour les infrastructures en propre ou une offre de services enrichie et différenciée pour les hébergeurs vis-à-vis de leurs clients.

Partager sur