Sensibilisés dès 2007 sur l’impact que les infrastructures et serveurs informatiques, particulièrement énergivores, avaient sur l’environnement, les chercheurs de l’Université du Luxembourg, sous la direction du professeur Pascal Bouvry, ont été amenés assez naturellement à s’intéresser à l’optimisation de la consommation d’énergie des data centers (centres de données), qui ont poussé comme des champignons au cours des dernières années : le pays en compte une quinzaine, totalisant une surface de plus de 35 000 mètres carrés. Le parc luxembourgeois est considéré comme un des meilleurs en Europe. Il y a toutefois des progrès à faire pour optimiser leur fonctionnement et réduire tant leur facture énergétique que leur empreinte carbone. Cela vaut aussi pour le cloud computing, c’est-à-dire l’informatique dématérialisée qui est une des niches que le Luxembourg des ITC tente de développer. Comme le signale Pascal Bouvry, un centre de données conventionnel consomme 30 mégawatts, ce qui correspond à la consommation moyenne d’une ville de 25 000 habitants. Les grands data centers vont jusqu’à utiliser 100 mégawatts. Une enquête récente publiée par le New York Times note que tous ces centres réunis à travers la planète consommeraient l’équivalent de trente centrales nucléaires.
Les études ont également montré qu’une grande partie de l’énergie injectée dans les centres de données se révèle du pur gaspillage. « Il est courant de considérer que 60 pour cent de l’énergie n’était pas utilisée directement pour les serveurs. C’est-à-dire que 40 pour cent partait dans le refroidissement et 20 pour cent était purement et simplement perdu », explique le chercheur de l’Uni.lu, en précisant que les coûts énergétiques représentaient actuellement dix pour cent des charges opérationnelles d’un data center et que cette part pourrait atteindre 50 pour cent dans les années à venir. La recherche s’était jusqu’à présent davantage concentrée sur le développement de la puissance de calcul des centres de données qu’à leurs performances énergétiques. Ce n’est plus le cas aujourd’hui, où la nouvelle génération de centres de calculs intègre des considérations de performance énergétique. Pour Pascal Bouvry, il faut aller toutefois au-delà des concepts conventionnels d’efficacité énergétique pour considérer l’efficacité par rapport aux vrais besoins de calcul, de stockage et de communication de l’entreprise. « Le fait, dit-il, de laisser tourner un système d’exploitation d’un ordinateur sans exécuter d’application particulière devrait être considéré comme du gaspillage ». Il faut s’interroger davantage sur les besoins réels déployés pour une application : pourquoi par exemple faire chauffer une « machine » servant plus de dix zéros après la virgule si une telle précision n’est pas nécessaire à l’application choisie ? L’idée de base est donc d’exploiter un serveur pour lui faire faire « des calculs intéressants » et proportionnels à l’utilisation recherchée : va-t-on lui faire « cracher » 95 pour cent de ses capacités pour une basique application de gestion, alors qu’un déploiement de puissance à 65 pour cent serait suffisant ? Un système d’exploitation à la demande avec paiement aussi à l’utilisation, en quelque sorte, ce qui requiert, outre une organisation bien huilée au sein de l’entreprise utilisatrice, des services informatiques marchant main dans la main avec les directions financière, en vue de l’optimisation de l’infrastructure informatique, qu’elle soit maison ou externalisée.
L’Uni.lu est à la pointe de la recherche appliquée dans ce domaine avec deux programmes de recherche dédiés aux moyens d’optimiser les systèmes et leur efficacité énergétique. Le premier programme, baptisé Green IT et financé par le Fonds national de recherche, s’achèvera à la fin de l’année tandis qu’un autre, sous le nom de Green@Cloud, bénéficiant lui aussi du soutien du FNR, a démarré cette année en collaboration avec le CNRS français et se focalise sur l’optimisation des systèmes de cloud computing ainsi que leur standardisation (pour assurer ainsi une migration sans problème des données d’un cloud à l’autre, en fonction de leurs performances).
Les chercheurs de l’Université s’intéressent tout particulièrement aux nouveaux micro-processeurs utilisés par les smartphones pour les mettre au service de centres de calculs et de données. Ces nouveaux matériaux, signale Pascal Bouvry, consomment quarante à cinquante fois moins que les processeurs conventionnels de type Intel (un watt/heure contre 40 à 50 watts/heure). « Si on spécialise ces nouveaux processeurs pour certains traitements, explique-t-il, on arrive à réduire les consommations d’énergie ». Des performance qu’il est encore possible de « booster » : « par exemple, précise le chercheur, les disques de stockage deviennent intelligents et ne sont en rotation que lorsque cela est nécessaire et les micro-processeurs tournent à une fréquence variable en ne délivrant que la puissance nécessaire ».
Une autre piste d’optimisation des coûts pour les data centers de la future génération, outre les composants à basse consommation, est à rechercher, selon Pascal Bouvry, dans la modulation du type d’énergie utilisée, fossile ou renouvelable : « Les infrastructures de demain seront hybrides présentant des composants classiques orientés vers la performance et de composants basse consommation », pronostique le chercheur. L’arrivée de nouveaux applicatifs intégrant notamment des options pour arrêter ou démarrer des composants à distance ou réguler leurs vitesses en fonction des charges à effectuer est également porteuse d’espoir pour la préservation de la planète : « De nouveaux applicatifs apparaissent, ajoute le chercheur, et sont capables de manière opportuniste de décider quelle est l’utilisation des ressources qu’ils peuvent se permettre en fonction du niveau de service à offrir et du type d’énergie consommée ».
Peter Feist
Catégories: Innovation, Politique de recherche
Édition: 26.10.2012