Tech

Les centres de données gaspillent de l’énergie en faisant fonctionner les processeurs à pleine vitesse

Pourquoi c’est important : Les centres de données sont des consommateurs d’énergie et les opérateurs tentent de réduire leur consommation d’énergie et de ressources. Des solutions ingénieuses ont été trouvées, comme l’utilisation d’eau de mer non potable pour refroidir les équipements, mais une solution évidente semble avoir été oubliée : permettre aux processeurs de fonctionner avec différentes capacités d’économie d’énergie.

La consommation d’énergie des centres de données est devenue une préoccupation majeure à mesure que la demande augmente et que les services publics ont du mal à suivre. Les opérateurs cherchent des moyens de réduire leur consommation et leurs coûts énergétiques, et nombre d’entre eux développent de nouvelles méthodes de refroidissement des équipements et d’optimisation de la conception des centres de données.

Un nouveau poste Selon l’Uptime Institute, l’activation des fonctions de gestion de l’alimentation intégrées sur les serveurs pourrait réduire considérablement la consommation d’énergie. Selon l’institut, les régulateurs et les profils d’alimentation au niveau du système d’exploitation pourraient réduire la consommation d’énergie de 25 à 50 %, tandis que l’activation des états C du processeur pourrait réduire la consommation d’énergie au repos de près de 20 %.

Ces fonctionnalités d’économie d’énergie sont souvent désactivées par défaut en raison de problèmes d’instabilité des performances et de latence. Cependant, Uptime affirme que l’impact sur les performances est négligeable pour la plupart des charges de travail, à l’exception de celles très sensibles à la latence comme le trading haute fréquence.

En effet, les processeurs modernes offrent souvent plus performance Il est possible que le fonctionnement à pleine vitesse gaspille de l’énergie. Il existe un point de rendement décroissant où l’utilisation d’une puissance supérieure produit des gains de performances minimes.

Pour résoudre ce problème, les fournisseurs de processeurs ont développé diverses techniques de gestion de l’alimentation et des performances. Les contrôles basés sur des logiciels peuvent réduire la consommation d’énergie de 25 à 50 %, mais peuvent avoir un impact plus important sur la latence. Les implémentations matérielles uniquement ont un impact moindre sur la latence, mais n’offrent que 10 % ou moins d’économies d’énergie. Une approche combinée logiciel/matériel offre un compromis avec des économies de 15 à 20 %.

Malgré les compromis en termes de performances, Uptime soutient que la consommation d’énergie devrait être la principale préoccupation pour la plupart des cas d’utilisation et que l’optimisation des performances et l’activation de ces fonctionnalités dans un centre de données pourraient générer des économies d’énergie et de coûts substantielles.

Cette approche est logique, car les performances excessives sont rarement surveillées, alors que de nombreux outils existent pour maintenir des niveaux de service minimum. De plus, la courbe de consommation d’énergie des processeurs devient plus raide à mesure qu’ils approchent des performances maximales, ce qui suggère un potentiel d’économies.

Il convient de noter que les techniques de gestion de l’alimentation sont issues des applications mobiles où l’efficacité énergétique est essentielle. Ce contexte suggère que pour la plupart des charges de travail, l’impact de la gestion de l’alimentation sur la latence pourrait être moindre que prévu.

Compte tenu de ces facteurs, les centres de données gaspillent peut-être de l’énergie en faisant fonctionner les processeurs à pleine vitesse alors que cela n’est pas nécessaire pour la charge de travail. Pour étayer cette idée, Uptime cite des données de référence montrant que les serveurs sont souvent plus économes en énergie lorsqu’ils sont limités à des niveaux de performances inférieurs.

Source link