Vous êtes ici : Accueil > Quel avenir pour le cloud face aux enjeux de frugalité ?

Actualité | Décryptage | Focus | Nouvelles technologies | Communications

DECRYPTAGE - L'OEIL DE L'EXPERT

Quel avenir pour le cloud face aux enjeux de frugalité ?


L'avènement de la 5G, ou encore l’essor des plateformes de partage de données et de vidéos à la demande, des applications de visioconférence (notamment pendant la pandémie) ont fait naître le besoin d’un cloud de plus en plus puissant, capable de gérer et stocker ces données. Mais les infrastructures de calcul (« data centers ») mises en œuvre entraînent une explosion de la consommation d'énergie. Comment conjuguer ces besoins avec les enjeux de frugalité actuels ? Éléments de réponse avec Florent Kirchner, chef du département d’ingénierie des logiciels et des systèmes et co-porteur du Programme et Equipements Prioritaires de Recherche « Développement de technologies avancées de cloud » au CEA.

Publié le 23 mars 2022

Comment résumer l’enjeu de frugalité pour le cloud aujourd’hui ?

Aujourd’hui, le développement du cloud a atteint un stade que l’on pourrait comparer à celui de l’électricité à l’époque de Nikola Tesla (entre la fin du 19e siècle et le début du 20e siècle), c’est à dire qu’on en a identifié les grands principes et qu’on commence à créer les premières infrastructures (pour poursuivre l’analogie avec l’électricité, c’est l’équivalent des premières lignes et des premiers foyers électrifiés). Le cloud arrive aussi dans les maisons via par exemple le partage de photos, ou des clouds publics tels que ceux proposés par les géants du web comme Google, Apple, Facebook (Meta), Amazon et Microsoft ou encore le chinois Baïdu. Aujourd’hui, plus d’un siècle plus tard, l’électricité est déployée à grande échelle et disponible partout, tout le temps, à la demande. Pour le cloud, cela va être la même chose : il est en train de devenir un outil de calcul et de stockage à la demande – une « commodité » pour utiliser le néologisme anglo-saxon. La question qui se pose alors est : comment faire pour ne pas tomber dans l’excès et ne pas gaspiller cette ressource, surtout en tenant compte de ce qu’on commence à percevoir de la consommation énergétique du cloud ?

Le cloud est en train de devenir un outil de calcul et de stockage à la demande

© Fotolia

Sur quels volets peut-on jouer pour tendre vers un cloud plus frugal ?

Le premier volet majeur est l’implémentation des composants matériels et des logiciels. Grâce à l’expertise acquise dans le développement de processeurs et de mémoires pour les calculs embarqués (de petite taille et de faible consommation d’énergie), nous sommes capables de créer des composants à la fois frugaux et très performants. Par exemple, le processeur ARM, doté d’une architecture plus simple et donc moins énergivore que les familles de processeurs conventionnels, et développé par la société ARM Ltd depuis 1983, a commencé par conquérir les téléphones pour leur offrir une bonne autonomie énergétique. Il est maintenant de plus en plus intégré dans les supports de calcul et de stockage du cloud, associé à des accélérateurs matériels qui optimisent certaines parties de calcul très consommatrices (comme par exemple les circuits de la société Kalray, une spin-off du CEA). Le CEA est très actif dans ce domaine, avec des propositions de nouvelles architectures et accélérateurs visant à réduire drastiquement l’énergie nécessaire pour du calcul sur des données massives, notamment par des solutions de calcul en mémoire qui réduit le transfert de données et donc son coût énergétique.

Le CEA est expert en ingénierie logicielle

 © Adobestock


En plus d’optimiser les processeurs et les mémoires, il est également indispensable d’optimiser l’applicatif, c’est-à-dire les logiciels. Au CEA, nous disposons depuis longtemps d’une forte expertise en ingénierie logicielle. Proches des applications industrielles, nos équipes ont par exemple conçu des outils capables de programmer des processus critiques - qui doivent être particulièrement réactifs et optimisés pour leurs environnements. Ils se mobilisent aujourd’hui pour adapter ces outils aux contraintes de calcul et de stockage dans le cloud, et permettre par exemple d’exploiter au mieux les complémentarités entre les algorithmes, et les composants électroniques sur lesquels ils opèrent.

Tous ces travaux sont absolument cruciaux, mais on peut également agir sur le système dans son ensemble.

Optimisation des logiciels
 © Fotolia

C’est-à-dire ?

Il faut avoir en tête qu’un cloud, c’est en réalité plusieurs clouds. En effet, si un cloud est un ensemble de machines branchées en réseau dans un data center, le Cloud dans son intégralité est en fait un ensemble de data centers qui se « parlent ». Mais ces derniers sont souvent situés à une grande distance des applications qu’ils traitent - par exemple, pour deux personnes faisant une visioconférence à quelques kilomètres d’écart, les données vont parfois transiter par des data centers implantés à plusieurs centaines de kilomètres. On voit donc émerger la notion de « cloud at the edge » ou cloud de terrain : des clouds plus petits et plus proches des applications, c'est-à-dire de l’endroit où on produit ou on calcule les données. C’est une révolution en marche en ce moment. Si on prend du recul, c’est une sorte de galaxie de clouds qui est en train d’émerger.

Est-ce vraiment plus frugal d’avoir une galaxie de clouds plutôt que quelques gros data centers ?

La décentralisation et les clouds at the edge fournissent des capacités mieux adaptées au besoin local, et de nombreux travaux cherchent à optimiser cette utilisation locale. Par ailleurs, ils traitent des données de proximité, qui n’ont donc pas besoin de parcourir des milliers de kilomètres, réduisant la consommation énergétique. Enfin, alors que les clouds globaux se doivent d’être généralistes, les clouds locaux peuvent se spécialiser grâce à la connaissance du type de données à traiter, et ainsi augmenter leur efficacité, évitant ainsi la consommation liée au transport sur de longues distances. L’impact de cette économie doit évidemment être analysé scientifiquement, selon les cas d’usage. Mais tout ne peut pas être réalisé localement, notamment lorsque des données doivent être partagées entre utilisateurs, comme pour une visio-conférence, ou que la quantité de données nécessite des puissances de calcul très importantes, comme dans la simulation numérique d’un avion.

Ainsi, se pose la question de la distribution des calculs entre ceux pouvant être réalisés sur ces clouds at the edge, et ceux pour lesquels on a besoin de gros data centers avec des capacités de calcul différentes. L’organisation de cette répartition des calculs est un vrai enjeu de frugalité : si l’on se trompe, on va soit surconsommer sur les clouds at the edge parce qu’on va les sur-solliciter avec des calculs pour lesquels ils ne sont pas dimensionnés ou, à l’inverse, on va construire des data centers qui vont tourner à vide car on ne leur aura pas alloué les tâches appropriées. Les algorithmes d’orchestration sont donc des enjeux-clés des clouds décentralisés.

Enfin, cette question d’allocation des calculs fait émerger celle des garanties à apporter pour qu’un calcul se passe correctement : car s’il y a des erreurs, on relance les calculs, on duplique les efforts, et on consomme plus d’énergie.

Les leviers pour un cloud plus frugal

© Pixabay

Y a-t’il d’autres actions possibles pour aller vers un cloud plus frugal ?

Le dernier levier d’action est la sensibilisation de l’humain. C’est-à-dire, comment fait-on pour que l’opérateur, mais aussi l’utilisateur de ces systèmes sachent comment économiser la ressource ? Cela pourrait passer par la visualisation de nos usages sur le cloud, qui permettrait de voir où sont les points chauds ou les points froids de notre territoire numérique. A partir de là, un bilan énergétique serait présenté. On pourrait ainsi proposer à l’utilisateur des solutions pour diminuer sa consommation, et ainsi son empreinte carbone – à l’instar de ce qui existe déjà pour l’électricité. Parallèlement, une fois qu’on aura mieux visualisé notre consommation dans le cloud, il sera nécessaire d’avoir des outils pour superviser et adapter cette consommation « à la volée » afin de gagner en efficacité énergétique. Ce sont des véritables « jumeaux numériques » des infrastructures cloud qu’il s’agit de bâtir, et leur construction sera l’enjeu de recherches poussées en modélisation, simulation, et optimisation.

La consommation énergétique du cloud et des data centers en quelques chiffres

  • Au niveau mondial, les data centers utilisent aujourd’hui 3% de l’électricité produite et sa part devrait augmenter considérablement dans les années à venir. Pour 2020, elle était ainsi estimée à 650 térawattheures, soit une consommation supérieure à celle de la France
  • Par an, un data center de taille moyenne utilise pour son refroidissement 600000 mètres cubes d’eau
  • Selon un rapport de la Commission Européenne paru fin 2020, la consommation des data centers européens est passée de 53,9 TWh/ an en 2010 à 76,8 en 2018.

Haut de page

Haut de page