Vous êtes ici : Accueil > Découvrir et Comprendre > Les thèmes > L'essentiel sur... les supercalculateurs

L'essentiel sur | Nouvelles technologies | Supercalculateurs | Calcul haute performance | Physique


L'essentiel sur...

les supercalculateurs

Publié le 29 mai 2017

Un supercalculateur est un très grand ordinateur, réunissant plusieurs dizaines de milliers de processeurs, et capable de réaliser un très grand nombre d’opérations de calcul ou de traitement de données simultanées. Les superordinateurs sont utilisés par les scientifiques et les industriels pour concevoir de nouveaux systèmes et objets (moteurs, avions, voitures), des matériaux ou des médicaments ; simuler des phénomènes physiques complexes (séismes, formation des étoiles, galaxies ou même Univers entier…) ; réaliser des prévisions (météorologie, climat) ; ou réaliser virtuellement des expériences difficilement réalisables en laboratoire.

​Comment fonctionne
un supercalculateur ?

Dans les années 1930, les ordinateurs – ou calculateurs – effectuaient une opération par seconde. Aujourd’hui, les supercalculateurs les plus puissants réalisent des dizaines de millions de milliards d’opérations par seconde.

De tels progrès ont été possibles grâce à la miniaturisation des processeurs et des mémoires mais aussi grâce à une organisation particulière de ces calculateurs et de leur environnement à différentes échelles.


VidéoLe fonctionnement d'un ordinateur


Un fonctionnement en « grappe »

Pour réaliser autant d’opérations simultanées, les supercalculateurs effectuent les calculs « en parallèle », c’est-à-dire en les répartissant sur différents processeurs. Ceux-ci sont organisés en « grappe » de « nœuds de calcul », connectés par un réseau ultrarapide. Les nœuds de calcul mettent en commun leurs mémoires pour former une mémoire « distribuée » de très grande taille, et sont reliés à des espaces de stockage de plus grande taille encore. L’architecture détaillée des nœuds de calcul est également devenue un élément déterminant pour optimiser leur fonctionnement.

Les performances d’un supercalculateur décrivent ses capacités à exécuter des calculs mais aussi à traiter de très grands volumes de données. A ce niveau, on parle de « calcul haute performance » (ou « HPC », pour High Performance Computing en anglais) et la vitesse de traitement des opérations s’exprime principalement en Flops (Floating Point Operations Per Second, opération de base pour du calcul numérique, soit addition ou multiplication décimale).


Machine de calcul fonctionnant  selon une architecture massivement parallèle

Tera 100 : un exemple de supercalculateur fonctionnant selon une architecture massivement parallèle. © F. Mathé/CEA



Les supercalculateurs  :
des capacités de stockage gigantesques

Physiquement, les supercalculateurs sont constitués de nombreuses armoires (baies), reliées entre elles par des kilomètres de câble réseau (interconnexion ultra-rapide des nœuds de calcul) et regroupées dans des centres de calcul. Un centre de calcul comprend aussi de gigantesques capacités de stockage local de données auxquelles les ordinateurs doivent pouvoir accéder rapidement (dizaines de « petaoctets », contrepartie des dizaines de « petaflops » de puissance de calcul).

Comme ces machines sont de plus en plus puissantes et denses, leur consommation électrique devient très importante et dégage énormément de chaleur – tant dans les processeurs que dans les mémoires et réseaux de communication. Il faut donc mettre en place un système de refroidissement efficace et lui-même le moins énergivore possible - par exemple par circulation d’eau dans les portes des armoires ou dans les nœuds de calcul - ainsi qu’une climatisation dans la salle machine. Bien optimisés, ces systèmes de refroidissement consomment une fraction minoritaire de la consommation électrique globale, l’essentiel de l’énergie apportée au centre de calcul peut alors servir directement aux calculs et traitements de données et les coûts de fonctionnement sont mieux maîtrisés


Les supercalculateurs, des outils essentiels pour la modélisation et l’analyse des données au profit de la science et de l’industrie

Grâce aux progrès des supercalculateurs, la simulation numérique – calculs permettant de représenter un phénomène physique ou complexe sur un ordinateur – s’est généralisée à toutes les disciplines au point de devenir le « troisième pilier » de la méthode scientifique, aux côtés de la théorie et de l’expérimentation

La simulation numérique permet de mener des « expériences virtuelles » qui remplacent ou complètent les expérimentations lorsque celles-ci sont dangereuses (accidents, crash tests), à des échelles de temps trop longues ou trop courtes  (climatologie, physique atomique), à des échelles de taille trop petites ou trop grandes   (protéines, astrophysique) ou encore interdites (essais nucléaires)…

Depuis quelques années le calcul intensif, producteur de masses de données de plus en plus importantes, devient également un maillon indispensable du traitement des « mégadonnées » d’autres origines (expériences, observations, réseaux de capteurs, Internet…). Les techniques et méthodes du calcul haute performance (HPC) se retrouvent ainsi au cœur de processus mêlant production et analyse de données, modélisation numérique, techniques statistiques et d’apprentissage, intelligence artificielle...

Véritable fer de lance de ces approches, le HPC est la déclinaison la plus avancée à un moment donné de traitements parallèles qui se retrouvent souvent employés ou diffusés largement, à plus petite échelle et à terme, dans tous les secteurs de l’informatique.


Les différentes étapes
d’une simulation numérique

Les différentes étapes d’une simulation numérique

Prenons l’exemple d’un chercheur ou d’une équipe de recherche recourant au HPC. Les moyens de calcul sont fournis par des centres de calcul régionaux, nationaux ou encore internationaux. L’accès à ces ressources se fait souvent via des dossiers de demande préparés à l’avance, parfois soumis à des processus de sélection compétitifs.


L’activité complète de modélisation/simulation comporte plusieurs étapes :

  1. Décrire la réalité : les phénomènes physiques sont souvent complexes. Pour les représenter, les physiciens prennent en compte de nombreuses lois physiques, par exemple celles qui régissent les relations entre la vitesse, la température et la pression dans un fluide.

  2. Modélisation : Les lois physiques sont traduites en équations mathématiques, faisant intervenir l’ensemble des paramètres pertinents.

  3. Résolution numérique et programmation : les équations mathématiques, trop complexes pour être calculées humainement, doivent être traitées par un ordinateur. Comme celui-ci ne peut les résoudre en tous points et de manière continue, les mathématiciens les scindent en plus petits intervalles. Les équations sont calculées pour chacun des points et des instants pertinents. L’enchaînement des calculs à réaliser s’appelle un algorithme. En général, en simulation numérique, il s’agit au final de nombreuses additions et multiplications traduisant l’évolution des quantités physiques. Pour que l’ordinateur puisse exécuter l’algorithme, celui-ci est converti en langage informatique par les informaticiens.

  4. Validation : les trois étapes précédentes produisent un logiciel de calcul dont il faut assurer la mise au point « physique » (on parle de validation) et pas uniquement « informatique » (ici on parle de vérification). Il s’agit de délimiter la justesse physique des résultats pour certains domaines dans lesquels on peut se fier au logiciel. La comparaison avec des expériences ou résultats déjà connus est un ingrédient de la validation. De plus en plus, on recherche aussi l’estimation des incertitudes ou des sensibilités des calculs vis-à-vis de leurs paramètres. A défaut de réduire totalement les erreurs ou incertitudes, leur encadrement est apprécié.

    Ces quatre étapes ne sont pas nécessairement reproduites à chaque étude. L’effort de mise au point d’un environnement de simulation (logiciel de calcul et tous les outils complémentaires tels que la visualisation des résultats) se fait en amont soit par une équipe de recherche ou un groupement d’équipes, parfois par des sociétés logicielles spécialisées, et il est amorti sur des durées parfois très longues – années voire décennies.

    5. Exécution de simulations : grâce aux moyens de plus en plus performants mis à leur disposition par les spécialistes concevant les supercalculateurs et les centres de calcul, les physiciens et ingénieurs lancent leurs simulations numériques. Puis les résultats sont conservés dans des espaces de stockage de grande capacité, conçus pour un accès performant et pérenne. Les utilisateurs peuvent en général visualiser leurs données sur leur poste de travail de façon interactive, parfois directement connectés au système de stockage du centre de calcul - les masses de données concernées par le post-traitement peuvent en effet excéder les capacités locales de recopie ou les capacités de débit du réseau entre site de calcul et laboratoire.

VidéoLa simulation numérique : Lydie Grospellier


Les enjeux de la simulation numérique

La simulation numérique a pour objectifs :

  • De comprendre et faire progresser la science, dans tous les domaines ;
  • De concevoir : dans l’industrie, la simulation numérique permet de réduire le nombre de tests nécessaires au développement des produits, et donc le coût et la durée des étapes de recherche, développement, et conception. Ainsi, elle améliore la productivité, la compétitivité et la capacité d’innovation des entreprises dans tous les secteurs : aéronautique, cosmétique, bâtiment…
  • D’agir et décider : dans le domaine de la sécurité vis-à-vis des risques naturels ou industriels, de la santé, de l’environnement, de la prévision climatique..., la simulation numérique permet de répondre à des enjeux sociétaux.





Autres fiches "L'essentiel sur..." (5 documents)

Flux rss


Notions clés

  • Un « supercalculateur » est une machine agrégeant de nombreuses unités informatiques pour réaliser un grand nombre d’opérations de calcul ou de traitement de données « en parallèle ».

  • ​​Il permet de simuler un phénomène réel pour l’étudier, à partir de sa conversion en formules mathématiques, réunies en un algorithme complexe nécessitant des puissances de calcul haute performance, ou HPC.

  • ​​​​Il permet aussi de traiter les énormes résultats de nombreux calculs ou issus de mesures ou d’expériences, afin de donner sens aux données pour des applications scientifiques, industrielles, commerciales, sociétales.

  • Il est utilisable par les chercheurs, dans l’industrie, par les pouvoirs publics.








Robot de stockage du TGCC, contenant les données  générées par les calculs que  les utilisateurs réalisent grâce aux supercalc
Robot de stockage du Très grand centre de calcul du CEA (TGCC), contenant les données générées par les calculs que les utilisateurs réalisent grâce aux supercalculateurs. © P. Stroppa/CEA









































Switch d’interconnexion entre les baies de calcul
Switch d’interconnexion entre les baies de calcul © P.Stroppa/CEA































VidéoLa simulation numérique : Patrice Lucas
































































VidéoLa simulation numérique : Emeric Falize