Vous êtes ici : Accueil > Domaines de recherche > Les recherches du CEA sur... le calcul de haute performance

Les recherches du CEA sur | Supercalculateurs | Simulation & modélisation


Les recherches du CEA sur…

le calcul haute performance

Publié le 31 mars 2017
Le CEA est l’un des principaux acteurs du « calcul haute performance » à l’échelle internationale.  Il mène dans ce domaine une recherche de pointe portant sur les  technologies, les infrastructures et les applications numériquement intensives (intensives  par la quantité de calculs ou par la quantité des données). Initiées par les besoins de la dissuasion nucléaire, les compétences du CEA sont aujourd’hui partagées avec un grand nombre d’acteurs de la recherche et de l’industrie.
Le calcul haute performance (high performance computing ou HPC) est devenu un outil essentiel de la recherche scientifique, technologique et industrielle. En France, le CEA fait figure de pionnier dans ce domaine grâce aux connaissances et au savoir-faire qu’il a développés pour le « Programme Simulation », porté par sa direction des applications militaires. 

Des supercalculateurs au meilleur rang mondial

Les compétences HPC du CEA sont le fruit d’un partenariat étroit avec l’industriel Atos-Bull et ont permis d’accompagner ce dernier dans le développement de solutions performantes et compétitives. Les supercalculateurs développés par les deux partenaires figurent régulièrement dans le peloton de tête des machines les plus puissantes ?  à l’échelle mondiale et équipent de nombreux grands centres de recherche ou industriels. Les technologies développées sont aussi diffusées à plus large échelle dans les entreprises.  

Depuis 2001, quatre générations de supercalculateurs ont été installées sur le site de Bruyères-le-Châtel de la direction des applications militaires du CEA. En 2010, le supercalculateur TERA 100, dédié au programme Simulation, a été la première machine européenne à franchir la barre du million de milliards d’opérations par seconde, soit 1 petaflops. Son successeur, TERA 1000, devrait atteindre 25 petaflops en 2017, préfigurant les premiers supercalculateurs « exaflopiques », attendus à l’horizon 2020. Depuis TERA 10 en 2005, les systèmes Bull installés au CEA-DAM ont constitué des ‘têtes de série’ de gammes commerciales de machines vendues dans de nombreux pays d’Europe ou hors Europe. 

Évolutions des supercalculateurs
au CEA

  • Années 1950 : premiers ordinateurs de calcul scientifique au CEA
  • Années 1960-70 : règne des ordinateurs 'mainframe' IBM partout au CEA et CDC ; le CEA les obtient en général sensiblement après les États-Unis, parfois à cause d'embargos.
  • Années 1980 : début de 20 ans d'une période de calcul vectoriel, longue série de calculateurs Cray
  • 1996 : dernier calculateur vectoriel de la direction des applications militaires du CEA, le Cray T90, qui sera arrêté en 2002 ; la direction des applications militaires du CEA aura aussi 2 superordinateurs massivement parallèles Cray à la fin des années 1990 ; cela restera expérimental : l'ère du massivement parallèle se construira finalement sur des architectures de cluster moins spécialisées
  • 2001 : début de l'ère du calcul massivement parallèle, avec l'arrivée de TERA 1, qui franchit la barre du teraflops
  • 2003 : création du CCRT, ouverture du calcul haute performance aux industriels
  • 2005 : Arrivée de TERA 10 (conçu par Bull à base de processeurs Intel), machine 12 fois plus puissante que TERA 1
  • 2010 : arrivée de TERA 100, fruit d'une collaboration CEA/Bull qui franchit la barre du petaflops.
  • 2016 : début de TERA 1000 ; installation de TERA 1000-1 qui remplace TERA 100 en plus gros et plus efficace énergétiquement ; début de déploiement de TERA 1000-2, qui sera 20 fois plus puissant que TERA 100 en 2017 (et 10 fois plus que TERA 1000-1), utilisant une architecture de processeur 'manycore' et préfigurant l'exascale à venir après 2020

Depuis 2014, l’état français a confié au CEA la mission de "disposer à l'horizon 2020 de la capacité de concevoir et réaliser des ordinateurs de grande puissance de manière durablement compétitive". Financée dans le cadre du Programme d’Investissements d’Avenir, cette action consiste à mettre en place un ambitieux programme de R&D avec les partenaires industriels compétents, afin de faire évoluer architecture et environnement logiciel des supercalculateurs.

Une filière nationale d’excellence

A côté des installations dédiées à la Défense (Programme Simulation), le complexe de calcul du CEA à Bruyères-le-Châtel abrite également le Très Grand Centre de calcul (TGCC).

Les infrastructures du TGCC répondent aux besoins de la recherche française et européenne  en matière de calcul haute performance. Le TGCC héberge notamment la machine Curie d’une puissance de 1,8 petaflops. Le TGCC héberge également le Centre de Calcul Recherche et Technologie (CCRT) qui permet au CEA et aux industriels (ex : Areva, Airbus, EDF, L’OREAL, SAFRAN Thales, Valeo, etc.) de partager leurs compétences et moyens de simulation numérique. Depuis 2013, le CCRT comporte aussi la plateforme centrale d’hébergement et de traitement des données de génomiques, issues du projet national «France Génomique». Mi-2016, le CCRT a accueilli le nouveau supercalculateur Cobalt (1,5 petaflops).

En 2011, Le CEA a également co-fondé la Maison de la simulation  pour stimuler le développement de la simulation et l’utilisation d’outils numériques communautaires dans le secteur du HPC. Cela implique une expertise au-delà des seuls calculateurs, expertise mise en œuvre grâce à des équipes pluridisciplinaires et au développement de tous les outils nécessaires à l’utilisation optimale des machines (moyens de stockage des données et de visualisation des résultats, logiciels d’aide pour la gestion et l’utilisation des machines, codes de simulation…).


Une R&D sans cesse renouvelée   

Les centres de calcul deviennent également des centres de traitement de l’information. : Dd’une part les masses de données issues des calculs sont de plus en plus volumineuses et difficiles à traiter et/ou déplacer ; l’équilibre entre les capacités de calcul et de manipulation et circulation des données devient ainsi un aspect majeur de la conception des supercalculateurs et de leur environnement local. D’autre part, émergent des catégories de données ne provenant pas du calcul mais dont la masse et la complexité exigent le recours à des approches de type HPC. Ces deux catégories de problèmes se combinent parfois au sein d’un même domaine d’étude. Ainsi les centres de calcul deviennent des lieux de convergence entre calcul, analyse et traitement de données pouvant inclure apprentissage et intelligence artificielle.

Ces tendances exacerbent de nouvelles problématiques et appellent des efforts de R&D dans différents domaines :

  • La consommation d’énergie : aujourd’hui, une machine de 25 petaflops nécessite typiquement 5 mégawatts de puissance électrique, rendant peu réaliste la perspective de déploiement de machines exaflopiques. Les pistes de R&D portent sur la finesse de gravure des transistors, la simplification des processeurs, l’optimisation d’assemblage des composants, les systèmes de refroidissement ;
  • Le parallélisme : il s’agit de définir l’architecture matérielle et logicielle permettant de traiter un très grand volume de calculs ou d’informations de manière simultanée via des algorithmes spécialisés : dans les supercalculateurs travaillent de concert plusieurs dizaines ou centaines de milliers de processeurs contenant des millions de cœurs de calcul ;
  • La gestion des flux de données : la quantité et la rapidité des données produites doivent pouvoir être adaptées aux capacités des infrastructures (stockages, traitements…). Parmi les pistes de R&D explorées, le CEA étudie des logiciels de gestion dynamique des processeurs, des filtres triant à toutes les étapes les informations générées ;
  • Fiabilité des systèmes : la multiplication des composants et l’accroissement des capacités des supercalculateurs implique nt l’augmentation du risque de panne, rendant indispensable de gérer la résilience (tolérance aux pannes) des machines dès la conception de leur architecture.

Quelques grands projets menés par le CEA dans le HPC:
  • Programme Simulation pour le maintien de la capacité de la dissuasion nucléaire de la France.
  • Accueil de l’e-infrastructure de stockage et de traitement des données de France Génomique, projet soutenu par le programme des investissements d’avenir et qui vise la mutualisation et la valorisation des ressources des principales plateformes françaises de génomique et bio-informatique.
  • Projet européen EoCoE dédié à la simulation numérique pour la transition énergétique.
  • Exercices internationaux de comparaison entre modèles climatiques (CMIP, dont la synthèse nourrit une part importante des rapports du GIEC
  • Simulation par l’Ineris de la qualité de l’air lors de la vague de pollution de janvier 2009, avec une résolution record de 15 kilomètres (amélioration d’un facteur 200)
  • Étude et réduction de la consommation des turboréacteurs de dernière génération de Safran
  • Optimisation des processus de conception et de développement de l’équipementier automobile Valeo, en particulier pour les systèmes de refroidissement de moteur automobile ou d’habitacle.




Haut de page