46e Forum : Calcul haute performance : vers une hybridation avec l’IA ?

46e Forum : Calcul haute performance : vers une hybridation avec l’IA ?

Mardi 6 Avril 2021 : 10h00 – 12h00

Durée : 2h 

  • Introduction

  • 30min - Présentation du rapport 'Calcul et données: Nouvelles perspectives pour la simulation à haute performance' (Jean-Claude André, Académie des technologies)

    ‌L’Académie des technologies vient de rendre un rapport sur l’importance des nouvelles technologies associant calcul et données.

    L’intelligence artificielle et l’apprentissage profond apportent au scientifique et à l’ingénieur un ensemble de nouvelles méthodes qui, conjuguées à la simulation numérique, permettent de mieux reproduire, comprendre et prévoir le fonctionnement de très nombreux systèmes complexes présents au cœur de la recherche scientifique et des problèmes industriels, environnementaux, de santé …

    Ces nouvelles méthodes hybrides associent étroitement le calcul scientifique, fondé sur la connaissance des lois régissant les systèmes, et le traitement par l’intelligence artificielle de données en masse (big data). Elles associent le pouvoir prédictif des lois scientifiques à la puissance descriptive de l’apprentissage automatique.

    Ce rapport fait le point sur le contexte de développement de ces méthodes, et dégage un ensemble de recommandations pour faciliter leur mise en place.

    Bio

    Ancien élève de l’Ecole polytechnique (X65), docteur d’Etat ès-sciences physiques (1976), ancien directeur du Centre national de recherches météorologiques (CNRM, 1982-1994), ancien directeur du Centre européen de recherche et de formation avancée en calcul scientifique (CERFACS, 1995-2010), membre de l’Académie des sciences et de l’Académie des technologies

  • 15min - Questions / Réponses, discussion avec l'auditoire

  • 25min - L'IA : Remplaçante ou soutien des techniques de physique numérique ? (Corentin Lapeyre, Research Scientist Coordinator of the Helios workgroup - CERFACS - COOP team)

    L’engouement autour des méthodes d’intelligence artificielle est mérité dans de nombreux domaines, mais leur contribution au domaine de la physique et l’ingénierie numérique est encore très incertaine. Si les optimistes annoncent la fin des techniques traditionnelles de résolution d’équations physiques, d’autres évoquent des problèmes de fiabilité et d’interprétabilité, et sont circonspects au point de les rejeter en bloc. Dans cet exposé, nous tenterons d’explorer une vision plus nuancée de la recherche de synergies, où l’IA complète les techniques traditionnelles dans leurs faiblesses, tout en conservant ce qui fait leur force. Nous l’appuierons d’exemples concrets tirés des derniers résultats de la recherche au CERFACS.

    Bio

    Ingénieur de l’Ecole Centrale de Lyon (2011), Corentin Lapeyre a effectué sa thèse au CERFACS dans le domaine de la mécanique des fluides numérique, où il a étudié les instabilités et le bruit de combustion. Après un post-doctorat à l’Institut de Mécanique des Fluides de Toulouse sur le développement de modèles de combustion pour des carburants alternatifs, il est revenu au CERFACS pour s’intéresser aux aspects plus informatiques du calcul scientifique en 2016, un moment clé de l’essor de l’IA dans la communauté. Ce thème est devenu son sujet principal, et depuis 2018 il est chercheur permanent au CERFACS, où il a encadré une quinzaine d’étudiants sur ce sujet. Il est également animateur du groupe de travail HELIOS incluant l’ISAE-Supaéro et l’IMFT, et chercheur associé dans l’Institut Interdisciplinaire d’Intelligence Artificielle (3IA) toulousain ANITI.

  • 25min - Machine Learning for Physics at IFPEN (Thibault Faney, IFP Energies Nouvelles, Applied Mathematics Department)

    Si l’utilisation de méthodes d’apprentissage statistique a déjà rencontré un très large succès dans de nombreux domaines scientifiques et techniques, les applications aux sciences de l’ingénieur restent limitées par deux obstacles majeurs : (1) le manque de données de qualité, (2) la difficulté à incorporer la connaissance physique des systèmes dans les algorithmes. Prenant en compte un régime de type small data (à opposer au populaire big data), les chercheurs et ingénieurs se tournent de plus en plus vers une modélisation hybride des systèmes cherchant à associer approches basées sur la connaissance des lois de la physique et apprentissage des données. L’objectif de cet exposé est de proposer un panorama synthétique de différentes méthodologies d’hybridation faisant écho à deux enjeux industriels principaux :

    • Faciliter la prise de décision en améliorant la précision des simulations classiques
    • Réduire le temps de mise sur le marché des nouveaux produits en accélérant les simulations

    Chacune des approches sera illustrée par des exemples concrets issus du monde industriel.

     

    Bio

    Après un doctorat en mécanique des fluides numérique, Thibault a travaillé pendant 4 ans dans le milieu académique sur des problématiques diverses reliées à la simulation de la turbulence en passant successivement par l’Imperial College de Londres, l’école Centrale de Lyon et l’Institut Pprime (collaboration avec EDF R&D). Depuis 2017, il occupe un poste d’ingénieur numéricien au centre de R&D de Michelin. Son domaine d’expertise principal concerne l’hybridation entre méthodes de modélisation physique et méthodes d’apprentissage en particulier à travers des approches de réduction de modèles appliquées à la prédiction de performances et à la simulation des procédés de fabrication du pneumatique.

  • 25min - Vers une modélisation hybride pour l’ingénierie : associer modèles physiques et modèles d’apprentissage des données (Thibault Dairay – Michelin - Centre de Technologies de Ladoux - Service de Simulation et Datascience)

    Si l’utilisation de méthodes d’apprentissage statistique a déjà rencontré un très large succès dans de nombreux domaines scientifiques et techniques, les applications aux sciences de l’ingénieur restent limitées par deux obstacles majeurs : (1) le manque de données de qualité, (2) la difficulté à incorporer la connaissance physique des systèmes dans les algorithmes. Prenant en compte un régime de type small data (à opposer au populaire big data), les chercheurs et ingénieurs se tournent de plus en plus vers une modélisation hybride des systèmes cherchant à associer approches basées sur la connaissance des lois de la physique et apprentissage des données. L’objectif de cet exposé est de proposer un panorama synthétique de différentes méthodologies d’hybridation faisant écho à deux enjeux industriels principaux :

    • Faciliter la prise de décision en améliorant la précision des simulations classiques
    • Réduire le temps de mise sur le marché des nouveaux produits en accélérant les simulations

    Chacune des approches sera illustrée par des exemples concrets issus du monde industriel.

    Bio

    Après un doctorat en mécanique des fluides numérique, j’ai travaillé pendant 4 ans dans le milieu académique sur des problématiques diverses reliées à la simulation de la turbulence en passant successivement par l’Imperial College de Londres, l’école Centrale de Lyon et l’Institut Pprime (collaboration avec EDF R&D). Depuis 2017, j’occupe un poste d’ingénieur numéricien au centre de R&D de Michelin. Mon domaine d’expertise principal concerne l’hybridation entre méthodes de modélisation physique et méthodes d’apprentissage en particulier à travers des approches de réduction de modèles appliquées à la prédiction de performances et à la simulation des procédés de fabrication du pneumatique.

Mercredi 7 Avril 2021 : 9h30 – 12h15

Durée : 2h30 

  • Introduction

  • 15min - Présentation Lauréat Prix Paul Caseau 2020 Section Informatique et HPC : Adaptive Large Eddy Simulations based on discontinuous Galerkin methods (Fabio Neddei, ONERA)

    The objective of this PhD thesis has been to improve the accuracy and the computational efficiency of Large Eddy Simulations (LES) by means of discontinuous Galerkin (DG) methods. For this purpose the main research topic investigated has consisted in resolution adaptation strategies.

    In the framework of DG methods the spatial resolution can be efficiently adapted by modifying either the local mesh size (h-adaptation) or the degree of the polynomial representation of the solution (p-adaptation). The automatic resolution adaptation requires the definition of an error estimation strategy to analyse the local solution quality and resolution requirements. During the first part of this study, the efficiency of several error estimators derived from the literature has been compared by performing p- and h-adaptive simulations of laminar steady and unsteady flows. Based on this comparative study a suitable refinement indicator has been identified for adaptive scale-resolving simulations.

    Both static and dynamic p-adaptive algorithms for the simulation of unsteady flows have then been developed and analysed. It has been demonstrated by numerical simulations that the proposed algorithms can provide a reduction of the computational cost for the simulation of both transient and statistically steady flows. In order to preserve the parallel efficiency of the DG method however, load-balancing strategies need to be employed in order to correctly distribute the computational load of each simulation even in the case of locally variable polynomial degree and when employing non-conforming meshes. An optimal strategy based on direct performance measurements has then been proposed and demonstrated for the evaluation of the load weights which are employed in the load-balancing algorithm.

    Finally, a novel error estimator has been introduced. It is local, requiring only information from the element and direct neighbours, and can be computed at run-time with limited overhead. Static p-adaptive simulations of the statistically steady flow past a NACA0012 airfoil at moderate Reynolds number have been performed to demonstrate the efficiency of the developed techniques for the reduction of the computational cost and the improvement of the accuracy of LES using DG methods.

    Bio

    Fabio Naddei is a research engineer, currently working in the NFLU unit of ONERA, focusing on the development of innovative high-order numerical methods for computational fluid dynamics. He realised his studies in Italy in the University of Naples « Federico II » and his PhD thesis at ONERA on the « Adaptive Large Eddy Simulations based on discontinuous Galerkin methods » as part of an european ITN project.

  • 35min - Présentation du programme IRT-SystemX IA2, Intelligence Artificielle et Ingénierie Augmentée (Marc Schoenauer Directeur de Recherche, co-responsable de l'équipe TAU, Inria Île-de-France. Coordinateur du programme Advance IA2, IRT-SystemX)

    Les outils d’intelligence artificielle sont maintenant ubiquitaires dans l’ensemble du monde numérique, et le domaine de la simulation numérique de phénomèmes mécaniques, physiques, chimiques, etc ne fait pas exception. C’est dans ce contexte qu’est né le programme IA2 de l’IRT SystemX qui sera introduit dans cette intervention, programme qui vise à aider les équipes d’ingéierie des entreprises à bien négocier le virage de l’IA. Les six projets qui composent ce programme seront rapidement introduits, ainsi que le projet fédérateur Advance, et quelques premièrs résultats obtenues dans le projet HSA (Hybridation Simulation Apprentissage) seront présentés plus en détail.

    Bio

    Marc Schoenauer is Principal Senior Researcher (Directeur de Recherche 1ère classe) with INRIA. Ecole Normale Supérieure (1975), then PhD in Applied Maths at Paris 6 U. (1980). He has been full CHargé de Recherche with CNRS (1980-2001), at CMAP (the Applied Maths Lab.) at Ecole Polytechnique. He then joined INRIA, and in 2003 founded the TAO team (Machine Learning and Optimization) at INRIA Saclay together with Michèle Sebag.
    Marc Schoenauer has been working since early 90s at the interface between Evolutionary Computation (EC) and Machine Learning (ML). He is author of more than 150 papers in journals and major conferences. He is or has been (co-)advisor of 35 PhD students. He has been Chair of SIGEVO, the ACM Special Interest Group for Evolutionary Computation (2015-2019). He was the founding president (1995-2002) of Evolution Artificielle, the French Society for Evolutionary Computation, and has been president of AFIA, the French Association for Artificial Intelligence (2002-2004). He seconded Cédric Villani in writing his report on the French Strategy for AI delivered in March 2018.
    Marc Schoenauer has been Editor in Chief of Evolutionary Computation Journal (2002-2009, now on the Advisory Board), is or has been in the Editorial Board of the most prestigious journals in EC: IEEE Trans. on EC (1996-2004), TCS-C (2001-2006), GPEM (1999-2017), ASOC (2000-2014), and the recent (2019) ACM-TELO. He is Action Editor of Journal of Machine Learning Research (JMLR) since 2013.

  • 25min : Apprentissage par les données pour la simulation : une révolution nécessaire de la validation et de la certification ? (Stéphane Andrieux - Directeur Scientifique Général , ONERA)

    Les techniques d’apprentissages constituent indéniablement un levier considérable de progrès pour la simulation haute performance. On peut ainsi espérer gagner en précision, en adaptabilité mais aussi en vitesse de résolution. Mais le succès de ces techniques dans d’autres domaines, notamment ceux où l’émergence d’un formalisme équationnel pour représenter la réalité que l’on cherche à appréhender est soit impossible soit extrêmement coûteux et long (par exemple pour de nouveaux domaines de modélisation de phénomènes couplées et non linéaires), ne doit pas nous faire oublier l’obligation de prudence et de rigueur si l’on vise des domaines applicatifs à forts enjeux de « garanties ». Au-delà de la nécessaire recherche de l’explicatibilité des méthodes et des résultats produits, tout particulièrement par l’apprentissage dit profond, deux questions méritent d’être soulevées. La première concerne les fondements et les risques liés au processus d’inférence statistique au cœur des méthodes d’apprentissage. La seconde porte sur l’affaiblissement de la puissance descriptive et prédictive du format équationnel. Grâce aux outils de l’analyse mathématique développés depuis deux siècles, il a été possible d’analyser les modèles, qu’ils se présentent sous forme d’équations différentielles ou d’équations aux dérivées partielles. Ces analyses, notamment qualitatives, permettent d’en comprendre la portée et la capacité à prédire, d’étudier les comportements « aux limites », ou encore de prévoir les difficultés prévisibles la simulation numérique. On tentera d‘en donner quelques illustrations et d’en déduire les nécessaires évolutions des processus de validation et de certification de ces modèles. Comme le récent rapport de l’Académie des Technologies le souligne, ces évolutions sont indispensables car on ne peut imaginer exploiter les potentialités de l’apprentissage par les données dans des domaines où la sûreté est l’élément clé, sans profondément revoir les conditions de démonstration, de preuve et de confiance associées aux applications visées et à l’élaboration de la prise de décision. Ces techniques et leur assimilation sont encore extrêmement jeunes quand on les compare à durée qui nous sépare des premières simulations numériques, il y a un indéniablement effort collectif à mener pour les faire mûrir.

    Bio

    Stéphane ANDRIEUX est diplômé de l’Ecole Nationale des Ponts et Chaussées, docteur ingénieur et habilité à diriger les recherches. Il est Directeur Scientifique Général de l’ONERA, après une carrière à la recherche d’EDF, où il a été directeur scientifique et a créé en 2024 une unité mixte de recherche entre EDF, le CNRS et le CEA. Prix Ernest Déchelle de l’Académie des Sciences en 2006, il est membre de l’Académie des Technologies. Il est professeur à l’Ecole des Ponts ParisTech où il a publié un ouvrage, enseigné la mécanique à l’Ecole Polytechnique et à l’Ecole des Mines et dans des écoles thématiques du CNRS. Il est l’auteur de plus de 40 publications dans des revues internationales à comité de lecture.

  • 15min - Pause

  • 75min - Table ronde Formation (Modérateur : C. Lambert (Directrice du CERFACS - Projet EuroHPC HPC-CC)

    Avec la participation de :

    • Stéphane Labbé – Paris-Sorbonne Université
    • Jean-Claude André – Académie des Technologies

    Les experts pourront aborder les nombreuses facettes de la problématique de la formation dans ce domaine du calcul et du traitement de données « de puissance » :

    • Programmes existants Grandes Ecoles ou Universités
    • Benchmarking par rapport aux pays voisins
    • Besoins de l’industrie
    • Débouchés publics/privés
    • Freins et nécessaires évolutions en termes culturels/structurels dans la recherche publique.