Forum des 30 ans d’Orap

Forum des 30 ans d’Orap

HPC et simulation à l’heure de l’IA:

défis et opportunités

14 et 15 octobre 2024, BNF, Paris

Programme en cours de constitution.

Lundi 14 octobre 2024

14h à 18h

  • Introduction

  • 10 ans de HPC: Progrès et effets observés sur la prédiction des écoulements turbulents réactifs, pour quel devenir ? (Laurent Gicquel, Cerfacs)

    Résumé

    En 10 ans beaucoup de choses ont évolué en terme de simulations et de HPC. Que ce soit des changements de technologies ou la croissance continue de la puissance de calcul, la stratégie de simulation dédiée à la prédictions des écoulements complexes, turbulents et réactifs a aussi vu son champs d’application s’étendre et bien évidemment évoluer. A l’occasion de ce 30eme anniversaire et suite à la vision donnée lors des 20 ans d’ORAP, un nouvel état des lieux sera proposé sur la base de l’expérience du CERFACS autour de l’application des solveurs LES en lien avec les problématiques industrielles. Ce sera aussi l’occasion pour, si possible, se projeter sur les challenges à venir liés au HPC pour ce domaine particulier.

    Bio

    Dr. L. Gicquel détient un doctorat en mécanique des fluides et énergétique de l’Université de New York à Buffalo (2001). Il a ensuite rejoint le CERFACS pour être récemment nommé Project Leader de l’équipe « Energy & Safety » anciennement équipe « Combustion ».  Tout au long de ces 23 ans au CERFACS, il a pu contribuer au développement de la Simulation aux Grandes Echelles (SGE), que ce soit au travers de l’outil AVBP, la modélisation de la turbulence, des écoulements turbulents et réactifs ou plus largement l’utilisation de la SGE appliquée aux problèmes de l’industrie.

  • Idefix, un code de simulation des plasmas astrophysiques pour les architectures exascale (Geoffroy Lesur, CNRS)

    Résumé
    Idefix est un code aux volumes finis de type Godunov simulant les équations de la magnéto-hydrodynamique. Il est conçu pour fonctionner sur des supercalculateurs accélérés en utilisant la couche d’abstraction C++ Kokkos. Dans cette présentation, je discuterai de nos motivations pour créer un nouveau code (par opposition au portage d’un code existant) et de la voie que nous avons suivie. Le code étant désormais public et de plus en plus utilisé, j’illustrerai également les difficultés rencontrées par les physiciens lors de l’utilisation de codes de ce type, et la manière de les résoudre afin de maximiser la transition de nos communautés vers la nouvelle génération de machines accélérées.
    Bio
    Geoffroy Lesur est directeur de recherche CNRS à l’Institut de planétologie et d’astrophysique de Grenoble, Université de Grenoble-Alpes. Il travaille sur des modèles magnéto-hydrodynamiques d’écoulements astrophysiques – tels que les disques protoplanétaires, les variables cataclysmiques et les jets – en utilisant une combinaison d’approches analytiques, de simulations numériques et d’observations à haute résolution. Il est responsable de l’ERC MHdiscs portant sur la modélisation des disques protoplanétaires, et président du comité thématique « astronomie & géophysique » de GENCI.
  • 15h30-16h00 Pause

  • Résultats marquants (suite)

  • 18h00 - 20h00 Cocktail

 

Mardi 15 octobre 2024

9h à 18h

  • Introduction

  • 9h00 - 10h30 Evolution du panorama

    • Historique 
    • Panorama Européen 
    • PRACE 
    • EUROHPC 
    • Panorama National 
  • 10h30-11h00 Pause

  • 11h00-12h30 Perspectives

    • Panorama International 
    • Evolutions techniques matérielle et logicielle
      • Evolution des architectures
      • Se préparer aux nouvelles architectures
  • Some (Post-)Exascale Challenges, An NumPEx/InpEx international perspective (Jean-Yves Berthou, Inria)

    Abstract

    The challenges of Exascale and the technological and scientific breakthrough it represents have been widely discussed in Europe and internationally for over 15 years. Some of the participants at the 30th ORAP Forum may remember their involvement in the IESP and  BDEC projects, as well as in the European EESI and EXDCI contributions. Exascale systems are currently being installed in the USA and China, others will soon arrive in Europe, and post-exascale systems are already announced for Japan at the end of this decade. This presentation will detail some Exascale issues that remain (partially) unresolved, then discuss some challenges of the Post-Exascale age. We will focus in particular on four of these, which have been discussed as part of the French NumPEx program and of the international InPEx project:  “AI4HPC/HPC4AI”, “From the edge to HPC systems, the digital continuum », « Software, the new frontier » and « Co-design of software/applications ».

    Bio

    Dr. Jean Yves BERTHOU joined Inria in February 2019 as director of the Inria Saclay Research Center. Created in 2008, this center has 550 scientists, forming 42 research teams, and 60 collaborators working in research support services. The main scientific and technological priorities of Inria Saclay Research center are IA and data sciences, scientific computing and optimisation, cybersecurity, safety, proof and verification, quantum science, Human Machine Interactions with a strong focus on Bio&Heath, energy, transport, defense challenges. The centre is a key player in research in the digital sciences on the Saclay campus. It promotes the values and projects that give Inria its originality in the research landscape: scientific excellence, innovation and multi-disciplinary partnerships to maximise Inria’s scientific, economic and societal impact.

     

    From 2015 to 2019, Jean-Yves was Director of Innovation for the EDF Business Unit Transformation and Operational Efficiency (6000 employees) which produces and operates IT, real estate, purchasing, and tertiary (HR, accounting, …) services and products for the entire EDF group. Jean-Yves set up a dynamic innovation approach, which has resulted in the industrialization of more than 250 innovations and nearly 70 partnership contracts with start-ups. From 2011 to 2015, Jean-Yves was head of the Numerical and Mathematical Department (NuMa) at the French National Research Agency (ANR), in charge of organizing the selection, funding and monitoring of research projects as well as setting up European and international collaborations. From 1997 to 2011, he held various positions within the research department of EDF, EDF R&D. He was successively researcher, project leader and manager before becoming head of the Simulation program and the Information Technology program of EDF R&D.

     

    For 15 years, Jean-Yves was regularly called upon by the European Commission for expert missions, particularly in the fields of High Performance Computing, open science or research and innovation strategy. He initiated in 2010 EESI’s European support action, the European Exascale Software Initiative, www.eesi-project.eu. EESI has produced a European roadmap preparing for the arrival in 2020 decade of infrastructure, software and applications for high-end Exascale scientific computing. This roadmap has been widely disseminated and has had an important impact in Europe and internationally.

  • 12h30 - 14h00 Déjeuner

  • 14h00 - 15h30 Perspectives (suite)

    • IA générative et HPC  
    • HPC/IA traitement de données
    • Jumeaux numériques 
    • Enjeux du HPC et de l’IA : Frugalité et reproductibilité 
  • Jumeaux Numériques - mythes, rêves et réalité / Digital Twins - myths, dreams and reality (Mark Asch)

    Résumé

    Les jumeaux numériques consistent en une vaste panoplie de modèles et d’implémentations. D’après Gartner, ils ont atteint le sommet de leur “hype cycle” en 2018 et sont désormais reconnus comme étant trop complexes, trop couteux et non-transférables. Sommes-nous en fin de leur cycle de vie utile ? Dans ce talk je proposerai un cadre mathématique pour leur compréhension et leur implémentation qui peut traiter adéquatement la question de la complexité et faire le lien entre la modélisation classique et les approches “data-driven ». Ensuite, je discuterai de leur remplacement potentiel par des modèles d’IA générative.

    Digital twins consist of a vast panoply of models and implementations. According to Gartner, they reached the peak of their hype cycle in 2018 and are currently considered as being too complex, too costly and non-transferable. Are we at the end of their useful life cycle? In this talk I will propose a mathematical framework for their understanding and implementation that deals adequately with the issue of complexity and describes the relations between classical modeling and data-driven approaches. Then I will discuss their potential replacement by generative AI models.
    Bio
    Mark Asch est professeur émérite de mathématiques appliquées. Il a un B.S. an Agronomie et un M.S. en Physique Appliquée de l’université Hébraïque de Jerusalem, et un M.S. et Ph.D. en mathématiques du Courant Institute de New York University. Il était professeur de mathématiques appliquées jusqu’en 2023 à l’université de Picaride Jules Verne. Pendant sa carrière il a eu des détachements au CNRS, au Ministère de la Recherche, à l’ANR et chez Total SA en tant que conseiller en mathématiques et data science. Ses intérêts de recherche portent sur l’acoustique, la propagation d’ondes en milieux aléatoires, les problèmes inverses, l’assimilation de données et leur couplages avec l’apprentissage statistique, ainsi que les jumeaux numériques. En plus de nombreux articles sur ces sujets, il a publié 2 livres chez SIAM sur l’assimilation de données (2016) et sur les jumeaux numériques (2022).
    Mark Asch is emeritus professor of Applied Mathematics. He holds a B.S. degree in agronomy, an M.S. degree in applied physics from the Hebrew University of Jerusalem (1984) and M.S. and Ph.D. degrees in mathematics (1990) from the Courant Institute of New York University. He was professor of mathematics until 2023 at the University of Picardy, where he was vice-chancellor for research between 2005 and 2008. During his career he  was on secondment at CNRS in Paris, the French Ministry of Research as scientific officer for mathematics, computing, data and e-infrastructures,  the French National Research Agency (ANR).  He also spent 2 years on secondment in industry, working as scientific advisor to corporate research at Total SA. His research interests are in acoustics, wave propagation, random media, control theory and the application of control methods and machine learning to inverse problems. He has published over 70 articles and conference proceedings in these domains. His book, “Data Assimilation: Methods, Algorithms and Applications”, was published in 2016 by SIAM, USA. His latest book, « A toolbox for Digital Twins: from model-based to data-driven », SIAM, appeared in 2022.
  • Beyond Exascale Computing (Katherine Yelick, Lawrence Berkeley National Laboratory)

    Abstract

    The first generation of exascale computing systems are online along with powerful new application capabilities and system software. At the same time, demands for high performance computing continue to grow for more powerful simulations, adoption of machine learning methods, and huge data analysis problems arising for new instruments and increasingly ubiquitous data collection devices.  In its broadest sense, computational science research is expanding beyond physical and life sciences into social sciences, public policy, and even the humanities.

    With chip technology facing scaling limits and diminishing benefits of weak scaling, it will be increasingly difficult to meet these new demands.  Disruptions in the computing marketplace, which include supply chain limitations, a shrinking set of system integrators, and the growing influence of cloud providers are changing underlying assumptions about how to acquire and deploy future supercomputers.  At the same time there are discussions around cloud computing, specialized hardware, and the role of AI, both as a technique in science and as a driver of computing hardware and software.

    In this talk I’ll present some of the findings of a US National Academies consensus report on the future of post-exascale computing, which states that business as usual will not be sufficient.  I will also give my own perspectives on some of the challenges and opportunities faced by the research community.

    Bio

    Katherine Yelick is the Vice Chancellor for Research at the University of California, Berkeley, where she also holds the Robert S. Pepper Distinguished Professor of Electrical Engineering and Computer Sciences. She is also a Senior Faculty Scientist at Lawrence Berkeley National Laboratory. She has been recognized for her research and leadership in high performance computing and is a member of the National Academy of Engineering and the American Academy of Arts and Sciences.

  • 18h00 Cloture

  • Section