Forum des 30 ans d’Orap

Forum des 30 ans d’Orap

HPC et simulation à l’heure de l’IA:

défis et opportunités

14 et 15 octobre 2024, BNF, Paris

L’inscription est ouverte https://orap30ans.sciencesconf.org/. Pour des raisons de logistique, l’inscription est ouverte jusqu’au 1er octobre prochain.

Lundi 14 octobre 2024

14h à 18h

  • 13h15 Accueil-café

  • 14h00 Ouverture du Forum

  • 14h10-15h00 Fluides et applications (modérateur Denis Veynante)

  • 14h10-14h30 10 ans de HPC: Progrès et effets observés sur la prédiction des écoulements turbulents réactifs, pour quel devenir ? (Laurent Gicquel, Cerfacs)

    Résumé

    En 10 ans beaucoup de choses ont évolué en termes de simulations et de HPC. Que ce soit des changements de technologies ou la croissance continue de la puissance de calcul, la stratégie de simulation dédiée à la prédictions des écoulements complexes, turbulents et réactifs a aussi vu son champ d’application s’étendre et bien évidemment évoluer. A l’occasion de ce 30ème anniversaire et suite à la vision donnée lors des 20 ans d’ORAP, un nouvel état des lieux sera proposé sur la base de l’expérience du CERFACS autour de l’application des solveurs LES en lien avec les problématiques industrielles. Ce sera aussi l’occasion pour, si possible, se projeter sur les challenges à venir liés au HPC pour ce domaine particulier.

    Bio

    Dr. L. Gicquel détient un doctorat en mécanique des fluides et énergétique de l’Université de New York à Buffalo (2001). Il a ensuite rejoint le CERFACS pour être récemment nommé Project Leader de l’équipe « Energy & Safety » anciennement équipe « Combustion ».  Tout au long de ces 23 ans au CERFACS, il a pu contribuer au développement de la Simulation aux Grandes Echelles (SGE), que ce soit au travers de l’outil AVBP, la modélisation de la turbulence, des écoulements turbulents et réactifs ou plus largement l’utilisation de la SGE appliquée aux problèmes de l’industrie.

  • 14h30- 14h50 Simulations des océans et climats passés, présents et futurs : challenges et opportunités de l'IA (Julie Deshayes, CNRS/LOCEAN)

    Résumé
    La modélisation des océans et du climat présente des contraintes spécifiques par rapport à d’autres domaines d’applications du HPC et de l’IA : multiplicité des échelles spatio-temporelles, manque d’observations, volume des données nécessaires aux calculs, entre autres. Le Centre de Modélisation du Climat de l’Institut Pierre Simon Laplace explore plusieurs pistes basées sur des techniques IA pour réduire le coût environnemental de ses modèles et quantifier l’incertitude des simulations, notamment les projections du climat futur qui alimentent les rapports du GIEC.
    Bio
    Diplomée de l’UPMC (maintenant Sorbonne Universités) en 2006 après une thèse en océanographie physique, Julie Deshayes bénéficie d’une bourse postdoctorale américaine pour poursuivre ses études aux Etats-Unis, avant d’être recrutée au CNRS en 2008. Ses travaux de recherche concernent les courants marins : leurs mécanismes de variabilité, leur rôle dans le climat terrestre et leur représentation numérique. Directrice de recherche depuis 2023, elle co-dirige actuellement le Centre de Modélisation du climat de l’IPSL, et coordonne les activités autour des émulateurs des modèles de climat.
  • 15h-15h50 Physique et astro-physique (modérateur Edouard Audit)

  • 15h00 - 15h20 Idefix, un code de simulation des plasmas astrophysiques pour les architectures exascale (Geoffroy Lesur, CNRS)

    Résumé
    Idefix est un code aux volumes finis de type Godunov simulant les équations de la magnéto-hydrodynamique. Il est conçu pour fonctionner sur des supercalculateurs accélérés en utilisant la couche d’abstraction C++ Kokkos. Dans cette présentation, je discuterai de nos motivations pour créer un nouveau code (par opposition au portage d’un code existant) et de la voie que nous avons suivie. Le code étant désormais public et de plus en plus utilisé, j’illustrerai également les difficultés rencontrées par les physiciens lors de l’utilisation de codes de ce type, et la manière de les résoudre afin de maximiser la transition de nos communautés vers la nouvelle génération de machines accélérées.
    Bio
    Geoffroy Lesur est directeur de recherche CNRS à l’Institut de planétologie et d’astrophysique de Grenoble, Université de Grenoble-Alpes. Il travaille sur des modèles magnéto-hydrodynamiques d’écoulements astrophysiques – tels que les disques protoplanétaires, les variables cataclysmiques et les jets – en utilisant une combinaison d’approches analytiques, de simulations numériques et d’observations à haute résolution. Il est responsable de l’ERC MHdiscs portant sur la modélisation des disques protoplanétaires, et président du comité thématique « astronomie & géophysique » de GENCI.
  • 15h20-15h40 Simulation de plasmas en tokamak pour la fusion par confinement magnétique (Peter Donnel, IRFM)

    Résumé

    La recherche en fusion est en pleine effervescence. Divers concepts ont été proposés pour confiner des plasmas extrêmement chauds (plusieurs centaines de millions de degrés) suffisamment longtemps pour produire de l’énergie à partir de réactions de fusion. Parmi ces concepts, le tokamak est actuellement le plus prometteur et a été choisi pour le projet international ITER en construction sur le site de Cadarache. Le succès de ce projet passe notamment par la compréhension et la prédiction du transport turbulent de particules et de chaleur au sein du plasma.

    Les plasmas de tokamak sont peu collisionnel et nécessitent donc une description cinétique. De plus, le confinement du plasma augmente fortement avec le rapport entre la taille de la machine et la taille des structures turbulentes. Hors une bonne description du confinement nécessite de simuler l’ensemble des échelles présentes. Ainsi le coût numérique d’une simulation d’un plasma de tokamak est important et croît avec sa qualité.

    Le code GYSELA, développé au CEA depuis plus de 20 ans, permet de modéliser le transport turbulent au sein des plasmas de tokamaks. Nous verrons à travers quelques exemples comment l’augmentation de la puissance de calculs des 10 dernières années a permis d’augmenter considérablement la précision des prédictions sur des tokamaks de taille actuel et pourquoi des machines Exascale seront nécessaire pour modéliser des plasmas de la taille d’ITER.

    Bio

    Peter Donnel est chercheur à l’Institut de Recherche sur la Fusion Magnétique (IRFM) du CEA depuis 2021. Après des études de physique à l’ENS Ulm, il a réalisé sa thèse (2015-2018) également à l’IRFM, suivi d’un post-doc à l’EPFL. Il travaille sur la description théorique et numérique des plasmas de tokamaks.

  • 15h50-16h20 Pause

  • 16h20-17h10 Biologie, interface chimie, matériaux (modérateur Marc Baaden)

  • 16h20-16h40 How molecular simulations have become a key player in biology and chemistry: Some success stories (Catherine Etchebest, Université Paris-Diderot)

    Abstract

    In recent decades, a revolution has taken place in biology, thanks to major scientific advances brought about by the new generation of sequencing techniques. This « omics revolution » is accompanied by new challenges in computer science, in particular in managing huge amounts of data, which benefit from the most efficient approaches in artificial intelligence. For example, it is now possible to better understand the origin of pathologies by identifying mutations in genes, or to follow the evolution of viral strains associated with different virulence characteristics. A detailed molecular view and interpretation is now possible, allowing chemists and biologists to work together and provide valuable information on crucial biological questions.

    The COVID-19 pandemic is an emblematic example of such a partnership. Theoretical chemists, in particular, have provided important insights into the mechanisms of interaction between the viral spike protein and the host receptor. One of the approaches they used was molecular dynamics simulation, which allowed them to go beyond the classical quasi-static view provided by X-ray or electron microscopy. Thanks to the detailed view provided by molecular dynamics simulations, the design of new drugs can be carried out in a more rational way. This approach in itself can greatly speed up drug development.

    This is only the most famous example, but applications to major health problems such as antibiotic resistance, neurodegenerative diseases or cancer, to name but a few, have also been important success stories. I will present some of these success stories, written thanks to these theoretical methods.

    I will also highlight how such approaches require high-performance computer facilities that should be constantly upgraded to be competitive and bring valuable results.

  • 16h40-17h00 Artificial Intelligence in Materials Science (Marco Saitta, IMPMC - Sorbonne Université, CNRS, MNHN)

    Abstract

    In recent years, machine learning has revolutionized materials science, driven by the maturity of numerous algorithms and the exponential growth of computing power. These advances have had a profound impact on computational materials research and are increasingly influencing experimental characterization techniques. As the head of the CNRS research network « AI and Materials (IAMAT), » I will present recent developments in the application of machine learning to materials science, covering both theoretical/simulation aspects and experimental applications. The presentation will showcase how AI-based approaches are being used to explore large datasets, enhance atomistic simulations, and improve the characterization of materials through techniques such as spectroscopy and imaging, highlighting the transformative potential of AI in this field.

    Bio

    Marco Saitta is a Professor of Exceptional Class 2 in Physics at Sorbonne Université. He obtained a PhD in Condensed Matter Theory from the International School for Advanced Studies in Trieste in 1997, and had then a postdoctoral position at the University of Pennsylvania of Philadelphia. In 2000, he was appointed Maître de Conférences at Université Pierre et Marie Curie, now merged into Sorbonne Université, at the Institut de Minéralogie, de Physique des Matériaux et de Cosmochimie (IMPMC), where he acceded to professorship in 2011.

    He is since 2021 the director of IMPMC (about 120 permanent staff), director of the French national network Groupement de Recherche (GdR) “Intelligence Artificielle en sciences des MATériaux (IAMAT)” (more than 700 researchers), and PI of the Sorbonne University consortium “MAESTRO (Materials for Energy)”. A specialist of electronic structure theory and ab initio calculations, his research activity has spanned from bulk semiconductors to graphene and nanotubes, to water and ices, his main interests being the exotic properties of molecular crystals, liquids and amorphous at extreme conditions of pressure and temperature.

    In recent years his research has opened up into more interdisciplinary fields, such as Earth sciences and biogeochemistry, with a special focus since 2020 on the development and use of machine learning methods in materials science. He has authored more than 120 articles, cited more than 5000 citations, and with a h-index = 44 (WoS). He has received more than 40 invitations to conferences.

  • 17h10-18h00 Mathématiques, IA (modérateur Michel Kern)

  • 17h10-17h30 Algorithmes mathématiques pour simuler le monde (Hélène Barucq, Inria)

    Résumé

    Le calcul intensif est un allié de premier plan pour aider à la compréhension de phénomènes physiques complexes qui régissent le monde qui nous entoure. Il est en constante évolution et a connu ces dernières années des progrès spectaculaires, aidé par l’arrivée des super calculateurs. Ces progrès sont réalisés grâce à la combinaison d’algorithmes mathématiques de pointe qui permettent d’utiliser au mieux les architectures de calcul moderne. Cet  exposé sera l’occasion de décrire quelques résultats récents remarquables qui ont bénéficié des moyens de calcul mis à disposition par les centres de calcul français, qu’ils soient publics ou privés.

    Bio
    Directrice de recherche chez Inria depuis 2008, Hélène Barucq, diplômée de l’Université de Bordeaux, travaille dans le domaine de la simulation numérique de phénomènes de propagation d’ondes. Ses travaux de recherche sont guidés par des questions de modélisation et discrétisation visant à réduire les coûts de calcul à précision constante. Elle dirige l’équipe-projet Makutu qui est hébergée par l’Université de Pau et des Pays de l’Adour, spécialisée dans la caractérisation de milieux complexes par inversion d’ondes. Elle coordonne avec Henri Calandra un programme scientifique commun avec la compagnie multi-énergies TotalEnergies pour la surveillance de l’injection de CO2. Elle pilote un projet de recherche franco-allemand sur la signature des étoiles de type solaire avec l’institut du Soleil au Max Planck à Göttingen. Avec Christophe Prud’homme, elle est co-responsable du projet ciblé  Exa-MA, intégré dans le PEPR Numpex, qui travaille sur la conception de méthodes numériques adaptées au calcul exascale.
  • 17h30-17h50 De l'IA Générative à la Physique Statistique (S. Mallat, ENS)

    Résumé
    Les réseaux de neurones permettent de générer des images, du langage, de qualités impressionnantes. Mémorisent ils les données d’entrainement ou généralisent ils véritablement en produisant de nouvelles données totalement différentes des données d’entrainement ? Nous répondrons à cette question et nous ferons le lien avec les modèles de la  physique statistique dont l’enjeu est aussi de créer des modèles probabilistes de champs physiques.
  • 18h-18h05 Cloture

  • 18h05 - 20h Cocktail

 

Mardi 15 octobre 2024

9h à 18h

  • 8h30 Accueil-café

  • 9h00 Ouverture de la journée

  • 9h10 - 10h30 Evolution du panorama (modérateur Alain Refloch)

  • 9h10-9h25 Historique (CS Orap)

    En ouverture de cette journée, le comité scientifique d’ORAP propose un petit retour en arrière, comparant les perspectives du forum des 20 ans d’ORAP aux dix dernières années dans le domaine du calcul haute performance.

  • 9h25-9h45 La foi, l’Espérance, PRACE ! (Florian Berberich, Jülich Supercomputing Centre)

    Résumé

    Dans cette présentation, j’exposerai l’histoire de PRACE et ses principaux succès. Pendant plus d’une dizaine d’année, PRACE a marqué l’écosystème européen du HPC. Durant cette période, de nombreux projets scientifiques et industriels ont été soutenus et des services ont été déployés avec un haut niveau d’exigence, par exemple en termes de support aux utilisateurs et de formation. PRACE s’est forgé une place de premier plan dans la communauté HPC mondiale et continuera à apporter une contribution importante en tant qu’association d’utilisateurs et de centres HPC en Europe.

    Bio

    Florian Berberich est chef du bureau de l’UE et de la coopération internationale au Jülich Supercomputing Centre (Forschungszentrum Jülich). Il est également directeur des opérations de PRACE aisbl depuis 2020. En octobre 2015, il est devenu membre du conseil d’administration de PRACE aisbl. Il a travaillé pour le bureau de gestion du projet PRACE au Jülich Supercomputing Centre, depuis 2008. Il a obtenu son doctorat en physique à l’université technique de Dresde en 2002. Il a travaillé comme post- doc à l’ESRF en France avant de devenir assistant du conseil d’administration du Forschungszentrum Jülich en 2004.

  • 9h45- 10h20 Panorama national et européen sur HPC, IA et quantique (Philippe Lavocat, Genci)

    Résumé

    Créée par les pouvoirs publics en 2007, GENCI (Grand Équipement National de Calcul Intensif) est une grande infrastructure de recherche, société civile et opérateur public visant à démocratiser l’usage de la simulation numérique par le calcul haute performance associé à l’usage de l’intelligence artificielle et du calcul quantique pour soutenir la compétitivité́ scientifique et industrielle française. Il est en charge de l’implémentation des stratégies nationales en HPC, en IA (AIforHumanity) et dans les technologies quantiques pour le calcul (cadre de la SNQ). Genci contribue  enfin au renforcement des capacités européennes de calcul dans le cadre de l’initiative EuroHPC .

    Philippe Lavocat présentera l’actualité des projets au niveau national, régional et européen notamment répondant à la stratégie HPC/IA de la machine de classe Exascale Alice Recoque, les projets quantiques HPCQS et EuroQCS de l’initiative nationale HQI et les perspectives  à moyen terme.

    Bio

    Après avoir passé plus de 30 ans à exercer des responsabilités dans des grands programmes internationaux (CERN, Fermilab, ESO, CNES, ESA, NASA, Iter) au CEA et au CNRS puis au Ministère de la Recherche (Chef du Service de la stratégie de la recherche ) autour des très grandes infrastructures de recherche (ILL, ESRF, ESS, XFEL, EMBL), Philippe Lavocat a été nommé PDG de GENCI (Grand Equipement National de Calcul Intensif) le 1er juillet 2016. En juin 2020, il devient Vice-Chairman du PRACE Council (PRACE- PartneRship for Advanced Computing in Europe), infrastructure de recherche européenne de l’ESFRI (European Scientific Forum for Research Infrastructure). Il est membre observateur du Conseil Administration du CERFACS depuis 2018 et du Conseil d’administration du CINES depuis 2020. Il est également depuis 2019 « Technical Advisor » auprès de la DGRI et de la DGE qui représentent la France dans le « Governing Board » de l’initiative européenne EuroHPC.

  • 10h30-11h00 Pause

  • 11h00-12h30 Perspectives (modérateur Jean Philippe Nominé)

  • 11h00-11h30 Some (Post-)Exascale Challenges, An NumPEx/InpEx international perspective (Jean-Yves Berthou, Inria)

    Abstract

    The challenges of Exascale and the technological and scientific breakthrough it represents have been widely discussed in Europe and internationally for over 15 years. Some of the participants at the 30th ORAP Forum may remember their involvement in the IESP and  BDEC projects, as well as in the European EESI and EXDCI contributions. Exascale systems are currently being installed in the USA and China, others will soon arrive in Europe, and post-exascale systems are already announced for Japan at the end of this decade. This presentation will detail some Exascale issues that remain (partially) unresolved, then discuss some challenges of the Post-Exascale age. We will focus in particular on four of these, which have been discussed as part of the French NumPEx program and of the international InPEx project:  “AI4HPC/HPC4AI”, “From the edge to HPC systems, the digital continuum », « Software, the new frontier » and « Co-design of software/applications ».

    Bio

    Dr. Jean Yves BERTHOU joined Inria in February 2019 as director of the Inria Saclay Research Center. Created in 2008, this center has 550 scientists, forming 42 research teams, and 60 collaborators working in research support services. The main scientific and technological priorities of Inria Saclay Research center are IA and data sciences, scientific computing and optimisation, cybersecurity, safety, proof and verification, quantum science, Human Machine Interactions with a strong focus on Bio&Heath, energy, transport, defense challenges. The centre is a key player in research in the digital sciences on the Saclay campus. It promotes the values and projects that give Inria its originality in the research landscape: scientific excellence, innovation and multi-disciplinary partnerships to maximise Inria’s scientific, economic and societal impact.

     

    From 2015 to 2019, Jean-Yves was Director of Innovation for the EDF Business Unit Transformation and Operational Efficiency (6000 employees) which produces and operates IT, real estate, purchasing, and tertiary (HR, accounting, …) services and products for the entire EDF group. Jean-Yves set up a dynamic innovation approach, which has resulted in the industrialization of more than 250 innovations and nearly 70 partnership contracts with start-ups. From 2011 to 2015, Jean-Yves was head of the Numerical and Mathematical Department (NuMa) at the French National Research Agency (ANR), in charge of organizing the selection, funding and monitoring of research projects as well as setting up European and international collaborations. From 1997 to 2011, he held various positions within the research department of EDF, EDF R&D. He was successively researcher, project leader and manager before becoming head of the Simulation program and the Information Technology program of EDF R&D.

     

    For 15 years, Jean-Yves was regularly called upon by the European Commission for expert missions, particularly in the fields of High Performance Computing, open science or research and innovation strategy. He initiated in 2010 EESI’s European support action, the European Exascale Software Initiative, www.eesi-project.eu. EESI has produced a European roadmap preparing for the arrival in 2020 decade of infrastructure, software and applications for high-end Exascale scientific computing. This roadmap has been widely disseminated and has had an important impact in Europe and internationally.

  • 11h30-11h50 Evolution des architectures de calcul haute-performance (Patrick Carribault, CEA)

    Résumé
    Depuis plusieurs années, les architectures de calcul des supercalculateurs évoluent pour amener une puissance de calcul plus importante tout en gardant la consommation électrique sous contrôle. Ceci a donné lieu à plusieurs lignes de produits incluant, par exemple, les processeurs classiques type CPU et les architecture issues du monde du graphique avec les GPUs. Dans cette présentation, nous nous intéresserons à l’état actuel et l’évolution de ces architectures en isolant plusieurs défis qui apparaissent au niveau matériel et/ou logiciel.
    Bio
    Patrick Carribault a rejoint le CEA en 2008 après avoir obtenu un doctorat en informatique sur le thème du calcul haute performance et après un post-doctorat à l’université d’Austin au Texas. Il est alors impliqué dans le développement de la pile logicielle des supercalculateurs ainsi que la R&D autour des processeurs de calcul avec les industriels du secteur.
    Patrick Carribault est actuellement Fellow et Directeur de Recherches au CEA sur les thématiques de calcul haute performance et d’intégration quantique. De plus, il est Professeur Chargé de Cours à l’Ecole Polytechnique.
  • 11h50- 12h10 Preparing CSE Applications for Exascale and Beyond: initial lessons from the Exa-DI - NumPeX project (Jean Pierre Vilotte, CNRS)

    Abstract

    We present some initial lessons, as well as technical and capacity challenges, from the Exa-DI co-design and co-development process across NumPeX of software components (libraries, frameworks, workflows, tools) driven by computational and communication motifs cross-cutting CSE application demonstrators and their integration into Motif-based proxy apps and Software Development Kits for advancing exascale scientific productivity through better scientific software development methodologies and sustainability.

    Bio

    Dr. Jean-Pierre Vilotte, PhD, HDR, is Emeritus Professor at the Institut de Physique du Globe de Paris (IPGP, CNRS-UMR 7154) and Scientific Deputy at the CNRS-INSU (CNRS Terre – Univers) for HPC/HPDA, AI/ML, and Open Science. He is acting as co-PI of the Exa-DI project in the NumPeX (Numerics for Exascale) PEPR program (CNRS-CEA,INRIA), which focus on the co-design, co-development and integration of an expanded Exascale software stack for Computational Science and Engineering Applications. He is involved in the international initiative InPeX between the US, Japan and Europe. He was until 2024, the French representative, acting as vice-chair, in the SKA Regional Centres Steering Committee (SRC). He has an international expertise in mathematical and computational geophysics, at the interface between mathematics, statistical physics, computational and data sciences. In 2015, he was awarded Fellow of the American Geophysical Union.

  • 12h30 - 14h00 Déjeuner

  • 14h00 - 15h30 Nouveaux enjeux (modérateur Christophe Biernacki)

  • 14h00-14h25 Should we be afraid of the big bad GPT? Demystifying language models and preventing their weaponization (Djamé Seddah, Sorbonne University)

    Abstract

    At a time when every public position is either the subject of instant « meme-ization » or sifted through by a fact-checking process that is as rigorous as it is often invisible, the emergence of high-performance text-generation tools of confounding ease of use raises questions, raises concerns and sometimes even worries. Most of these tools available to the general public are pure black boxes about which we know little or nothing: their training data? nothing. Their architectures? So little. Their performance? usually a matter of guesswork outside lab’s benchmarks.

    Can we at least detect their content and therefore their possible influences? Not really, even OpenAI, creator of ChatGPT, reports success rates of 26%. In this presentation, I’ll give an overview of the main language models, question their relevance in an academic environment and address the question of their detectability in adversarial contexts. I’ll also address the growing problem of their weaponization.

    Bio

    Djamé Seddah is a tenured associate professor at Sorbonne University and on leave at INRIA Paris in the Almanach team. His interests cover the field of natural language processing, mainly wide-coverage multilingual syntactic analysis, the syntax-semantics interface, language models for low-resource languages, etc. A specialist in the construction of annotated corpora (Sequoia corpus, French Social Media Bank, French Question Bank, Narabizi Treebank, etc.), he participated in the development of the CamemBERT, PagnolXL and CamemBERTa language models, as well as character-based models for dialectal and highly noisy languages. His current research focuses on language models and possible ways of avoiding their weaponization (content detection, bias detection and mitigation, etc.).

  • 14h25-14h50 SKA processing infrastructure, data flow, resources and sustainability (Shan Mignot, CNRS)

    Abstract

    The SKA Observatory (SKAO) is in charge of constructing and operating the world’s largest low- to mid-frequency radio telescopes: SKA-Mid in South Africa and SKA-Low in Australia. Radio-telescopes fundamentally rely on massive data processing to form observables after the radio waves of cosmic origin have been digitized. The numbers of antennas and of frequency channels for SKA-Mid and SKA-Low lead to considerable amounts of raw data which first need to be combined to form beams or visibilities so that data reduction can be carried out to yield data products that astronomers can analyse. The design for the SKA has one processing facility for each of these stages. The first two, the Central Signal Processors (CSP) and the Science Data Processors (SDP) are part of the SKA-Mid and SKA-Low instruments themselves, while the SKA Regional Centres are organised as a federation of worldwide resources (SRCNet) forming the portal where the science data products are archived, post-procesed and analysed. In this talk, I will describe how the imperative of data flow reduction and the diversity of tasks shape this infrastructure. I will then focus on the SDP, which provides advanced signal processing and is driven by efficacy due to stringent financial and energetic constraints, and the emergent SRCNet with the opportunities it offers of continued or more advanced processing, albeit with lower yields due to a more complex environment. I will also discuss sustainability, « a foundational value of SKAO underpinning all other activities across the Observatory », which needs not be forgotten as the project strives for feasibility, and SKA France’s involvement in support it.

    Bio

    Shan Mignot is a CNRS research engineer in the Lagrange laboratory at Observatoire de la Côte d’Azur. After an early-career contribution to the software and hardware architecture for the data processing on board the Gaia satellite, he has contributed to the systems engineering and project management of GYES, 4MOST and MSE, all ground-based multi-object spectrographs. He has joined the SKA project 3 years ago and is the Product Owner of the SCOOP team in SKAO’s SAFe agile framework to drive the hardware-software co-design for the Science Data Processors. He also contributes to involving the academic community on the upstream R&D and challenges it in finding ethical ways to procure, operate and maintain sub-exascale machines on the timescale of SKA’s 50-year lifetime in such contexts as the NumPEx PEPR, the ECLAT joint laboratory and the preparation of the French contribution to the SRCNet.

  • 14h50-15h15 Jumeaux Numériques - mythes, rêves et réalité / Digital Twins - myths, dreams and reality (Mark Asch)

    Résumé

    Les jumeaux numériques consistent en une vaste panoplie de modèles et d’implémentations. D’après Gartner, ils ont atteint le sommet de leur “hype cycle” en 2018 et sont désormais reconnus comme étant trop complexes, trop couteux et non-transférables. Sommes-nous en fin de leur cycle de vie utile ? Dans ce talk je proposerai un cadre mathématique pour leur compréhension et leur implémentation qui peut traiter adéquatement la question de la complexité et faire le lien entre la modélisation classique et les approches “data-driven ». Ensuite, je discuterai de leur remplacement potentiel par des modèles d’IA générative.

    Digital twins consist of a vast panoply of models and implementations. According to Gartner, they reached the peak of their hype cycle in 2018 and are currently considered as being too complex, too costly and non-transferable. Are we at the end of their useful life cycle? In this talk I will propose a mathematical framework for their understanding and implementation that deals adequately with the issue of complexity and describes the relations between classical modeling and data-driven approaches. Then I will discuss their potential replacement by generative AI models.
    Bio
    Mark Asch est professeur émérite de mathématiques appliquées. Il a un B.S. an Agronomie et un M.S. en Physique Appliquée de l’université Hébraïque de Jerusalem, et un M.S. et Ph.D. en mathématiques du Courant Institute de New York University. Il était professeur de mathématiques appliquées jusqu’en 2023 à l’université de Picardie Jules Verne. Pendant sa carrière il a eu des détachements au CNRS, au Ministère de la Recherche, à l’ANR et chez Total SA en tant que conseiller en mathématiques et data science. Ses intérêts de recherche portent sur l’acoustique, la propagation d’ondes en milieux aléatoires, les problèmes inverses, l’assimilation de données et leur couplages avec l’apprentissage statistique, ainsi que les jumeaux numériques. En plus de nombreux articles sur ces sujets, il a publié 2 livres chez SIAM sur l’assimilation de données (2016) et sur les jumeaux numériques (2022).
    Mark Asch is emeritus professor of Applied Mathematics. He holds a B.S. degree in agronomy, an M.S. degree in applied physics from the Hebrew University of Jerusalem (1984) and M.S. and Ph.D. degrees in mathematics (1990) from the Courant Institute of New York University. He was professor of mathematics until 2023 at the University of Picardy, where he was vice-chancellor for research between 2005 and 2008. During his career he  was on secondment at CNRS in Paris, the French Ministry of Research as scientific officer for mathematics, computing, data and e-infrastructures,  the French National Research Agency (ANR).  He also spent 2 years on secondment in industry, working as scientific advisor to corporate research at Total SA. His research interests are in acoustics, wave propagation, random media, control theory and the application of control methods and machine learning to inverse problems. He has published over 70 articles and conference proceedings in these domains. His book, “Data Assimilation: Methods, Algorithms and Applications”, was published in 2016 by SIAM, USA. His latest book, « A toolbox for Digital Twins: from model-based to data-driven », SIAM, appeared in 2022.
  • 15h15-15h45 Reproductibilité et ``Vers une réduction de l’impact environnemental du HPC ?`` (CS Orap)

    Cette session regroupe deux synthèses des exposés et des discussions ayant eu lieu lors de deux Forums organisés autour de deux sujets importants pour nos communautés: la reproductibilité des experiences numériques et l’impact environnemental du HPC.

    La reproductibilité est au coeur de l’activité scientifique. Le calcul haute performance présente des spécificités qui interrogent sur la notion de reproductibilité. Les exposés du Forum Orap consacré à ce sujet ont permis de faire le point sur ces questions, en identifiant les problématiques et en s’appuyant sur des retours d’expérience de différentes communautés scientifiques.

    Comme l’ensemble de la société, la communauté du HPC est concernée par l’impact environnemental de ses systèmes. Cette présentation fait état des réflexions menées par l’ORAP, en mettant l’accent sur les différentes approches envisageables pour réduire l’empreinte écologique du calcul scientifique et autres implémentations pour l’IA.
  • 15h45-16h15 Pause

  • 16h15 - 18h00 Perspectives (modératrice Sylvie Joussaume)

  • 16h15-17h00 Beyond Exascale Computing (Katherine Yelick, Lawrence Berkeley National Laboratory)

    Abstract

    The first generation of exascale computing systems are online along with powerful new application capabilities and system software. At the same time, demands for high performance computing continue to grow for more powerful simulations, adoption of machine learning methods, and huge data analysis problems arising for new instruments and increasingly ubiquitous data collection devices.  In its broadest sense, computational science research is expanding beyond physical and life sciences into social sciences, public policy, and even the humanities.

    With chip technology facing scaling limits and diminishing benefits of weak scaling, it will be increasingly difficult to meet these new demands.  Disruptions in the computing marketplace, which include supply chain limitations, a shrinking set of system integrators, and the growing influence of cloud providers are changing underlying assumptions about how to acquire and deploy future supercomputers.  At the same time there are discussions around cloud computing, specialized hardware, and the role of AI, both as a technique in science and as a driver of computing hardware and software.

    In this talk I’ll present some of the findings of a US National Academies consensus report on the future of post-exascale computing, which states that business as usual will not be sufficient.  I will also give my own perspectives on some of the challenges and opportunities faced by the research community.

    Bio

    Katherine Yelick is the Vice Chancellor for Research at the University of California, Berkeley, where she also holds the Robert S. Pepper Distinguished Professor of Electrical Engineering and Computer Sciences. She is also a Senior Faculty Scientist at Lawrence Berkeley National Laboratory. She has been recognized for her research and leadership in high performance computing and is a member of the National Academy of Engineering and the American Academy of Arts and Sciences.

  • 17h00-17h30 Vision des organismes tutelles d'ORAP (Antoine Petit, Président-directeur général du CNRS François Jacq, Administrateur général du CEA Bruno Sportisse, Président-directeur général de l’INRIA)

  • 17h30-18h00 Clôture, Laurent Crouzet, Ministère de l'Enseignement Supérieur et de la Recherche