17 mars 2016
CNRS Michel-Ange, Paris
Tirée par des initiatives autour de l’Exascale et poussée par une stratégie impulsée par la Commission dans Horizon 2020, l’Europe du HPC s¹organise, investit et innove. Ce Forum fait d’abord le point sur l’organisation du paysage européen. Les principaux projets structurant la politique européenne autour de trois piliers seront présentés, notamment : PRACE 2 (infrastructure), ETP4HPC (développement technologique) et Centres d¹Excellence (applications) .
La course vers de nouvelles échelles de puissance de calcul a aussi des conséquences pour les applications, du fait des fortes évolutions technologiques en cours. Le reste du forum sera donc consacré à un panorama des nombreuses activités de recherche et de développement autour de l’utilisation des accélérateurs et autres many-cores ; des succès obtenus ; des difficultés de développement rencontrés et des recommandations pour l’avenir. En particulier, il est question d’analyser comment les codes et les méthodes numériques ont dû évoluer pour tirer parti de performances potentielles de ces architectures.
Inscription
La page d’inscription est ici.
Programme
version pdf : LIVRET_37e Forum ORAP Livret
9:00 Accueil et enregistrement des participants
9:25 Ouverture du Forum
Sylvie Joussaume
Présidente du conseil scientifique de l’ORAP
Session: structuration de la politique européenne du HPC
Présidente de séance : Sylvie Joussaume (CNRS/IPSL)
9:30 PRACE : réussites et perspectives
Catherine Rivière
PDG de GENCI
La présentation : CatherineRiviere-37Orap
Résumé
L’infrastructure européenne de recherche PRACE met à disposition des scientifiques depuis 2010 et des industriels depuis 2012 un réseau de calculateurs de classe mondiale, dont Curie en France, ainsi que des services à forte valeur ajoutée. Ces ressources de pointe ont favorisé des avancées majeures dans tous les domaines. Alors que la première phase de déploiement de l’infrastructure PRACE s’achève, les utilisateurs académiques et industriels français en ont été les principaux bénéficiaires. Des discussions sont en cours pour définir les modalités de pérennisation de PRACE.
Bio
Catherine Rivière est PDG de GENCI depuis 2007. Ingénieur, diplômée de l’Ecole nationale supérieure d’informatique et de mathématiques appliquées de Grenoble (Ensimag), elle a effectué l’essentiel de sa carrière à l’IFPEN où elle a notamment occupé la fonction de directeur adjoint de la Direction Exploration-Gisements avant de devenir PDG de Tech’Advantage (filiale de l’IFPEN), société de services en informatique. Entre juin 2012 et juin 2014, Catherine Rivière a été présidente du Conseil de PRACE (Partnership for Advanced Computing in Europe) qui compte 25 États membres et dans laquelle la France est représentée par GENCI.
10:00 Development of HPC technology to serve the European HPC ecosystem
Jean-François Lavignon, ETP4HPC chairman, VP Technological partnership Atos-Big Data and Security
La présentation : JeanFrancoisLavignon-37Orap
Abstract
This talk will present the landscape of HPC technology research in Europe. It will position the current effort that has been undertaken under the Horizon 2020 program and will explain the technology roadmap that the ETP4HPC proposes. It will offer a vison of how this R&D effort can serve the development of a complete European HPC ecosystem and contribute to the European initiatives in HPC and big data.
10:30 Pause café / Coffee break
Président de séance : François Bodin (Irisa / Université de Rennes 1)
11:00 Centre d’Excellence EoCoE – Energy Oriented Centre of Excellence
Edouard Audit, CEA
Directeur de la Maison de la simulation
La présentation : EdouardAudit-37Orap
Abstract
The European commission has recently established 8 centres of excellence in computing applications within the Horizon 2020 program. The primary objective of all the newly formed centres of excellence is to help strengthen Europe’s leadership in HPC applications by tackling various challenges in important areas like renewable energy, materials modeling and design, molecular and atomic modeling, climate change, Global Systems Science, bio-molecular research, and tools to improve HPC applications performance.
EoCoE (Energy Oriented Center of Excellence) assists the energy transition via targeted support to four carbon-free energy pillars: Meteorology, Materials, Water and Fusion, each with a heavy reliance on numerical modeling. These four pillars are anchored within a strong transversal multidisciplinary basis providing high-end expertise in applied mathematics and High Performance Computing (HPC). EoCoE, led by Maison de la Simulation, is structured around a Franco-German hub (Maison de la Simulation – Jülich Research Centre) coordinating a pan-European network, gathering a total of 8 countries and 20 teams all strongly engaged in both the HPC and energy fields.
11:30 EXDCI: Coordinating the development and implementation of a common strategy for the European HPC Ecosystem
Sergi Girona, BSC
EXDCI Project Coordinator
La présentation : SergiGirona-37Orap
Abstract
The European Extreme Data & Computing Initiative (EXDCI) objective is to coordinate the development and implementation of a common strategy for the European HPC Ecosystem. The two most significant HPC bodies in Europe, PRACE and ETP4HPC, join their expertise in this project , starting from September 2015. EXDCI aims to support the road-mapping, strategy-making and performance-monitoring activities of the ecosystem, i.e.:
- Producing and aligning roadmaps for HPC Technology and HPC Applications
- Measuring the implementation of the European HPC strategy
- Building and maintaining relations with other international HPC activities and regions
- Supporting the generation of young talent as a crucial element of the development of European HPC
EXDCI will complement the Horizon 2020 calls and projects in the achievement of a globally competitive HPC Ecosystem in Europe. Following the vision of the European Commission in HPC, this ecosystem is based on three pillars: HPC Technology Provision, HPC Infrastructure and HPC Application Resources.
Bio
Sergi Girona holds a PhD in Computer Science from the Technical University of Catalunya. Currently he is Director of the Operations Department of the Barcelona Supercomputing Center (BSC) and the manager of the Spanish Supercomputing Network (RES). Between 2013 and 2015, he was both Chair of the Board of Directors of PRACE and its Managing Director. He joined BSC in 2004 for the installation of MareNostrum in Barcelona, which was at that time the largest supercomputer in Europe, a position that maintained for 3 years. Sergi was responsible for the site preparation and the coordination with IBM for the system installation. His responsibilities nowadays include managing the Operations group with the responsibilities of User Support and System Administration of the different HPC systems at BSC. He is Spanish delegate at e-IRG, and member of the ESFRI Health and Food Strategic working group. The list of projects he has participated includes: DEISA, PRACE, EUDAT, EESI, Human Brain Project, RDA, EXDCI, ELITRANS, iCordi, HPC Europa, Red de eCiencia, RES. Before joining BSC, he was Director of the Spanish branch of EASi Engineering since its creation, and its R&D Director for the German headquarters
12:00 Questions et réponses
13:00 Déjeuner / Lunch
Session : Retours d’expérience sur les architectures many-core
Président de séance : Edouard Audit (Maison de la simulation)
14 :15 Accelerated supercomputing: experiences with GPU and Xeon Phi at CSCS
Thomas C. Schulthess, ETH Zurich
Professor of Computational Physics and Director of the Swiss National Supercomputing Center (CSCS)
La présentation : ThomasSchulthess-37Orap
Abstract
In this presentation, I will discuss CSCS’s strategy to push the envelop in accelerated supercomputing. A key element of this strategy was the continued investment into application refactoring that began in 2010. This in turn allowed CSCS to scrutinize both NVIDIA GPU and Intel Xeon Phi processors as early as 2012, and to find an optimal node architecture for the first petascale supercomputer that was going to be deployed in Switzerland. Since fall of 2013, CSCS’s “Piz Daint” supercomputer is among the top 10 performing supercomputers world wide. I will show how this GPU accelerated system influenced the development of a competitive application portfolio, and how it enabled the co-design of an appliance for numerical weather prediction that is highly cost and energy efficient.
Bio
Thomas Schulthess is Director of the Swiss National Supercomputing Centre (CSCS) and a professor for computational physics at ETH Zurich. He received his PhD in 1994 from ETH Zurich and spent many years at Oak Ridge National Laboratory, where today he holds a Distinguished Visiting Scientist appointment. While his primary research is on computational methods for materials science, he recently took interest in the development of energy efficient computing systems for climate modeling and meteorology.
14 :55 Retour d’expérience sur le développement du code RamsesGPU, applications de type CFD pour l’astrophysique
Pierre Kestener
Ingénieur-Chercheur, CEA, Maison de la Simulation
La présentation : PierreKestener-37Orap
Résumé
De nombreuses situations astrophysiques peuvent être modélisées, en première approche, par les équations de la dynamique des fluides compressibles, comme par exemple l’étude de la turbulence du milieu interstellaire ou encore les phénomènes accrétion de matière dans les disques protoplanétaires. La simuation numérique sur des temps physiques pertinents de ces systèmes d’interêt requiert des ressources de calcul très importantes.
Le code RamsesGPU, développé depuis 2010, est une tentative de fournir une solution open-source permettant de réaliser les simulations numériques plus résolues spatialement sur les calculateurs multiGPU disponibles actuellement.
Cette présentation passera en revue des choix d’implantation, des techniques d’optimisation, à la lumière du temps écoulé depuis l’introduction de l’architecture CUDA en 2007.
Bio
Pierre Kestener est ingénieur-chercheur CEA à la Maison de la Simulation depuis 2011. Il assure le développement du code RamsesGPU. Il est le correspondant du Nvidia Training / Research center de la MDLS. Il enseigne la programmation des GPU à l’ENSTA ParisTech et au master Modélisation et Simulation depuis 2010, ainsi que pour le PATC français. Ces autres centres d’intérêts concernent l’implantation parallèle de schémas numériques de CFD sur grille adaptative, à travers le développement du code canoP.
15:15 Pause café / Coffee break
Présidente de séance : Isabelle Terrasse (Airbus Group)
15 :45 GPU-based high-performance computing for radiotherapy applications
Julien Bert
Ingénieur de recherche, CHRU Brest – LaTIM – INSERM UMR 1101
La présentation : JulienBert-37Orap
Résumé
La simulation Monte-Carlo (SMC) du transport de particules et d’interaction avec la matière est un outil fondamental dans le domaine médical notamment pour la planification de traitement en radiothérapie. Cependant, la SMC est également associée à un long temps de calcul qui limite son utilisation en routine clinique. Dans ce contexte nous avons développé le logiciel GGEMS, qui est une plateforme avancée de SMC utilisant les architectures GPU. Nous verrons ensemble le cheminement de la mise en œuvre d’un tel développement. Nous évoquerons les possibilités mais également les contraintes du GPU dans ce contexte particulier. Nous conclurons par un retour d’expérience sur le packaging et le déploiement de GGEMS en routine clinique.
Bio
Julien Bert, was born in 1980. He received a Ph.D. in control engineering in 2007. He holds a permanent research engineer position at the Brest Regional University Hospital and assigned to the LaTIM – INSERM UMR1101. Previously, he was postdoctoral fellow during 3 years at the Houston Medical School of the Texas Medical Center. His main research interest is in medical physics especially in intra-operative radiotherapy, advanced methods for image correction and reconstruction, and the use of hybrid architecture (CPU/GPU) for medical applications. Within this context he is leading a research group of 2 post-docs and 5 PhD students. He is implicated in several research projects national and European. In 2010 he began the development of GGEMS, a Monte Carlo simulation platform based on GPU architecture. He is currently the technical coordinator of the GGEMS platform dedicated to medical imaging and radiotherapy. Since 2013, a part of his time is in secondment to the Research Institute of Technology b<>com (b-com.com) within the Augmented Healthcare Lab, working in improving brachytherapy intervention.
16:05 Multicore/manycore with a scientific computing culture: experience feedback with special focus on performance modeling and redesign of computational methods
Florian De Vuyst
Professeur, Centre de Mathématiques et leurs Applications, CMLA UMR 8536, ENS Cachan
La présentation : FlorianDeVuyst-37Orap
Résumé
Our first experience in GPU computing was to design « real-time » interactive computational 2D flow dynamics simulation, using Infra Red pointers. First experiments succedeed and showed significant speedups on NVIDIA TESLA boards, but with noteworthy variations according to the choice of data structures but also to the choice of the computational approach. Performance issues appeared to be somewhat difficult to understand. So we decided to focus on performance modeling, on multicore architectures as a first stage. Starting from a legacy Hydrodynamics solver (of the Lagrangian remapping family), we achieved the performance modeling of the method using first a roofline-type model, then a finer Execution Cache Memory (ECM) model. The analysis kernel-per-kernel has given strong highlights on the global performance of the numerical approach. It even gave us new ideas of redesign of alternative computational approaches. SIMD feature, arithmetic intensity and data alignment are of course key factors. More generally, some computational apporoaches appear to be particularly suitable of HPC on manycores like Lattice Boltzmann approaches for example, sometimes inviting for changes of paradigm for the numerical model.
Bio
Florian De Vuyst is full-professor at Ecole Normale Supérieure de Cachan Université Paris-Saclay, co-director of Centre de Mathématiques et de leurs applications, CMLA CNRS UMR 8536, Director of the multidisciplinary Farman Institute FR 3311 and teaches at the Department of Mathematics. Florian’s fields of Research are scientific computing of PDEs, numerical modeling, numerical analysis, HPC on manycore/multicore, parallel algorithms, CFD and reduced-order modeling. He is involved in the governance of Fondation de Mathématiques Jacques Hadamard FMJH, the structure of Mathematics at Paris-Saclay University. He was also awarded for a NVIDIA CUDA Research Center in 2013 and for the EquipEx DIGISCOPE, big infrastructure of large display walls and devices for visualization and interaction withing Saclay’s area.
16:25 Retour d’expérience sur l¹utilisation des accélérateurs Intel Xeon Phi en production sur la machine Helios de la communauté Fusion Europe-Japon
Christophe Berthelot
Expert HPC, support Applicatif Atos/Bull
La présentation : ChristopheBerthelot-37Orap
Résumé
Retour d’expérience de l’utilisation de la partition Intel Xeon Phi Coprocessor d’Helios installée au centre de calcul IFERC (Rokkasho / Japon) début 2014, et premiers éléments sur la nouvelle partition GPU/K80 installée ce février 2016 sur le site.