Exporter la page au format Open Document

Vers le HPC-DESK

JSO Journée scientifique ONERA Simulation Numérique & Calcul Haute Performance

Mardi 20 mai 2014, ONERA, Centre de Châtillon, salle Contensou

Coordination scientifique :

  • Philippe d’Anfray (Aristote, CEA)
  • Christophe Calvin (CEA)
  • David Chamont (Éc. Polytechnique)
  • Brigitte Duême (INRIA)
  • Michel Kern (MdlS/INRIA)
  • Thiên Hiêp Lê (ONERA)
  • Alain Refloch (ONERA)
  • Arnaud Renard (URCA)

Actes complets

Introduction

L’intérêt du TOP 500 n’est plus seulement fondé sur le classement dans la compétition aux flops, mais aussi sur les analyses qui peuvent en découler ; la première étant que les machines d’exception — aujourd’hui au sommet de la hiérarchie — seront les machines disponibles demain dans les bureaux d’études.

L’objectif de la Journée, est de s’efforcer de dégager les tendances sur l’impact produit par la mise à disposition d’une puissance de calcul conséquente. Si l’intérêt du HPC est évident pour les utilisateurs cano- niques actuels, les risques de ne pas s’orienter dans cette voie ou de ne pas en suivre les évolutions et ses conséquences sont sans aucun doute encore à ce jour sous-estimés.

Les contextes d’utilisation du HPC sont forcément variés et ne concernent pas uniquement des simu- lations nécessitant des puissances de calcul multi-pétaflopiques. En outre, les contraintes ne sont pas les mêmes pour tous et les temps de cycle entre les évolutions des architectures et des applications les utilisant sont très souvent différents ce qui implique une prise en compte anticipée dans la conception des grands codes de simulation.

Programme et présentations (en cours)

  • 08:20-08:50 Accueil

Animateur de session : Alain Refloch

10:30-11:00 Pause

Animateur de session: Arnaud Renard

12:30-14:00 Déjeuner

Animateur de session: Michel Kern

15:30-16:00 Pause

Animateur de session: Philippe d’Anfray

18:00 Fin du séminaire

Résumés des présentations

François Morain (LIX) Calculs massifs en cryptologie

la cryptanalyse (le “cassage de codes”) a toujours requis des idées novatrices associées à d'énormes quantités de calcul, à commencer par celui d'Enigma par Turing à Bletchley Park. Les cassages modernes utilisent du hardware dédié, mais aussi des clusters petits ou grands pour factoriser des entiers, calculer des logarithmes discrets. On donnera un aperçu des méthodes et machines utilisées dans ce but.

Vincent Chiaruttini (ONERA) HPC en mécanique des matériaux et structures — l’expérience Z-set/Zébulon

Cet exposé évoquera quelques réflexions générales sur le calcul haute performance liées aux évolutions des architectures matérielles actuelles. Ensuite plusieurs applications, exploitant des stratégies de résolution avancées, réalisées à l’aide du code Z-set/Zébulon, seront présentées.

Arnaud Renard (URCA-ROMEO)
Marie Granier, Benjamin Depardon (Sysfera)
Les mésocentres HPC à portée de clic des utilisateurs industriels

Nous présenterons un retour d’expérience sur le Centre de Calcul ROMEO et sur la mise en place du portail SysFera-DS, qui sont mis à disposition des PME régionales et nationales pour gérer leurs simulations de bout en bout : création du modèle, calcul batch à la visualisation des résultats.

Chiara Puglisi (INRIA) Le solveur MUMPS, besoins académiques et attentes industrielles

MUMPS est un solveur parallèle pour la résolution de systèmes linéaires creux de grande taille par méthode directe. Depuis le démarrage de cette activité en 1996, et au travers de chaque projet, le logiciel MUMPS nous sert à la fois d’environnement d’expérimentation pour nos recherches et de valorisation de nos travaux auprès des utilisateurs et notamment des industriels. Nous présenterons la richesse d’une telle approche impliquant plusieurs organismes de recherche et les difficultés qu’elle peut engendrer.

Eric Petit (UVSQ) La programmation parallèle pour l’Exascale : une étude de cas sur la parallélisation en mémoire partagé par l’approche diviser pour régner

Durant ce séminaire, je vais présenter les défis que l’on a constaté pour la programmation des futures systèmes exascales et nos objectifs. Dans un second temps je vais présenter une première étude de cas présentant l’approche diviser pour régner comme méthode de parallélisation basé sur les runtimes par tâches (CILK). Le démonstrateur est l’étape d’assemblage matriciel de maillage non structuré d’une application de CFD de Dassault Aviation. Les résultats préliminaires comparés à la version de référence MPI montre de très bonnes performances et de très bonnes capacités lors du passage à l’échelle.

Paul Benoit (Quarnot Computing) Le chauffage – un espace de déploiement gigantesque pour le HPC de demain grâce au radiateur numérique Q.rad

Le HPC est principalement effectué au sein de data centers, véritables ogres énergivores. Ce choix de concentration pose de plus en plus de problèmes d'approvisionnement électrique et contraint la croissance fulgurante du calcul intensif. La gestion de l'énergie est devenu un sujet central dans la course à la puissance de calcul. C'est pourquoi Qarnot computing a conçu et déploie la technologie Q.rad, radiateur électrique dont la source chaude est constituée de puissants processeurs de calcul. Totalement silencieux, le dispositif reçoit ses instructions de calcul via le réseau Internet par fibre optique et la chaleur dégagée par l’exécution des calculs sur les processeurs permet de chauffer gratuitement et efficacement tout type de locaux (habitations, bureaux, collectivités, …).

La technologie Q.rad est une alternative facilement déployable à grande échelle pour répondre à la demande croissante de HPC. Surtout, elle permet aux clients de Qarnot computing de disposer d'une très forte puissance de calcul particulièrement économique et écologique.

Jérémie Bellec (Structure Computation) HPC et SaaS scientifique, l’évolution nécessaire des outils SaaS

Le cloud est envisagé comme un moyen privilégié pour la démocratisation du HPC. Cependant l’effort à réaliser pour mettre à niveau les outils SaaS constitue un challenge ambitieux qu’il ne faut pas négliger. Les travaux que nous menons depuis 2007 nous ont donnés la conviction que les clés de la réussite se situent dans : a) le développement du middleware scientifique (la plate-forme PaaS), b) le développement du SaaS scientifique au sens large (applications non HPC). Dans ce séminaire nous vous présenterons la démarche de conception qui nous a conduits à cette convic- tion. Nous avons remis en question l’architecture des solutions web standards afin nous adapter aux problé- matiques scientifiques plus contraignantes en terme de complexité des données, d’ergonomie, de charge des serveurs, d’automatisation des processus… La solution dévéloppée (PaaS) permet aujourd’hui le pas- sage au « mode SaaS » d’applications Scientifiques au sens large. Le passage au « SaaS HPC » se fera par l’amélioration progressive des performances de la solution.

Sébastien Monot (AS+ & Amundis/Groupe EOLEN) Portabilité, performances, hétérogénéité, le triple défi de la démocratisation du HPC

Les architectures matérielles et les modèles de programmation évoluent de plus en plus rapidement, ap- portant des gains de performances importants au prix d’une complexité toujours plus grande. Aujourd’hui, l’hétérogénéité croissante de l’offre technologique vient aggraver ce problème notamment avec l’apparition des accélérateurs de calcul. Assurer la portabilité n’est plus suffisant, il faut aussi garantir un niveau rai- sonnable de performances et mettre en place des abstractions de haut niveau masquant la complexité des architectures sous-jacentes. Forts de nos expériences, nous présentons les futures approches et solutions pertinentes qui se profilent pour rendre accessible au plus grand nombre des moyens de calcul hétérogènes.

Maël Dréano (OVH) Le HPC à la demande permet-il la démocratisation? Vision d’un hébergeur internet

À travers ses offres de HPC à la demande, OVH.com met à disposition de tous des ressources de calcul puissantes, et surtout flexibles. Pour cela, il a été nécessaire d’adapter à la fois les infrastructures matérielles, les environnements logiciels et les modes d’utilisation. Nous expliquerons comment OVH.com cherche à lever les barrières qui rendent le calcul intensif difficile d’accès.

Vincent Faucher (CEA) EPX — Parallélisation d’un code pour la simulation des transitoires fluide-structure en environnement industriel

Le passage au calcul parallèle et au calcul haute performance pour un logiciel de simulation existant disposant de fonctionnalités étendues et d’un historique est un travail qui demande une réflexion profonde et adaptation permanente de la stratégie de développement. Il est impératif de trouver l’équilibre entre ré- écriture de parties du code et amélioration de l’existant avec ses contraintes, le tout en implémentant des algorithmes parallèles pour la majorité des directives du programme. On propose dans la présente contribu- tion une illustration avec le code EUROPLEXUS, pour la simulation en dynamique rapide avec interaction fluide-structure. A partir des équations du mouvement pour le fluide et le solide, on introduit les probléma- tiques algorithmiques posées par le parallélisme, à mémoire distribuée en particulier, et la voie suivie pour mettre en oeuvre le passage à l’échelle sur les supercalculateurs. Les développements sont illustrés avec des exemples en environnement industriel, pour la sûreté nucléaire ou la protection des citoyens.

François Ruty (LUNA) HPC — Couvrir le dernier km, indispensable pour la démocratisation

Ouvrir le HPC à de nouveaux usages nécessite de proposer aux utilisateurs des applications métier clef en main (frontend), appuyées à une infrastructure flexible (backend). Résumé des problèmes opérationnels rencontrés et des réponses apportées par Luna.

Serge Petiton (CNRS/LIFL et Maison De La Simulation) L’accès aux puissances de calcul, les enjeux sociétaux et individuels

Les puissances de calcul actuelles ou annoncées pour la prochaine décennie permettront des avancées dans de nombreux secteurs socio-économiques. Associées à de nombreuses révolutions en cours, dont celles autour des Big Data et des clouds, les possibilités ouvertes sont loin d’être perçues actuellement. De nombreux nouveaux domaines d’application vont pouvoir bénéficier de ces nouveaux écosystèmes qui se mettent en place ; ceux-ci iront probablement de versions centralisées autour de grands projets internationaux jusqu’à des environnements répartis entre pairs et associatifs. Les impacts de ces travaux en cours et à venir vont dépasser les domaines scientifiques habituels du cal- cul scientifique intensif. L’ajout d’analyses ontologiques et sémantiques aux puissances de calcul habituelles, sur des données de plus en plus grandes, représentatives et interconnectées, va générer des retombées so- ciétales importantes, parfois très nouvelles. Chaque individu aura, directement ou non, besoin de puissance de calcul « suffisante » pour en profiter. L’accès à des puissances de calculs importantes pourrait devenir déterminante à terme pour de nombreuses personnes. Dans cet exposé, après avoir rappelé les bases scientifiques, dans les domaines concernés, nous tache- rons de poser le problème, de montrer quelques exemples et de discuter des impacts sociétaux possibles de ces changements en cours et à venir.

public/seminaires/seminaire-2014-05-20.txt · Dernière modification: 2014/06/10 10:54 par aristote
CC Attribution-Noncommercial-Share Alike 3.0 Unported
www.chimeric.de Creative Commons License Valid CSS Driven by DokuWiki do yourself a favour and use a real browser - get firefox!! Recent changes RSS feed Valid XHTML 1.0