Calcul scientifique, incertitudes et validation de modèles mathématiques à Los Alamos National Laboratory

Au LMSSC, Cnam, Paris, le 26 juin 2001
François Hemez (Engineering Analysis Group, Los Alamos National Laboratory, LANL, New Mexico, USA)

Les ressources informatiques actuellement disponibles rendent plus que jamais possible la modélisation et l’analyse de phénomènes physiques très complexes. Un tel exemple est le programme ASCI (Accelerated Strategic Computing Initiative) du Département américain de l’Énergie. Il consiste à développer plusieurs plate formes capables de produire de 3 à 30 x 10+12 multiplications par seconde (ou 3-30 TeraOps) en distribuant les opérations parmi plus de 6,000 processeurs de calcul. Les problèmes qui nécessitent l’accès à des codes multiphysiques et à de telles architectures sont, par exemple, la prédiction globale du climat, la modélisation des épidémies, la dynamique moléculaire et la physique thermonucléaire. Bien que les efforts actuels de recherche et développement consistent majoritairement à démontrer que de tels phénomènes peuvent être modélisés numériquement, les scientifiques s’intéressent de plus en plus à la fidélité de leurs prédictions numériques en dehors des situations ou régimes pour lesquels il est possible de réaliser des mesures exp érimentales. Ce domaine émergeant est généralement désigné comme celui de la validation de modèles. Des difficultés typiques incluent l’interprétation des vastes quantités d’information, la prise en compte des incertitudes de modélisation ainsi que l’estimation de la "fiabilité" d’une simulation. Estimer la qualité des prédictions numériques à l’extérieur des conditions nominales pour lesquelles les modèles sont développés est particulièrement crucial lorsque sont simulés des phénomènes "rares" ou catastrophiques caractérisés par des distributions de probabilité peu connues.
La présentation propose une réflexion sur les efforts de recherche et développement actuellement en cours concernant la quantification des incertitudes et la validation des modèles numériques à Los Alamos National Laboratory. La discussion aborde les étapes successives de :
  • conception des expériences physiques et numériques ;
  • comparaison entre mesures et prédictions numériques ;
  • interrogation des résultats numériques par méthodes statistiques ;
  • identification des paramètres qui expliquent la variabilité observée dans les résultats ;
  • optimisation des paramètres du modèle pour améliorer la fidélité des simulations ;
  • estimation de la qualité prédictive du modèle.
  • La discussion est illustrée par une application de Mécanique des Solides. Un modèle simplifié d’ogive nucléaire est soumis à un environnement hostile. Plusieurs expériences physiques sont réalisées en détonant une grille d’explosifs positionnée sur le joint principal de l’assemblage, ce qui propage une onde de choc à l’intérieur du système. Le modèle mécanique correspondant est fortement non-linéaire, couplé à un modèle thermique et comporte de l’ordre de 10 millions de degrés de liberté ainsi que 12 variables aléatoires. Son analyse nécessite de l’ordre de 6 heures de temps CPU en utilisant 504 processeurs du super-calculateur le plus puissant au monde. Les actions entreprises pour tenter de valider de telles simulations numériques dans le cadre des contraintes budgétaire et des ressources informatiques disponibles sont présentées.