Fluminance et turbulence, quand les petits ruisseaux font les grandes rivières

Un entretien avec Etienne Mémin, responsable de l'équipe Fluminance.

Photographie d'Etienne Memin dans le campus de Beaulieu
  1. Raconte-nous ton parcours
  2. Peux-tu nous en dire plus sur l'équipe Fluminance ?
  3. C'est quoi un modèle aléatoire ?
  4. Peux-tu préciser les avantages des modèles probabilistes ?

Raconte-nous ton parcours

Je suis fils d'un mathématicien, probabiliste. J'ai ainsi baigné dans le monde académique, mais ai très vite ressenti une barrière autour des mathématiques comme étant le domaine de mon père. Après le bac, je me suis tourné d'abord vers la physique puis vers l'informatique, à l'université de Rennes. Mais je me suis rendu compte que les maths me manquaient, et je me suis réorienté vers le traitement d'images et du signal.

Après une thèse en analyse du mouvement dans des séquences vidéo, j'ai obtenu un poste de maître de conférences à l'UBS à Vannes, puis à l'IRISA à Rennes. C'est donc par le biais de séquences d'images que j'ai commencé à m'intéresser aux écoulements fluides.

Je suis alors parti deux ans en Argentine dans un laboratoire de mécanique des fluides. C'était enthousiasmant ! Ils se donnaient un espace de liberté immense, en n'hésitant pas à s'attaquer à des problèmes vraiment difficiles, même dans ce laboratoire de taille modeste.

À mon retour, j'ai postulé en tant que directeur de recherche à Inria, avec dans mon projet la création de l'équipe Fluminance.

Peux-tu nous en dire plus sur l'équipe Fluminance ?

J'ai créé l'équipe Fluminance avec deux collègues de l'IRSTEA, Dominique Heitz et Christophe Collewet. C'est une équipe-projet Inria associée à l'IRMAR et l'INRAe. Les thèmes abordés par l'équipe couvrent à la fois la mécanique des fluides industriels (données issues de laboratoires) et les écoulements géophysiques (données issues de satellites).

L'équipe arrive désormais à l'issue de ses 12 ans  d'existence, et est amenée à évoluer. En s'appuyant sur notre ERC [NDLR: Etienne Mémin, avec Darryl Holm, Dan Crisan et Bertrand Chapron, a récemment été le lauréat d'une bourse importante du Conseil Européen de la Recherche], nous souhaitons recentrer les thèmes vers les modèles océaniques, en particulier en nous rapprochant fortement de l'IFREMER à Brest. Le troisième site sera l'Imperial College à Londres, couvrant à la fois les outils probabilistes et géométriques pour les écoulements. L'équipe sera amenée à grossir significativement à travers l'encadrement de plusieurs thèses et post-docs longs.

Il s'agira d'articuler la dérivation et l'étude de modèles probabilistes d'écoulements, les analyses de données et de mesures, et le couplage modèles-données.  C'est l'occasion de s'investir aux côtés des géophysiciens et des matheux sur autour de la question du changement climatique, à travers les thèmes de dynamique océanique, d'interaction avec l'atmosphère, etc., qui sont des thèmes sur lesquels Inria est pour l'instant peu présent.

C'est quoi un modèle aléatoire ?

C'est un modèle avec un terme d'incertitude modélisé par du bruit probabiliste. Cela intervient naturellement lorsque l'on cherche à coupler des modèles et des données, car les données elle-mêmes sont bruitées. Il existe un cadre de travail, à savoir le filtrage stochastique, pour combiner l'incertitude sur les modèles et le bruit sur les données.

On cherche à ce que le système soit assez dispersif de façon à ce que la donnée d'observation soit inclue dans le nuage de réalisations. Par ailleurs, dans des modèles tels que Navier-Stokes [NDLR: voir ce lien pour une introduction aux équations de Navier-Stokes], la présence d'un terme non-linéaire fait interagir toutes les échelles entre elles. Pour des raisons de temps de calcul, il est nécessaire de filtrer les petites échelles. Il faut alors modéliser l'effet de ces petites échelles sur les grandes échelles, et une manière relativement simple d'aborder cette étape consiste à introduire de l'aléa.

Les termes aléatoires sont alors construits à partir de la physique, et l'intensité du bruit offre un degré de liberté supplémentaire à discuter dans la modélisation. Similairement à une diffusion trop forte, un aléa trop important dégradera la précision des prédictions, mais s'il est trop peu important, on perdra les effets de turbulence des petites échelles qui peuvent être essentiels sur les propriétés de l'écoulement à grandes échelles. L'objectif est donc d'insérer un aléa bien structuré et bien informé, par exemple calibré via des simulations à haute résolution.

Peux-tu préciser les avantages des modèles probabilistes ?

Les termes qui émergent du fait du calcul stochastique apportent des informations phénoménologiques intéressantes sur l'effet de la turbulence sur les grandes échelles.

En plus de la diffusion usuelle (terme déterministe) et du transport de la grande échelle par la petite échelle (terme aléatoire), on observe via la formule d'Itō [NDLR: voir ce lien pour une introduction sur le calcul stochastique et la formule d'Itō] une correction de l'advection à grande échelle due à l'inhomogénéité du bruit ajouté. Si cette inhomogénéité à petite échelle perdure suffisamment dans le temps, cela structure le flot à grande échelle. C'est joli ! Cela généralise ce que faisaient déjà de manière ad hoc les géophysiciens, par exemple avec le terme de dérive de Stokes, mais faire cette analyse dans un cadre purement déterministe serait plus délicat.

Mais il y a aussi des inconvénients, et le problème du calcul d'Itō est que l'on perd toute information sur la dynamique des petites échelles, à cause de l'hypothèse de décorrélation temporelle de l'aléa. Pour apprendre cette dynamique, nous souhaitons combiner des outils d'analyse des systèmes dynamiques tels que les opérateur de Perron-Frobenius ou de Koopman avec des outils d'apprentissage statistique afin de caractériser à partir de séquence d'observation des lois d'évolution sur des quantités intervenant dans la constitution du bruit. C'est un sujet qui me motive énormément en ce moment.