Approximation d'un problème de contrôle optimal sur un réseau.

Un problème de contrôle optimal est associé à un système dynamique de la forme y'=f(y,a), où le paramètre a est un contrôle fixé par l'opérateur et à un coût que l'on cherche à minimiser. L'approche de Bellman consiste à étudier la fonction valeur du problème. Celle-ci est solution de viscosité d'une équation de Hamilton-Jacobi-Bellman. Depuis 2013, une théorie des équations de H-J posées sur un réseau a été développée (Achdou-Camilli-Cutri-Tchou et Imbert-Monneau-Zidani), associées justement à un système dynamique évoluant sur cette structure.
Dans cet exposé je parlerai de la théorie des solutions de viscosité et des équations de Hamilton Jacobi, et je présenterai le travail que j'effectue en thèse, qui consiste à essayer d'approcher un problème de contrôle sur le réseau à partir d'une suite de problèmes de contrôles posés sur tout l'espace. Plus précisément, on démarre d'un système dynamique contrôlé dans tout le plan auquel on ajoute un terme de pénalisation pour ramener les solutions vers un réseau du plan et on cherche le problème limite qui devrait être un problème de contrôle posé sur le réseau.