Séminaire des doctorants du CMAP et du CMLS
2022-2023
Vendredi 30 juin (11h-12h): Nathan Sauldubois (CMAP)
Couverture avec impact champs moyen et position de place
On s’intéresse à un problème de couverture d’un profil de risque dans un modèle champ moyen. Le modèle étudié est alors un jeu à champ moyen étendu. On étudiera l’existence d’équilibre de Nash faible ainsi que la propagation du chaos. Enfin nous exposerons les méthodes numériques envisagées pour simuler l’équilibre de Nash.
Mercredi 7 juin (15h-16h): Melanie Koser (Humboldt-Universität (Berlin), visiting CMAP)
Scaling Laws: A variational approach to understand energy-driven pattern formation
Pattern formation in materials can often be explained in the context of the calculus of variations. The resulting minimization problems are often analytically and numerically challenging due to their nonlocal and/or nonconvex structure. In many cases, explicit minimizers cannot be computed explicitly. As a first step towards the understanding of low-energy states and qualitative properties of minimizers (such as periodicity or self-similarity) one often focuses on the scaling of the minimal energy in terms of the problem parameters. This requires the explicit construction of good competitors and the proof of a matching ansatz-free lower bound.
The aim of this talk is to give an introduction to scaling laws and how to obtain them. For this sake we prove the scaling law of two one-dimensional toy examples. The one-dimensional models are related to the so called Kohn-Müller model (’92 and ’94) which models the martensitic phase transition of shape memory alloys. We will also briefly discuss recent results on the properties of minimizers of the Kohn-Müller model based on a joint work with Sergio Conti, Johannes Diermeier and Barbara Zwicknagl.
Mercredi 17 mai (15h-16h): Mini exposés jeunes
Mercredi 3 mai (15h-16h): Thomas Bellotti (CMAP)
Schémas de Boltzmann sur réseau : des méthodes numériques atypiques pour les EDPs
Dans cet exposé - qui a vocation de s’adresser à un public très large - je vais vous livrer mon point de vue et mes réflexions sur les méthodes de Boltzmann sur réseau.
Les méthodes de Boltzmann sur réseau - introduites dans des travaux pionniers à la fin des années ‘80 - s'offrent comme une alternative extrêmement rapide aux méthodes traditionnelles (différences finies, volumes finis, éléments finis, etc.) pour les EDPs, en particulier, mais pas seulement, pour simuler des écoulements fluides. Il s'agit de méthodes explicites en temps, mimant une dynamique mésoscopique basée sur un nombre réduit de vitesses discrètes, auxquelles des densités de ``particules'' sont associées. À chaque étape de la méthode de Boltzmann sur réseau, ces ``particules'' effectuent une étape de collision, ou relaxation locale, suivie d'une étape de transport selon leur vitesse respective. La grande rapidité de la méthode vient donc de la localité de la collision, qui permet, entre autres, de paralléliser aisément ces méthodes et du fait que les vitesses discrètes sont choisies de telle sorte à ce que les particules restent ``attachées'' au maillage discret au cours du temps. Le maillage spatial étant Cartésien uniforme, l'étape de transport peut se résumer à un déplacement de pointeur vers une case mémoire.
Cependant, les méthodes de Boltzmann sur réseau constituent d'une part une mine d'or et d'autre part une forêt vierge pour les analystes numériciens. En effet, un nombre très important de questions à leur sujet restent ouvertes. Cela vient – à mon avis - de l'origine algorithmique de la méthode de Boltzmann sur réseau: on conçoit d'abord le schéma et - seulement dans un second temps - on se pose la question de quel jeu d'équations il approche et de quelles sont ses propriétés. Cette origine algorithmique fait que les méthodes de Boltzmann sur réseau utilisent plus d'inconnues que le problème qu'elles visent à résoudre, ce qui constitue, à mon sens, le nœud de la question.
Après une introduction générale sur ces méthodes, le but de mon exposé sera de s’attaquer au problème d’une compréhension mathématiquement rigoureuse des méthodes de Boltzmann sur réseau dans toute leur richesse. L’approche adoptée, qui n’est pas la seule possible mais qui m’a semblé être celle ayant la plus grande généralité, a été d’éliminer exactement certaines variables « fictives » - afin de palier cet excès d’inconnues - à travers d’une procédure purement algébrique. Cela a permis de répondre à une première question fondamentale sur la consistance des méthodes, autrement dit, de pourquoi elles approchent bien les EDPs visées. Une question qui s'ensuit naturellement et que cela a permis de traiter concerne l'étude de la résilience de ces schémas aux perturbations, donc de leur stabilité. La combinaison de ces deux aspects ouvre la voie à l'étude de la convergence des méthodes de Boltzmann sur réseau vers la solution du problème cible. Le but est de faire en sorte que les méthodes de Boltzmann sur réseau soient finalement considérées comme des schémas numériques pour les EDPs à part entière et rentrent enfin dans le cadre disciplinaire propre à l’analyse numérique.
Mercredi 19 avril (15h-16h): Emmanuel Kammerer (CMAP)
Distances sur les cartes 3/2-stables
Considérons des cartes planaires aléatoires avec des grandes faces, obtenues en associant à chaque face de degré k un poids de Boltzmann d'ordre 1/k². On peut munir ces cartes de la distance de graphe dual. Nous identifierons l'asymptotique de la distance entre deux faces uniformes et verrons que le diamètre est du même ordre, vérifiant alors qu'une telle carte ressemble à une "étoile". J'en profiterai pour présenter l'outil principal dans l'étude de ces cartes : l'exploration par épluchage. Cette exploration permet de relier les distances à une marche aléatoire conditionnée à rester positive jusqu'à ce qu'elle plonge et meure très bas sous l'axe des abscisses. Cette marche aléatoire conditionnée vérifie une limite d'échelle vers un processus de Lévy stable conditionné à rester positif et à mourir en -1.
Mercredi 5 avril (15h-16h): Grégoire Pacreau (CMAP)
Kernel methods for Koopman operator estimation
L'opérateur de Koopman permet de caractériser des systèmes non linéaires dans un espace de plus grande dimension où il devient linéaire. Inventé dans les années 1930, le concept était longtemps considéré comme purement théorique jusqu'à l'arrivée de l'algorithme DMD, lui-même inspiré par la décomposition en valeurs singulières. Toutefois, DMD suppose la connaissance des sources de non linéarité dans le système. Nous présenterons le travail de Kostic et al, 2023 qui propose une méthode par noyaux pour apprendre l'opérateur de Koopman d'un système dynamique. Nous détaillerons les bornes théoriques trouvées par le papier ainsi que les applications de cette méthode, dont une ouverture sur l'apprentissage profond.
Mercredi 22 Mars (15h-16h): Arthur Loison (CMAP)
Systems of conservation laws and two-phase flow modeling
Two-phase flows involving immiscible fluids (jets, sprays, free surface, bubbles) can be simulated with two approaches. The first one requires to solve the precise location of the interface and solve the usual flow dynamics on each side but it is computationally expensive. The second one discards the smallest details thanks to an averaging procedure which provides a system of conservation laws with good mathematical properties (hyperbolicity), but the interface dynamics under the averaging scale must be modeled.
In this presentation, we follow this second approach by first overviewing different models for the unresolved scales. Second, the main results for the analysis of system of conservation laws are provided. Finally, we focus on how to build adapted numerical schemes for these systems.
Mercredi 8 Mars (15h-16h): Ignacio Madrid Canales (CMAP)
Comportement ergodique d'un processus déterministe par morceaux structuré en taille et en âge
On veut étudier la distribution de la taille des cellules d'une population de bactéries, en intégrant des données recueillies à l'échelle individuelle. Dans ce but, on propose un modèle stochastique individu-centré qui peut être calibré en utilisant des données temporelles de lignées de cellules individuelles acquises par des techniques de microfluidique. Ces données offrent accès également à la structure d'âge, qui peut alors être utilisée pour fournir une caractérisation non-markovienne plus précise de la croissance des individus. Plus généralement, ce modèle nous conduit à l'étude du comportement en temps long d'un processus stochastique à valeur mesure non conservatif, déterministe par morceaux, et avec support sur R^2 (taille + âge). Ce processus est dirigé par un flot déterministe entre des temps de saut aléatoires, avec un noyau de transition qui a une forme dégénérée. Je donnerai quelques idées sur la façon d'obtenir l'ergodicité exponentielle d'un tel processus à partir d'une approche probabiliste. On finira par une application à un processus de croissance-fragmentation structuré en âge modélisant la prolifération d'une population d'E. coli sous traitement antibiotique.
Mercredi 22 Février (15h-16h): Grégoire Szymanski (CMAP)
Estimation of the Hurst parameter in rough stochastic volatility model
The goal of this talk is to present the estimation of the Hurst parameter in rough stochastic volatility model.
First, we will recall what rough volatility is and why it is used in finance. In these models, we observe a stochastic diffusion driven by a Brownian motion. The volatility is a hidden Fractional Brownian motion. Moreover, the diffusion is only observed at discrete time.
We will explain how this problem relates to the somewhat easier observations of the underlying fractional Brownian motion at discrete time polluted by an additive noise, in the same spirit as [3]. Considering the observations $\eta W^H_{i/n} + \varepsilon_{i}^n$, we build an estimator based on quadratic variations with convergence rate $n^{1/(4H+2)}$ as in [3]. We also prove that this rate is minimax, using an adequate wavelet-based construction of the fractional Brownian motion in the second case, see [4].
Finally, we will discuss how this estimator can be generalised to the multiplicative noise model and to a non-parametric setting as in [1].
[1] Chong, C.; Hoffmann, M.; Liu, Y.; Rosenbaum, M.; Szymanski, G. (2022) - Statistical inference for rough volatility: central limit theorems - arXiv:2210.01216
[2] Chong, C.; Hoffmann, M.; Liu, Y.; Rosenbaum, M.; Szymanski, G. (2022) - Statistical inference for rough volatility: Minimax theory - arXiv:2210.01214
[3] Fukasawa, M.; Takabatake, T.; Westphal, R. (2019) - Is Volatility Rough ? - arXiv:1905.04852
[4] Szymanski, G. (2022) - Optimal estimation of the rough Hurst parameter in additive noise - arXiv:2205.13035
Mercredi 8 Février (15h-16h): Mini exposés
Mercredi 25 Janvier (15h-16h): Jessie Levillain (CMAP)
Locomotion flagellaire de micro-organismes
De nombreuses modélisations simples tentent d’expliquer la locomotion de micro-organismes qui évoluent dans un fluide. En effet, la compréhension de ces systèmes est cruciale pour de nombreux domaines des sciences, et en particulier en biologie, car des organismes tels que les bactéries, les spermatozoïdes ou les micro-algues sont à l’origine de la vie.
Cependant, à cause de leur taille réduite, les micro-nageurs se retrouvent dans une configuration à bas nombre de Reynolds, où l’inertie est négligeable par rapport aux effets visqueux du fluide et où les écoulements deviennent réversibles. Si ces organismes emploient des stratégies variées pour parvenir à nager, une grande partie d’entre eux utilisent néanmoins un ou plusieurs flagelles pour se mouvoir. Nous explorons ici sur des modèles de nageurs très simplifiés qui pourraient permettre de mieux comprendre le fonctionnement des flagelles.
Un des premiers modèles simples a été proposé dans [5], où le nageur est composé de trois sphères reliées par des bras rigides mais extensibles. Ce modèle a ensuite été étendu à un nageur doté d’un ressort dans [4]. Nous proposons ensuite un système obtenu par passage à la limite d’un nombre infini de ressorts de plus en plus petits [2]. Cependant, nous avons observé que l’onde qui se propage dans le flagelle s’amortit très rapidement. Une observation similaire a également été faite par Machin [3], qui démontre que l’oscillation observée le long d’un flagelle de spermatozoïde n’est possible qu’en présence d’un mécanisme actif interne au système prédisant le rôle des moteurs moléculaires qui activent le flagelle [1].
[1] F. Jülicher. Force and motion generation of molecular motors : A generic description. p. 46–74. doi :10.1007/bfb0104221.
[2] J. Levillain. Etude de modèles simples de micro nageurs. Rapport de stage de Master 2 encadré par François Alouges et Aline Lefebvre-Lepot, 2021.
[3] K. E. MACHIN. Wave Propagation along Flagella. Journal of Experimental Biology, 35(4), 796–806, 1958. doi :10.1242/jeb.35.4.796.
[4] A. Montino, A. DeSimone. Three-sphere low-reynolds-number swimmer with a passive elastic arm. The European Physical Journal E, 38, 1–10, 2015..
[5] A. Najafi, R. Golestanian. Simple swimmer at low reynolds number : Three linked spheres. Phys. Rev. E, 69, 062901, 2004. doi :10.1103/PhysRevE.69.062901.
Mercredi 11 Janvier (15h-16h): Nicolas Vandame (CMAP)
No Self-Concordant Barrier Interior Point Method Is Strongly Polynomial
Self-concordant barrier interior point methods (IPMs) solve minimization problems over a polyhedron with linear cost by adding a parametric cost defined by a self-concordant barrier. Self-concordant barriers are strictly convex functions which blow up at the border of the feasible set and whose Hessian locally does not change much. For each value of the parameter, the parametric problem has a unique minimizer. The parametric family of the minimizers draws a curve inside the polyhedron called the central path. When the parameter goes to infinity, the central path converges to an optimal value of the initial linear problem. IPMs follow the central path to find an approximated solution.
One of the major open problems in computational optimization, known as Smale's ninth problem, asks to find a strongly polynomial algorithm for linear programming. In this context, making any substantial progress on the understanding of the worst-case number of iterations performed by IPMs is a notorious open question.
Our contribution generalizes the result in [ABGJ18] which shows that IPMs based on the logarithmic barrier are not strongly polynomial. The authors study parametric families of linear programs with their central paths by looking at their tropicalization, i.e. the limit of their log-image. The tropicalization of the central path is a piecewise linear curve called the tropical central path.
We present our results from [AGV22] which show that no self-concordant barrier IPM is strongly polynomial. To achieve this, we show that any self-concordant barrier behaves essentially like the logarithmic barrier. We use this to prove that IPMs draw polygonal curves in a multiplicative neighborhood of the central path whose log-limit coincides with the tropical central path, independently of the barrier. We provide an explicit parametric linear program that falls in the same class as the Klee-Minty counterexample to the simplex method, i.e. whose feasible set is a combinatorial cube. Its tropical central path is composed of an exponential number of segments in the dimension. When the parameter is large, the log-image of the trajectory of the IPM approximates the tropical central path, meaning that the IPM must perform that many iterations, thus breaking strong polynomiality.
[ABGJ18] - Xavier Allamigeon, Pascal Benchimol, Stéphane Gaubert and Michael Joswig. Log-Barrier Interior Point Methods Are Not Strongly Polynomial. SIAM Journal on Applied Algebra and Geometry, Volume 2, Pages 140-178, 2018.
[AGV22] - Xavier Allamigeon, Stéphane Gaubert and Nicolas Vandame. No self-concordant barrier interior point method is strongly polynomial. Proceedings of STOC'2022, 54th Annual ACM Symposium on Theory of Computing.
Mercredi 14 Décembre (15h-16h): Naoufal Acharki (CMAP)
Calibrating Prediction Intervals for Gaussian Processes using the Cross-Validation method
Gaussian Processes are considered as one of the most important Bayesian Machine Learning methods. They typically use the Maximum Likelihood Estimation or Cross-Validation to fit parameters. Unfortunately, these methods may give an advantage to the solutions that fit observations on average, but they do not pay attention to the coverage and the width of Prediction Intervals. This may be inadmissible, especially for systems that require risk management. Indeed, an interval is crucial and offers valuable information that helps for better management than just predicting a single value.
In this presentation, I will give an overview of Uncertainty Quantification and the Gaussian Processes model. Then, I will present a method we developed for adjusting and calibrating Prediction Intervals for Gaussian Processes Regression. First, we determine the model's parameters by a standard Cross-Validation or Maximum Likelihood Estimation method. Second, we adjust the parameters to assess the optimal type II Coverage Probability to a nominal level. The method gives Prediction Intervals with appropriate coverage probabilities and small widths.
Jeudi 1er Décembre (15h-16h): Antoine Béreau (CMAP)
Un tour d'horizon des mathématiques tropicales
Les mathématiques tropicales sont une branche des mathématiques qui a émergé dans les années 1980 et n'a cessé de se développer depuis, à l'interface avec de nombreuses autres domaines mathématiques. L'idée générale est la suivante : on considère l'ensemble des nombres réels — ou plus généralement un groupe abélien ordonné — et l'on observe les structures qui émergent en remplaçant l'addition usuelle par l'addition dite tropicale, qui n'est autre que le maximum, ou le minimum selon les conventions, et la multiplication usuelle par la multiplication tropicale, qui elle correspond à l'addition usuelle. En rajoutant de plus l'élément -∞ ou +∞, on remarque que ces opérations satisfont les axiomes d'un anneau commutatif à une exception : l'addition tropicale n'admet pas d'élément inverse. On parle alors du semi-anneau tropical. Le semi-anneau tropical fournit un contexte naturel pour décrire certains problèmes d'optimisation ou de théorie des jeux. Une autre approche, venant de la géométrie algébrique, consiste à voir le semi-anneau tropical comme l'image d'un corps valué non-archimédien par sa valuation. On peut alors notamment s'intéresser aux polynômes tropicaux, et aux (pré)variétés tropicales qu'ils engendrent : on appelle ce domaine d'étude la géométrie tropicale. Dans cet exposé, après une partie introductive où nous poserons les définitions de base, nous allons proposer un tour d'horizon du sujet, à travers l'étude de différents problèmes liés aux différents domaines mentionnés précédemment, puis dans un dernier temps, je présenterai mon sujet de thèse, portant sur la résolution des systèmes polynomiaux tropicaux, et ses applications.
Mercredi 16 Novembre (15h-16h): Corentin Houpert (CMAP)
Problème inverse pour la neutronique aléatoire
La détection et la caractérisation de la matière fissile sont des questions cruciales, notamment en matière de sûreté nucléaire, de garanties, de comptabilité de la matière et de mesures de réactivité. Dans ce contexte, nous voulons identifier une source de matière fissile en connaissant des mesures externes telles que les instants de détection pendant un intervalle de mesure donné. Ainsi, on observe les instants de détection des neutrons émis par la matière fissile et traversant le détecteur, puis on calcule les moments de la distribution empirique du nombre de neutrons détectés durant une porte temporelle T. Afin d'identifier la source, on doit obtenir les paramètres suivants : le facteur de multiplication k_eff du système, l'intensité de la source S, l'efficacité de fission ε_F. Compte tenu des paramètres de la source, il existe des modèles qui permettent de prédire les moments du nombre compté de neutrons pendant un temps T. Nous considérons un modèle ponctuel dans lequel les neutrons monocinétiques se déplacent dans un milieu infini, isotrope et homogène. La méthode permet de calculer les moments de la distribution du nombre compté : les physiciens prennent généralement en compte les trois premiers moments (car les moments d'ordre supérieur à quatre sont bruyants). Ensuite, étant donné les moments du nombre de neutrons comptés pendant un temps T, nous voulons obtenir les paramètres de la source fissile. Pour atteindre ce but, nous allons utiliser une approche bayésienne afin d'obtenir la distribution des paramètres. Cette distribution n'est pas triviale, les échantillons peuvent être obtenus avec des méthodes de Monte-Carlo par chaîne de Markov avec matrice d'adaptation de covariance (MCMC avec CMA). Après une étude de cas, et une analyse des formules des moments dans différents régimes de fonctionnement du système, nous utiliserons les mesures pour deux tailles de fenêtre différentes T_1 et T_2.
Mercredi 26 Octobre (15h-16h): Clément Mantoux (CMAP)
Sélection de modèle pour les données longitudinales : application à la maladie de Parkinson
Comment modéliser la progression d'une maladie neurodégénérative ? Les recherches en neurosciences s'appuient sur le suivi de patients atteints par la maladie : à chaque visite, leur état est mesuré à l'aide d'un ensemble de protocoles standardisés, qui permettent d'évaluer quantitativement la gravité des symptômes et leur évolution. À partir de ces données, on cherche à déterminer, d'un point de vue statistique, quelle est la progression "typique" d'un patient atteint par la maladie, et comment chaque individu dévie de cette trajectoire centrale.
Pour les maladies neurodégénératives comme la maladie de Parkinson, l'évolution des symptômes comporte souvent des ruptures nettes, qui correspondent par exemple au début d'un traitement ou à une aggravation des symptômes. Se pose alors une question statistique simple : quel est le nombre de ruptures le plus adapté pour décrire les données ? Dans cet exposé, je reviendrai dans un premier temps sur les méthodes classiques de sélection de modèle et leur interprétation. Dans un second temps, je présenterai le modèle que nous utilisons et son application à une cohorte de sujets atteints par la maladie de Parkinson.
Mercredi 12 Octobre (15h-16h): Loïc Balazi (CMAP)
Multi-scale Finite Element Method for incompressible flow
Multi-scale problems arise in numerous engineering fields such as reservoir engineering, flows through fractured porous media, flows in nuclear reactor cores, etc. In these media with many obstacles of various sizes, the macroscopic flow is directly influenced by local phenomena occurring at the finest scales. Thus, these problems require a very fine mesh to resolve all the details. Despite the continuous increase in computer resources, these are insufficient to perform classical finite element simulations with an accuracy allowing correct resolution of the finest scales of the flow. To overcome this limitation, various multi-scale methods have been developed to attempt to resolve scales below the coarse mesh scale by incorporating local computations into a global problem which is defined only on a coarse mesh. Among the many multi-scale approaches that have been proposed in the literature, we can mention Homogenization based Methods, Heterogeneous Multi-scale Methods (HMM), Variational Multi-scale Methods, Multi-scale Finite Volume Methods, Local Orthogonal Decomposition (LOD) or Multi-scale Finite Element Methods (MsFEM).
In this talk, we focus on the Multi-scale Finite Element Method. The MsFEM uses a coarse mesh on which one defines basis functions which are no longer the classical polynomial basis functions of finite elements, but which solve fluid mechanics equations on the elements of the coarse mesh. These functions are themselves numerically approximated on a fine mesh considering all the geometric details, which gives the multi-scale aspect of this method. We propose to develop an enriched non-conforming Multi-scale Finite Element Method to solve viscous incompressible flow in heterogeneous media (Stokes problem). Our MsFEM is in the vein of the classical non-conforming Crouzeix-Raviart Finite Element Method with high-order weighting functions. The novelty of this work is the actual implementation of higher order method and the proof of error estimate.
2021-2022
Mercredi 8 Juin (15h-16h): Tuan Anh Vu (CMAP)
Convergence analysis for multi-step one-shot methods
We are interested in inverse problems where the corresponding forward problems are solved iteratively. Then one-shot methods, which iterate at the same time on the forward problem solution and on the inverse problem unknown, can be applied. At the first step we begin with general linear inverse problem where the corresponding forward problem is solved iteratively by fixed point methods. We analyze two variants of the so-called multi-step one-shot methods and establish sufficient conditions on the descent step for their convergence. Several numerical experiments are provided to illustrate the convergence of these methods. In particular we would want to investigate the relation of descent step and number of inner iterations employed to solve the forward problem.
Mercredi 11 Mai (15h-16h): Etienne Bonnafoux (CMLS)
Les surfaces à petits carreaux et leurs cocycles de Kontsevich-Zorich
Les surfaces à petits carreaux ( parfois appelées origamis) sont des surfaces à géométries plates, que l'on peut dessiner sur un tableaux ça tombe bien, qui ont un caractère combinatoire les rendant facile à étudier. Elles sont également dynamiquement intéressantes, nous pouvons agir sur elle par une matrice de SL(2,R) pour la déformer puis faire une opération de découpe-recollage pour revenir à la surface de départ.
Dans ce cas comment, si on revient au point de départ, se souvenir de l’opération effectuée ? En regardant ce que deviennent les lacets tracés sur la surface. Nous obtenons alors une famille de matrices, c’est le cocycle de Kontsevich-Zorich.
Dans un travail joint avec P. Kattler, M. Kany, C. Matheus, R. Niño, M. Sedano-Mendoza, F. Valdez and G. Weitze-Schmidthüsen, nous nous sommes intéressés à trouver des exemples et contre-exemples d’une certaine propriété qu’auraient ces familles de matrices, l’arithméticité, c’est-à-dire si le groupe engendré par ces matrices est grand relativement à sa fermeture pour la topologie de Zariski.
Mardi 26 Avril (15h-16h): Apolline Louvet (CMAP)
Modélisation de la dynamique des plantes dans les pieds d'arbres d'alignement
En vous baladant dans Paris ou en allant prendre le 91.06 à Massy-Palaiseau, vous avez très certainement déjà croisé des arbres au milieu des trottoirs, entourés de goudron, et avec quelques "mauvaises herbes" au pied. Pour les écologues, ces pieds d'arbres remplissent potentiellement une fonction écologique très importante: celle de corridors écologiques entre espaces verts plus grands. Pour autant, ce n'est pas forcément le cas en pratique, car il s'agit aussi d'un environnement très perturbé du fait de l'action des jardiniers, des piétons,...
Durant ma thèse, je me suis intéressée à cette question sous l'angle de la présence d'une banque de graines, c'est à dire d'un stock de graines dormantes pouvant germer plusieurs années après leur production. Etaler la germination des graines sur plusieurs générations au lieu de la concentrer sur une seule peut en effet permettre de "contourner" les événements d'extinction et de garantir la survie de la population à long terme (au prix d'un désavantage sélectif à court terme). D'un point de vue mathématique, une banque de graines correspond à de la dispersion en temps, à ceci près que contrairement à la dispersion en espace, elle est non réversible, ce qui complique l'analyse mathématique.
Dans cet exposé, je présenterai plusieurs modèles de dynamique des populations de plantes dans les pieds d'arbres d'alignement : deux modèles de présence-absence (le Propagule Rain Model et le BOA process) et un modèle individu-centré (le k-parent WFSB) représentant les extinctions par des invasions de fantômes. Au programme : chaînes de Markov et percolation orientée, le tout saupoudré de statistiques.
Mercredi 13 Avril (15h-16h): Dominik Stantejsky (CMAP)
Asymptotic Shape of Isolated Magnetic Domains
In this talk I will present a recent result on the asymptotic shape of a two or three dimensional single isolated magnetic domain in the large volume limit by means of Gamma-convergence. I will start with an introduction to the micromagnetic model and give a short overview on how this result fits into the larger class of isoperimetric problems. The main part of the talk consists of a compactness and Gamma-convergence theorem for rescaled almost-minimal configurations. I will conclude by showing how one can explicitly obtain the minimizers of the limit problems. If time permits, I will comment on the difficulties for obtaining stronger compactness and the generalization to higher dimensions.
Mercredi 30 Mars (15h-16h): Clément Gauchy (CMAP)
Régression par processus Gaussien de codes de calcul coûteux pour la quantification d’incertitudes
L’augmentation de la puissance de calcul des ordinateurs au courant des années 1980 a rendu incontournable l’utilisation de codes de calculs numériques pour la simulation de phénomènes physiques complexes.
Ces codes de calcul sont souvent coûteux en termes de temps de calcul et de ressources matérielles, si bien que leur appel répété à différentes valeurs de paramètres d’entrée du code à des fins d’exploration du comportement du phénomène physique simulé ou bien de quantification des incertitudes s’avère rapidement limité.
Une alternative consiste en la construction d’une fonction appelée métamodèle qui permet de simuler le comportement d’un code de calcul sur la base d’un nombre limité d’appels à celui-ci.
Utilisée tout d’abord par les géostatisticiens dans les années 60 puis popularisée et étendue par la communauté du Machine Learning au courant des années 2000, la régression par processus Gaussien est une méthode de construction de métamodèles qui possède l’avantage d’estimer les incertitudes associées aux prédictions, en modélisant la sortie du code de calcul par un processus stochastique.
Pour ce séminaire, nous présenterons la régression par processus Gaussien sur 2 cas d’applications: dans un premier temps on traitera un exemple académique de simulation physique déterministe avant d’aborder une application industrielle issue du génie parasismique. Dans cette dernière, la simulation mécanique est rendu aléatoire par la nature stochastique des sollicitations sismiques.
Mercredi 16 Mars (15h-16h): Collectif (CMAP)
Outils du doctorat
Mercredi 16 Février (15h-16h): Margaux Zaffran (CMAP)
Prédictions conformelles adaptatives pour les séries temporelles
Prédire les prochaines valeurs d'une série temporelle (par exemple, prédire la concentration d'ozone dans l'air de demain) avec une valeur unique (par exemple, elle sera de 70 g/m3) ne donne aucune idée de l'incertitude sous-jacente du modèle (par exemple, quelle confiance avez-vous dans le fait qu'elle sera de 70 g/m3 ? Diriez-vous plutôt qu'il y a 90% de chances que la valeur se situe entre [65 g/m3, 75 g/m3] ou entre [60 g/m3, 90 g/m3] ?).
La prédiction conformelle est une procédure générale et simple pour quantifier l'incertitude avec un nombre fini de données sans hypothèses, sauf que les données sont échangeables (ou i.i.d.).
Néanmoins, cette hypothèse n'est pas vérifiée par les séries temporelles.
Dans cet exposé, nous présentons d'abord pourquoi ce problème nous intéresse, à savoir la prévision des prix de l'électricité. Les données seront décrites en détail, et le problème expliqué.
Ensuite, la procédure de prédiction conformelle avec « split » est introduite de manière pédagogique. Ainsi, nous serons en mesure d'expliquer une extension, appelée Adaptive Conformal Inference (ACI, proposée par Gibbs & Candès, 2021) pour s'adapter aux séries temporelles. Une fois tout cela établi, nous présenterons nos résultats, à savoir :
- un peu de théorie sur l'efficacité de l'ACI (quelle est la taille des intervalles prédits) (en fonction du temps) ;
- un algorithme basé sur ACI pour éviter de régler son pas (son unique hyper-paramètre) ;
- des simulations afin de comparer ces méthodes aux autres approches de manière équitable ;
- enfin, revenir à notre étude applicative.
Mercredi 2 Février (15h-16h): Yoann Le Calvez (CMAP)
Modélisation mathématique des fluides monoespèces avec interfaces diffuses et simulation numériques de fluides multiespèces
La présentation se scinde en deux parties. Dans une première partie, on définit mathématiquement ce qu'est une thermodynamique et on en construit une à l'aide de la loi d'état de Soave-Redlich-Kwong. On évalue ensuite ses performances sur les mélanges d'éthane et d'azote : étude des états stables, d'équilibres et critiques.
Dans une deuxième partie on démontre un théorème d'existence et d'unicité de solutions fortes localement en temps pour les systèmes modélisant un fluide monoespèce avec interfaces diffuses.
Mercredi 12 Janvier (15h-16h): Vladimir Sivkin (CMAP)
Phaseless inverse scattering with backgroud information
We consider the problem of reconstruction of a function v from its phaseless Fourier transform using background information. In particular, for arbitrary dimention, we show that the phaseless Fourier transform |F(v + w)|^2 and background function w uniquely determine unknown function v, under the condition that supp v and supp w are sufficiently disjoint. If this condition is relaxed, then we give similar formulas for finding v from |Fv|^2, |F(v + w)|^2. This talk is based, in particular, on the following works:
Novikov R.G., Sivkin V.N., Phaseless inverse scattering with background information // Inverse Problems 37(5), 055011 (2021)
Hohage T., Novikov R.G., Sivkin V.N., in preparation. B. Leshem et al., Direct single-shot phase retrieval from the diffraction pattern of separated objects //Nature Communications 7(1), 1-6 (2016)
Mercredi 15 Décembre (15h-16h): Dorian Lerévérend (CMAP)
Problèmes Inverses Appliqués à l’Audio Spatialisé
La capacité à identifier les directions d'incidence des sons que nous entendons est le résultat d'un apprentissage empirique des phénomènes acoustiques depuis notre plus tendre enfance. Lorsque nous écoutons un enregistrement avec un casque, l'identification de sources n'est plus possible car le son arrive directement dans nos oreilles et ne subit pas les mêmes perturbations que lors d'une écoute naturelle. L'immersion dans une scène sonore virtuelle implique de traiter le signal sonore pour reproduire les phénomènes de diffraction causés par notre corps. Pour cela, il est possible de mesurer (ou de calculer) sa réponse acoustique et de construire un filtre audio, appelé HRTF (Head Related Transfer Function). Disposant d’un solveur performant pour le problème direct, nous nous intéressons à deux problèmes inverses associés : Etant donnés un ouvert borné et ses HRTF, quelle est la condition de bord ? Etant données des HRTF et une condition de bord, quelle est la forme du domaine ?
Jeudi 9 Décembre (15h-16h): Benjamin Riu (CMAP)
Muddling Label Regularization, Deep Learning and Generalization
Overparametrized neural networks (NN) are able to memorize perfectly a training dataset even when labels and features are completely unrelated. The differences in the learning dynamic between NN trained on true or randomly permuted labels reflect the ability of the NN trained on true labels to favor generalization over memorization. These differences can be quantified during training to estimate out-of-sample performance. NN trained using gradient descent over this new differentiable criterion produce state of the art generalization performance even in extreme parameter to sample ratios and high-dimension / sparse support cases.
Mercredi 24 Novembre (15h-16h): Louis Reboul (CMAP)
Asymptotic-preserving schemes for kinetic and fluid equations
Some fluid and kinetic systems of equations in the presence of (potentially multiple) small parameters admit so-called asymptotic regimes, where they reduce to a smaller set of equations, potentially with a different mathematical structure. However, classic numerical approaches, such as finite volume methods, do not naturally degenerate in these asymptotic regimes to consistent discretizations of the limit equations. Furthermore, even though stability conditions usually become more and more restrictive when we approach these asymptotic regimes, meaning smaller and smaller time steps, accuracy can be dramatically reduced and the results frequently inexploitable. Asymptotic preserving schemes are designed to both lift the restrictive stability conditions and remain accurate in the asymptotic regime. In this presentation, we introduce some fluid and kinetic equations of interest and their corresponding asymptotic regimes and we present a new asymptotic-preserving strategy for a wide range of applications. Our aim includes plasma discharges with sheaths, where we have two small parameters related to Debye length and mass ratio. Numerical simulations assess and illustrate the potential of the method we have introduced.
Mercredi 10 Novembre (15h-16h): Naoufal Acharki (CMAP)
Machine Learning for causal inference: estimating heterogeneous treatment effect under multiple treatments regime
With the rapid development of Machine Learning and its efficiency in predicting outcomes, the question of counterfactual prediction arises. Engineers may want to know how the outcome would be affected when a feature is changed to a specific value, not only on average but also within a smaller scale, to personalize treatments at this level. In this talk, we introduce the potential outcome theory and the Neyman-Rubin Causal model for estimating causal effects. We consider the extension of this model to multiple discrete treatments regime (instead of binary treatment), we give particular attention to the problem of estimating Heterogeneous Treatment Effects, also known as Conditional Average Treatment Effects (CATE). We develop the framework of meta-learners (i.e. meta-learning algorithms) to estimate the CATE and we discuss some preliminary results using supervised ML models. Our objective is to find the optimal meta-learning strategy to learn the ground truth.
Mercredi 20 Octobre (11h-12h): Joffrey Derchu (CMAP)
A Bayesian viewpoint on the price formation process
We discuss the problem of price formation in financial markets. After an overview of markets and of the problem of market impact, we introduce a simple Bayesian framework in which market participants update their prior about an efficient price with a model-based learning process. We show that exponential intensities for the arrival of aggressive orders arise naturally in this setting. We derive explicit formulas for market dynamics in the case with Brownian efficient price and informed market takers. We are also able to revisit the emergence of market impact due to meta-order splitting, making several connections with existing literature.
2020-2021
Mercredi 31 Mars (15h-16h): Étienne Bonnafoux (CMLS)
Asymptotique du nombre de géodésiques simples et fermées sur une surface hyperbolique
Nous discuterons un des travaux de Maryam Mirzakhani qui lui valurent la médaille Fields en 2014. Il s’agit de trouver le comportement asymptotique du nombre de courbes simples (ne se recoupant pas) fermées sur une surface hyperbolique quand la borne sur leurs longueurs tend vers l’infini. Cela permet de donner un sens formel à des affirmation telle que « pour une surface compacte de genre 2, une courbe sur sept coupe la surface en deux ».
Pour ce faire je donnerai des définitions de géométrie hyperbolique et nous ramènerons le problème à celui de l’étude d'une famille de mesures sur l’espace des laminations (une généralisation des courbes simples). Par un théorème de théorie ergodique, nous verrons que cette famille tend faiblement vers une mesure connue.
Finalement nous évoquerons quelle stratégie pourrait être mise à l’œuvre pour avoir un terme d’erreur à cette estimation.
Mercredi 31 Mars (15h-16h): Claire Ecotière (CMAP)
Coopération humaine dans un environnement changeant
Mercredi 31 Mars (15h-16h): Pierre Lavigne (CMAP)
Optimisation et jeux à champ moyen discrets
Dans cette présentation nous cherchons à résoudre numériquement des jeux à champ moyen potentiels avec des techniques d'optimisation.
Cette présentation est divisée en trois parties:
- On commence par présenter des outils d'analyse convexe. Cette partie devrait être accessible à tous et permettre de saisir les outils essentiels utilisés dans la suite de la présentation. On définit la transformé de Fenchel, on présente la relation avec le sous-gradient dans le cas d'une fonction convexe et on prouve le Théorème de Fenchel-Rockafellar.
- Ensuite on s'intéressera à deux algorithmes d'optimisation : la méthode des directions alternées (ADMM) et une classe de méthodes proximal primal-dual (proposé par A. Chambolle et T. Pock). On présentera notamment les conditions sous-lesquelles les méthodes convergent.
- Enfin nous présenterons deux problèmes de jeux champ moyen potentiel discret. Un premier concernant des interactions à travers la loi des états et un second à travers la loi jointe des états et des stratégies des joueurs. Après avoir discuté leurs interprétations on expliquera comment le Théorème de Fenchel-Rockafellar s'applique et on montrera des résultats numériques.
Mercredi 31 Mars (15h-16h): Lucas Ertzbischoff (CMLS)
Around a fluid-kinetic model: the VlasoV-Navier-Stokes system
In this talk, I will introduce a 'famous' fluid-kinetic model, the Vlasov-Navier-Stokes system. This is a non-linear coupled system of partial differential equations which describes, in a statistical way, the motion of small droplets evolving within an homogeneous incompressible and viscous fluid.
This model, which strongly combines kinetic theory and fluid mechanics, has recently raised several mathematical issues. Here, I will introduce the system and explain briefly how one can construct global weak solutions. Then, I will present some recent results about the large time behavior of these general solutions on bounded domains: roughly speaking, the distribution function of the particles tends to concentrate in velocity towards a singular profile, meanwhile the final spatial dynamics is governed by the absorption phenomenon stemming from the boundary. If the times permits, I will provide some ingredients of proof, which is based on the remarkable energy-dissipation structure enjoyed by the system.
(The last part is a joint work with Daniel Han-Kwan from CMLS and Ayman Moussa from LJLL)
Mercredi 31 Mars (15h-16h): Apolline Louvet (CMAP)
Quelques modèles probabilistes de génétique des populations en espace continu
Les patterns de diversité génétique observés dans une population contiennent de l’information sur son passé : événements d’extinction ou d’expansion, nombre d’introductions,… Afin de les exploiter, il est nécessaire d’avoir un modèle mathématique sous-jacent permettant de faire de l’inférence. Dans cet exposé, nous nous intéresserons à une famille de modèles basés sur un processus ponctuel de Poisson encodant les événements de reproduction. Nous étudierons dans un premier temps le processus Lambda-Fleming Viot spatial, puis son extension à des populations en expansion : le processus Lambda-Fleming Viot spatial à k parents. Nous appliquerons à ces modèles l’idée classique en génétique des populations d’utiliser un processus dual pour étudier la diversité génétique dans un échantillon. Enfin, nous nous intéresserons à la limite k →+ ∞ du Lambda-Fleming Viot spatial à k parents, qui est un analogue continu d’un modèle classique de croissance de colonies de bactéries : le modèle d’Eden.
Mercredi 17 Février (15h-16h): Arthur Touati (CMLS)
How to solve Einstein Equations?
In this presentation, I will present the Einstein equations, which are at the heart of the general relativity theory. This system of equations are supposed to describe the geometrical structure of the spacetime we live in. After some (short) geometrical definitions, I will adopt a very naive point of view to explain how one can solve the Einstein equations, by making some comparison with other well-known PDE coming from physics (Maxwell, Navier-Stokes...). The goal of the presentation is to (not very rigorously) prove the local existence of solutions to the Einstein equations in the harmonic gauge, a theorem proved by Yvonne Choquet-Bruhat in 1952.
Mercredi 10 Février (15h-16h): William Da Silva (LPSM, Paris VI)
Brownian excursions and random planar maps
We give an elementary introduction to a bijection, due to Scott Sheffield, between loop-decorated planar maps and hamburger-cheeseburger inventory trajectories. Through this bijection, studying the convergence of the hamburger and cheeseburger walks associated to a particular model of random planar maps yields a scaling limit in the so-called peanosphere topology. This reveals a surprising connection between some model of loop-decorated random planar maps and Brownian excursions in the plane. No prerequisite will be needed.
Mercredi 27 Janvier (15h-16h): Nicolas Leoni (CMAP)
Inférence Bayésienne de l'erreur de modèle pour des modèles inexacts
At CEA, we perform heavy numerical simulations in the context of nuclear safety studies, specifically for thermal-hydraulics systems. The physical models used to represent these systems are built on simplifying assumptions and approximations that might lead to a mismatch between predictions and experimental observations. Our question is the following: how can we estimate the model error, also called model discrepancy, which is caused by the approximations made in a given physical model ? We propose an answer inspired by the traditional framework of Bayesian Calibration for computer codes. In this framework, the model error is learned using a Gaussian Process prior. Starting with a different definition of model error, we propose a new estimation method based on a Full Maximum A Posteriori approximation. Under a Gaussian approximation of the posterior, we show that we provide a more accurate estimation and avoid effects of "false certitude". We also present an application on a thermics code to illustrate the interest of our approach.
Mercredi 20 Janvier (15h-16h): Josué Tchouanti (CMAP)
Approche probabiliste pour la modélisation de l'hétérogénéité métabolique bactérienne
Les travaux de Charles Darwin sur l’évolution ont motivé de longues recherches sur les effets des mutations génétiques et de la sélection naturelle. Cependant, les avancées techniques récentes ont permis aux biologistes de s’apercevoir qu’à l’échelle individuelle et sur une échelle temps plus courte que l’échelle évolutive, l’expression des gènes impliqués dans le métabolisme bactérien est hétérogène. Nous proposons dans cet exposé quelques approches de modélisation plus ou moins simples soutenues par des hypothèses biologiques, partant d’une formalisation des mécanismes majeurs qui ont lieu à l’intérieur de la cellule bactérienne à une description des dynamiques globales pour des cultures en grande population.
Mercredi 09 Décembre (15h-16h): Pablo Jimenez Moreno (CMAP/CMLA)
Introduction to machine learning on geometrical spaces
Machine Learning techniques are applied to a lot of different fields, improving the transportation times, helping doctors diagnosing with medical images, automatically translating text, detecting spam and more. Most of these algorithms traditionally deal with objects in vector spaces. However, some problems present non-linear constraints, that can be translated into a manifold. This framework ensures the conservation of key properties. In this talk, we introduce the gradient descent algorithm, its adaptation to Riemannian manifolds. Finally, we compare the performance of the two, introducing new non-asymptotic bounds.
Mercredi 18 Novembre (15h-16h): Baptiste Kerleguer (CMAP)
Régression Multi-fidélité par processus gaussienégression Multi-fidélité par processus Gaussien
L'industrie nécessite des besoins de simulations numériques. Ceux-ci sont généralement très couteux en temps de calcul, il est souvent nécessaire l'approcher par des modèles statistiques appelés métamodèles, cependant leur construction peut être soumise au fléau de la dimension. Pour pallier cela, on peut utiliser des simulations basses fidélité plus rapide en temps de calcul mais moins précises pour construire un métamodèle.
Dans cette présentation nous présenterons les approches les plus simples de Krigeage jusqu'aux approches de Multi-fidélité. Enfin vous pourrez constater l'évolution de mes travaux autour du problème des sorties fonctionnelles pour les métamodèles multifidèle.
2019-2020
Mercredi 22 Avril (15h-16h, salle de conférence du CMAP): Hernan Iriarte Carrasco (CMLS)
Mercredi 8 Avril (15h-16h, salle de conférence du CMAP): Paul Thévenin (CMAP)
Séminaire annulé à cause du COVID-19
Mercredi 25 Mars (15h-16h, salle de conférence du CMAP): Mohammed Anakkar (Université Lille)
Séminaire annulé à cause du COVID-19
Mardi 10 Mars (15h-16h, salle de conférence Jean Lascoux (aile 0 / CPHT): Ilias Ftouhi (IMJ-PRG à Jussieu)
On the estimation of the fundamental frequency
Spectral theory has been interesting various communities in last century and still. We are particularly interested in the spectrum of the Laplace operator with Dirichlet boundary conditions on ∂Ω where Ω ⊂ Rd, and more precisely its first eigenvalue also known as the fundamental frequency (λ1(Ω)). Unfortunately, for almost all given sets Ω, there is no explicit formula for λ1(Ω). This motivates to look for estimates via other functionals, which are much easier to compute (for example: Perimeter P(Ω) and measure |Ω|). First, we give a brief introduction on shape optimization and spectral theory, then we introduce the following set of points, which can be called the Blaschke-Santalo diagram of the triplet (λ1, P, |·|):
Mercredi 26 Février (15h-16h): Alejandro Fernandez-Montero (CMAP)
Limites de champ moyen pour des systèmes de particules
Mercredi 5 Février (15h-16h): Dorian Chanfi (CMLS)
une Introduction aux immeubles de Bruhat-Tits
An introduction to Bruhat-Tits buildings
Jeudi 23 Janvier (15h-16h): Corentin Houpert (CMAP)
Introduction aux ondes gravitationnelles
En septembre 2015, les interféromètres LIGO et Virgo détectent des ondes gravitationnelles vérifiant ainsi les théories établies un siècle avant par Einstein et Schwarzschild. Dans cet exposé, je propose de comprendre en quoi cette expérience bouleverse les conceptions géométriques euclidiennes, de remettre dans leur contexte les objets mathématiques liés à l’astrophysique.
Ces objets acquis, j’essaierai de faire un parallèle avec la biologie.
Mercredi 27 Novembre (15h-16h): Paul Jusselin (CMAP)
Scaling limit for stochastic control problems in population dynamics
SHAPE OPTIMIZATION UNDER SHAKEDOWN CONSTRAINT
Lors de ce séminaire, je m’intéresserai aux problématiques d’optimisation de forme sous contrainte de comportements élastiques. Après une introduction à l’élasticité linéaire, je présenterai plus en détails l’optimisation de forme sous contrainte de non plastification et d’adaptation. Les formes optimisées (résultats d’application numériques) permettront enfin d’illustrer ces différents comportements.
Mercredi 30 Octobre (15h-16h): Florian Feppon (CMAP)
Équations homogénéisées d'ordre élevées pour les problèmes elliptiques perforés
L'homogénéisation est une théorie mathématique qui permet de déterminer la physique effective de milieux inhomogènes. Résoudre une équation aux dérivées partielles sur un domaine caractérisé par des détails géométriques très fins ou des coefficients oscillants est numériquement très coûteux: l'homogénéisation permet de pallier à cette difficulté en remplaçant l'équation initiale par une nouvelle équation "moyennée" moins coûteuse à résoudre.
Motivés par des applications en optimisation de forme, nous nous intéressons au problème de Stokes modélisant un écoulement de fluide en milieu poreux, caractérisé par de nombreux obstacles solides répartis périodiquement. Lors de ce séminaire, je présenterai l'état de l'art pour ce problème qui fait état de trois régimes homogénéisés possibles en fonction de la taille des trous. Ensuite, je montrerai qu'il est possible de calculer des équations homogénéisées d'ordres élevés qui capturent simultanément ces trois régimes.
2018-2019
Le séminaire a lieu le mercredi de 15h à 16h.
Mercredi 17 octobre (exceptionnellement 14h30-16h): Florian Feppon