En poursuivant votre navigation, vous acceptez l'utilisation de cookies destinés à améliorer la performance de ce site et à vous proposer des services et contenus personnalisés.

X

Séminaire du CMAP

Séminaires passés  -  Comment venir

Mai 2019


Mardi 7 Mai

10h15      Jean-Marc Bardet (Univ. Paris 1) - Sélection de modèles pour les séries chronologiques affines causales
11h15      Alessandro Lazaric (INRIA Lille)

Résumé de J.-M. Bardet: La classe des  séries chronologiques affines causales contient l'essentiel des séries chronologiques classiques (notamment les processus ARMA ou GARCH) et celles moins classiques à mémoire infinie (AR($\infty$) ou APARCH($\infty$) par exemple). Nous nous intéressons ici à la question du choix d'un modèle à partir d'une trajectoire observée pour toute une famille de modèles de séries chronologiques affines causales (par exemple l'ensemble des ARMA(p,q) et GARCH(p',q')). Grâce à l'estimation par quasi-maximum de vraisemblance possible pour tous ces modèles, et d'un critère de sélection par pénalisation, nous donnons des conditions permettant la consistance de la démarche, c'est-à-dire la sélection asymptotique du vrai modèle. Des simulations sont réalisées et montrent notamment que le critère BIC peut ne pas être consistant en cas de séries à mémoire infinie. Travail joint avec Kamila Kare (Paris 1) et William Kengne (Cergy).

 

Mardi 21 Mai

10h15      François Févotte (EDF R&D, département PERICLES) - Une méthode de post-traitement des éléments finis de Raviart-Thomas appliquée à la neutronique
11h15      Augusto Teixeira (IMPA) - Random walk on the simple exclusion process

(Très court) Résumé de F. Févotte: Travail en commun avec Morgane Steins et Laurent Plagne (EDF R&D).

 

Mardi 28 Mai

10h15      Michel De Lara (CERMICS) - Hidden convexity in the l0 pseudonorm and lower bound convex programs for exact sparse optimization
11h15      Samuel Amstutz (Univ. d'Avignon)

Résumé de M. De Lara: In sparse optimization problems, one looks for solution that have few nonzero components. We consider problems where sparsity is exactly measured by the l0 pseudonorm. We display a suitable conjugacy for which we show that the l0 pseudonorm is equal to its biconjugate. As a corollary, we obtain that the (nonconvex) l0 pseudonorm coincides, on the sphere, with a convex lsc function that we characterize.
With this conjugacy, we display a lower bound for the original exact sparse optimization problem, which is a convex minimization program over the unit ball of a so-called support norm.
Finally, we introduce generalized sparse optimization, where the solution is searched among a finite union of subsets. We provide a systematic way to design norms and lower bound convex minimization programs over their unit ball. Thus, we recover most of the sparsity-inducing norms used in machine learning.

 

Juin 2019


Mardi 11 Juin

10h15       
11h15      Patricia Reynaud-Bouret (Univ. de Nice Côte d'Azur)

 

Mardi 25 Juin

10h15      Algiane Froehly (INRIA)
11h15      Benoît Merlet (Univ. de Lille)

 

Les organisateurs: Antonin Chambolle, Lucas Chesnel et Amandine Véber