Institut de Mathématiques de Marseille, UMR 7373




Rechercher


Accueil > Séminaires > Séminaires et Groupes de travail hebdomadaires > Statistiques

Séminaire Statistiques

par Lozingot Eric, Pommeret Denys, Reboul Laurence - publié le , mis à jour le

Agenda

Séminaire

  • Lundi 17 février 2014 14:00-15:00 - Laure Sansonnet - Université catholique de Louvain (UCL), Belgium

    Un modèle d’interactions poissoniennes : détection de dépendance et estimation non-paramétrique

    Résumé : Dans cet exposé, on propose un modèle d’interactions entre deux processus ponctuels, gouverné par une fonction dite de reproduction h, que l’on modélise ici par l’intensité d’un processus de Poisson. Ce modèle peut par exemple être utilisé en neurosciences pour analyser les interactions entre deux neurones au travers leur émission de potentiels d’action au cours de l’enregistrement de l’activité cérébrale (ou encore en génomique pour étudier les distances favorisées ou évitées entre deux motifs le long du génome). Les neurobiologistes souhaitant savoir si les deux neurones considérés dans l’étude évoluent indépendamment ou non, on propose de tester la nullité de l’intensité h. On construit alors une procédure de test multiple obtenue par l’agrégation de tests simples basés sur une méthode de cueillage de coefficients d’ondelettes. Ce test a de bonnes propriétés théoriques. En effet, on peut assurer son niveau mais aussi sa puissance sous certaines hypothèses. De plus, le test est adaptatif au sens minimax sur des espaces de Besov faibles. Le bon comportement pratique de la procédure de test sera illustré par des simulations. Enfin, on présentera brièvement des résultats d’estimation non-paramétrique dans ce même cadre.

    JPEG - 11.9 ko
    Laure Sansonnet

    Lieu : FRUMAM - Aix-Marseille Université, Site St Charles
    3, place Victor Hugo - case 39
    13331– MARSEILLE Cedex 03

    Exporter cet événement

  • Lundi 17 février 2014 15:00-16:00 - Thibaut Le Gouic - IMT, Toulouse

    Mass localization

    Résumé : For a given class F of closed sets of a measured metric space (E, d, μ), we want to find the smallest element B of the class F such that μ(B) ≥ 1 − α, for a given 0 < α < 1. This set B localizes the mass of μ. Replacing the measure μ by the empirical measure μn gives an empirical smallest set Bn . This talk introduces a formal definition of small sets (and their size) and study convergence of the set Bn to B in Hausdorff metric and their size

    JPEG - 6.8 ko
    Thibaut Le Gouic

    Lieu : FRUMAM - Aix-Marseille Université - Site St Charles
    3, place Victor Hugo - case 39
    13331 MARSEILLE Cedex 03

    Exporter cet événement

  • Lundi 24 mars 2014 14:00-15:00 - Stéphane Mallat - CMAP, Ecole Polytechnique, Palaiseau

    Séminaire Statistiques (TBA)

    Résumé : TBA

    JPEG - 11.7 ko
    Stéphane Mallat

    Lieu : FRUMAM - Aix-Marseille Université - Site St Charles
    3, place Victor Hugo - case 39
    13331 MARSEILLE Cedex 03

    Exporter cet événement

  • Lundi 26 mai 2014 14:00-15:00 - Guillaume Lecué - CMAP, Ecole Polytechnique, Palaiseau

    Séminaire Statistiques (TBA)

    Résumé : TBA

    JPEG - 11 ko
    Guillaume Lecué

    Lieu : FRUMAM - Aix-Marseille Université - Site St Charles
    3, place Victor Hugo - case 39
    13331 MARSEILLE Cedex 03

    Exporter cet événement

  • Lundi 19 septembre 2016 14:00-15:00 - Yuri Golubev - I2M

    Errors in variables models in large noise regime

    Résumé : The talk deals with estimating unknown parameters $a,b\in\mathbbR$ in the simple Errors-in-Variables (EiV) linear model $Y_i=a+bX_i+\epsilon_n\xi_i$ ; $ Z_i=X_i+\sigma_n\zeta_i$, where $i=1,\ldots,n$, $\xi_i,\, \zeta_i$ are i.i.d. standard Gaussian random variables, $X_i\in\mathbbR$ are unknown nuisance variables, and $\epsilon_n,\sigma_n$ are noise levels which are assumed to be known.
    It is well known that the standard maximum likelihood estimates of $a,\, b$ haven’t bounded moments. In order to improve these estimates, we study the EiV model in the so-called Large Noise Regime assuming that $n\rightarrow \infty$, but $\epsilon_n^2=\sqrtn\epsilon_\circ^2$, $\sigma_n^2=\sqrtn\sigma_\circ^2$ with $\epsilon_\circ^2,\sigma_\circ^2>0$. Under these assumptions, the minimax approach to estimating $a,b$ is developed. In particular, it is shown that the minimax estimate of $b$ is a solution to a convex optimization problem and a fast algorithm for computing this estimate is proposed.

    Lieu : FRUMAM, salle séminaire 2ème

    Exporter cet événement

  • Lundi 14 novembre 2016 14:30-15:30 - Sébastien GERCHINOVITZ - Institut de Mathématiques de Toulouse

    Refined lower bounds for adversarial bandits

    Résumé : We provide new lower bounds on the regret that must be suffered by adversarial bandit algorithms. The new results show that recent upper bounds that either (a) hold with high-probability or (b) depend on the total lossof the best arm or (c) depend on the quadratic variation of the losses, are close to tight. Besides this we prove two impossibility results. First, the existence of a single arm that is optimal in every round cannot improve the regret in the worst case. Second, the regret cannot scale with the effective range of the losses. In contrast, both results are possible in the full-information setting.

    JPEG - 6.9 ko
    Sébastien GERCHINOVITZ

    Lieu : FRUMAM, salle séminaire 3ème étage

    Notes de dernières minutes : Attention, début à 14h30 !!

    Exporter cet événement

  • Lundi 21 novembre 2016 14:00-15:00 - Julien STOEHR - University College Dublin

    Hidden Gibbs random fields model selection using Block Likelihood Information Criterion

    Résumé : La question du choix de modèle pour les champs de Gibbs est difficile. Du fait de la structure de dépendance markovienne, la constante de normalisation ne peut être calculée avec des méthodes analytiques ou numériques standards. Par ailleurs lorsque le champs est caché, on ne peut intégrer par rapport au processus et l’évaluation de la vraisemblance devient un problème doublement insoluble. Ceci constitue une difficulté majeure pour le choix du modèle s’ajustant au mieux à l’observation. Dans cet exposé, on introduira une nouvelle version approchée du critère BIC (Bayesian Information Criterion). On partitionne le graphe de dépendance en blocs rectangulaires contigus et on approche la loi de probabilité du champ de Gibbs caché par un produit de distribution de Gibbs sur les blocs. Cette approximation conduit à une estimation de la vraisemblance et au critère BLIC (Block Likelihood Information Criterion) qui répond à des questions de choix de modèle telles que le choix de la structure de dépendance ou le nombre d’états latents. On présentera les performances de ce critère sur ces question. Par ailleurs, on présentera une comparaison avec les algorithmes ABC - une des alternatives possibles sur ces questions - afin d’illustrer le meilleur compromis computationnel « temps-précision » qu’offre le critère BLIC.
    -
    Abstract : Performing model selection between Gibbs random fields is a very challenging task. Indeed, because of the Markovian dependence structure, the normalizing constant of the fields cannot be computed using standard analytical or numerical methods. Furthermore, such unobserved fields cannot be integrated out, and the likelihood evaluation is a doubly intractable problem. This forms a central issue to pick the model that best fits an observed data. We introduce a new approximate version of the Bayesian Information Criterion. We partition the lattice into contiguous rectangular blocks, and we approximate the probability measure of the hidden Gibbs field by the product of some Gibbs distributions over the blocks. On that basis, we estimate the likelihood and derive the Block Likelihood Information Criterion (BLIC) that answers model choice questions such as the selection of the dependence structure or the number of latent states. We study the performances of BLIC for those questions. In addition, we present a comparison with ABC algorithms to point out that the novel criterion offers a better trade-off between time efficiency and reliable results.

    JPEG - 9.5 ko
    Julien STOEHR

    Lieu : FRUMAM, salle séminaire 3ème étage - Aix-Marseille Université - Site St Charles
    3, place Victor Hugo - case 39
    13331 MARSEILLE Cedex 03

    Exporter cet événement

  • Lundi 28 novembre 2016 14:00-15:00 - Romain AZAÏS - INRIA/Institut Élie Cartan de Lorraine (Nancy)

    Inference for conditioned Galton-Watson trees from their Harris path

    Résumé : Tree-structured data naturally appear in various fields, particularly in biology where plants and blood vessels may be described by trees, but also in computer science because XML documents form a tree structure. This paper is devoted to the estimation of the relative scale of ordered trees that share the same layout. The theoretical study is achieved for the stochastic model of conditioned Galton-Watson trees. New estimators are introduced and their consistency is stated. A comparison is made with an existing approach of the literature. A simulation study shows the good behavior of our procedure on finite-sample sizes. An application to the analysis of revisions of Wikipedia articles is also considered through real data.
    -

    JPEG - 10.4 ko
    Romain AZAÏS

    Lieu : FRUMAM, salle séminaire 3ème étage

    Exporter cet événement

  • Lundi 28 novembre 2016 15:00-16:00 - Marie du ROY de CHAUMARAY - Institut de Mathématiques de Bordeaux

    Estimateur du maximum de vraisemblance pour les paramètres des processus de Cox-Ingersoll-Ross et de Heston

    Résumé : Dans un premier temps, on considère un processus CIR (pour Cox-Ingersoll-Ross). C’est la solution forte de l’équation différentielle stochastique
    dX_t = (a+bX_t) dt+ 2 \sqrtX_t dB_t
    où l’état initial X_0 est positif, le paramètre de dimension a>0, le drift b est réel et (B_t) est un mouvement brownien standard.
    On estime les paramètres a et b à partir de l’observation d’une trajectoire du processus sur [0,T]. On établit un principe de grandes déviations pour l’estimateurs du maximum de vraisemblance du couple (a, b), dans le cas le plus favorable où le processus est ergodique (b<0) et n’atteint jamais zéro (a>2). Contrairement à ce qui a été fait jusque ici dans la littérature, on obtient un principe de grandes déviations quand les deux paramètres sont estimés simultanément.
    Dans un second temps, on s’intéresse à un processus de Heston, qui est un processus à volatilité stochastique :
    dY_t= (c+dX_t) dt + 2 \sqrtX_t (\rho dB_t + \sqrt1-\rho^2 dW_t)
    où (X_t) est un processus CIR, les paramètres c et d sont réels, (B_t,W_t) est un brownien standard bidimensionnel et \rho est strictement compris entre -1 et 1.
    On établit un principe de déviations modérées pour l’estimateur du maximum de vraisemblance des quatre paramètres (a,b,c,d) d’un processus de Heston géométriquement ergodique. On obtient également un principe de déviations modérées pour l’estimateur du maximum de vraisemblance du couple (a,b) des paramètres de dimension et de dérive d’un processus CIR.

    JPEG - 12.4 ko
    Marie du ROY de CHAUMARAY

    Lieu : FRUMAM, salle séminaire 3ème étage

    Exporter cet événement

  • 1 | 2 | 3 | 4 | 5 | 6 | 7

groupe de travail

Manifestation scientifique

Descriptif
Nature Séminaire
Intitulé Statistiques
Responsables Laurence Reboul
Denys Pommeret
Équipe de rattachement Statistiques du Groupe ALEA
Fréquence Hebdomadaire
Jour-Horaire Le Lundi à 14h
Lieu FRUMAM, St Charles (accès)

Contacts :
laurence.reboul_at_univ-amu.fr
denys.pommeret_at_univ-amu.fr
-
-
Historique des responsables :
- du 20/06/2017 au 26/06/2018 :Badih Ghattas et Thomas Willer
- du 11/10/2016 au 19/06/2017 : Thibaut Le Gouic et Thomas Willer

-