BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//wp-events-plugin.com//7.2.3.1//EN
TZID:Europe/Paris
X-WR-TIMEZONE:Europe/Paris
BEGIN:VEVENT
UID:6507@i2m.univ-amu.fr
DTSTART;TZID=Europe/Paris:20210315T140000
DTEND;TZID=Europe/Paris:20210315T150000
DTSTAMP:20241120T201725Z
URL:https://www.i2m.univ-amu.fr/evenements/regularisation-des-modeles-line
 aires-generalises-mixtes-par-construction-de-composantes-supervisees/
SUMMARY:Jocelyn Chauvet (IMAG\, Université de Montpellier): Régularisati
 on des modèles linéaires généralisés mixtes par construction de 
 composantes supervisées
DESCRIPTION:Jocelyn Chauvet: \n\n\nUne forte redondance des variables expli
 catives cause de gros problèmes d'identifiabilité et d'instabilité d
 es coefficients dans les modèles de régression. Même lorsque l'estim
 ation est possible\, l'interprétation des résultats est donc extrême
 ment délicate. Il est alors indispensable de combiner à la vraisemblan
 ce de ces modèles un critère supplémentaire qui régularise l'estim
 ateur. Dans le sillage de la régression PLS qu’elle englobe et géne
 ́ralise\, la stratégie de régularisation que nous considérons est f
 ondée sur l'extraction de composantes dites « supervisées ». Contrai
 ntes à l'orthogonalité entre elles\, ces composantes doivent non seule
 ment capturer l'information structurelle des variables explicatives\, mais
  également prédire au mieux les variables réponses\, qui peuvent ê
 tre de types divers (continues ou discrètes\, quantitatives\, ordinales 
 ou nominales).\nSur un exemple élémentaire de régression\, nous comm
 ençons par mettre en défaut le pouvoir interprétatif des composantes
  principales et PLS. Cela juste la nécessité de construire des composa
 ntes de manière plus flexible dans la but de rétablir ce pouvoir inter
 prétatif. Les composantes supervisées sont précisément conçues d
 ans cette optique\, tout en maintenant de bonnes qualités prédictives.
 \nPar ailleurs\, la régression sur composantes supervisées\, dévelop
 pée initialement pour les GLMs multivariés\, n'a jusqu'alors concerne
 ́ que des modèles à observations indépendantes. Or\, dans de nombre
 uses situations\, les observations sont groupées. Nous proposons donc un
 e extension de la méthode aux GLMMs multivariés\, pour lesquels les co
 rrélations intra-groupes sont modélisées au moyen d'effets aléatoi
 res. À chaque étape de l'algorithme de Schall permettant l'estimation 
 du GLMM\, nous procédons à la régularisation du modèle par l'extra
 ction de composantes maximisant un compromis entre qualité d'ajustement 
 et pertinence structurelle. Comparé à la régularisation par pénali
 sation de type ridge ou LASSO\, nous montrons sur données simulées que
  notre méthode permet non seulement de révéler les dimensions explic
 atives les plus importantes pour l'ensemble des réponses\, mais fournit 
 souvent de meilleures estimations. La méthode est aussi évaluée sur 
 des données réelles d’écologie forestière.\nRegularization of ge
 neralized linear mixed models by construction of supervised components\nA 
 strong redundancy of the explanatory variables causes big problems of iden
 tifiability and instability of the coefficients in the regression models. 
 Even when estimation is possible\, the interpretation of the results is th
 erefore extremely delicate. It is therefore essential to combine the likel
 ihood of these models with an additional criterion which regularizes the e
 stimator. In the wake of the PLS regression that it encompasses and genera
 lizes\, the regularization strategy that we consider is based on the extra
 ction of so-called "supervised" components. Constrained to orthogonality b
 etween them\, these components must not only capture the structural inform
 ation of the explanatory variables\, but also best predict the response va
 riables\, which can be of various types (continuous or discrete\, quantita
 tive\, ordinal or nominal).\nOn an elementary example of regression\, we s
 tart by defeating the interpretative power of the principal components and
  PLS. This is just the need to build components in a more flexible way in 
 order to restore this interpretive power. The supervised components are pr
 ecisely designed with this in mind\, while maintaining good predictive qua
 lities. \nIn addition\, the regression on supervised components\, initiall
 y developed for multivariate GLMs\, has so far only concerned models with 
 independent observations. However\, in many situations\, observations are 
 grouped together. We therefore propose an extension of the method to multi
 variate GLMMs\, for which the intra-group correlations are modeled by mean
 s of random effects. At each step of the Schall algorithm allowing the est
 imation of the GLMM\, we proceed to the regularization of the model by the
  extraction of components maximizing a compromise between goodness of fit 
 and structural relevance. Compared with the regularization by ridge or LAS
 SO type penalization\, we show on simulated data that our method not only 
 allows to reveal the most important explanatory dimensions for all the res
 ponses\, but often provides better estimates. The method is also evaluated
  on real forest ecology data.\nhttps://hal.archives-ouvertes.fr/hal-018185
 44/\n\n\n\n\n
CATEGORIES:Séminaire,Statistique
END:VEVENT
BEGIN:VTIMEZONE
TZID:Europe/Paris
X-LIC-LOCATION:Europe/Paris
BEGIN:STANDARD
DTSTART:20201025T020000
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
END:STANDARD
END:VTIMEZONE
END:VCALENDAR