Computational Methods for Unifying Multiple Statistical Analyses (Fusion)

Workshop
CIRM, Luminy, Marseille
https://conferences.cirm-math.fr/2635.html

Date(s) : 24/10/2022 - 28/10/2022   iCal
0 h 00 min

WORKSHOP

Computational methods for unifying multiple statistical analyses (Fusion)
Unification algorithmique d’analyses statistiques multiples
24 – 28 October 2022
Scientific Committee
Comité scientifique
Rémi Bardenet (CNRS, ENS Paris-Saclay & Université de Lille)
David Dunson (Duke University)
Kerrie Mengersen (Queensland University of Technology)
Murray Pollock (University of Newcastle)
Christian Robert (Université Paris-Dauphine & University of Warwick)
Judith Rousseau (University of Oxford, UK)
 
Organizing Committee
Comité d’organisation
Rémi Bardenet (CNRS, ENS Paris-Saclay & Université de Lille)
Kerrie Mengersen (Queensland University of Technology)
Pierre Pudlo (Aix-Marseille Université)
Christian Robert (Université Paris-Dauphine & University of Warwick)

Description

When considering the statistical analysis of realistic data models, the issue of inference on the parameters of interest of such models often face the difficulty of handling a multiplicity and variety of sources. This may be due to multiple experiments run under different conditions as, e.g., in astronomy or medicine (meta-analysis), or to confidentiality or privacy reasons that prohibit the simultaneous analysis of different datasets, or yet to the sheer size of the data, which makes a single processing of the entire sample impossible or extremely time-consuming. Such a surprisingly challenging problem arises in many settings (for instance, expert elicitation, multi-view learning, distributed ’big data’ problems, etc.), but at this date no general enough solution can befound. Monte Carlo solutions are either approximate (scalable MCMC, fusion MCMC, variational Bayes) or inapplicable to realistic settings.
This workshop proposes to understand and compare existing solutions for unifying distributed and partial analyses and inferences on shared parameters from multiple sources, into a single coherent inference. We also look forward interactions between different communities, sensitivities, and expertises, to explore further possibilities in validating these methods, assess their practical impact and develop quantitative assessments of their error rate. There is considerable scope to tailor the theory to particular application settings (such as the big data setting), construct efficient parallelised schemes, understand the approximation and computational efficiencies of other such unification paradigms, and explore new theoretical and methodological directions
Lorsqu’on considère l’analyse statistique de modèles réalistes de données, l’inférence sur les paramètres d’intérêt de tels modèles se heurte souvent à la difficulté de traiter une multiplicité et une variété de sources de données. Cela peut être en raison de multiples expériences menées dans des conditions différentes comme, par exemple, en astronomie ou en médecine (méta-analyse), ou à des raisons de confidentialité qui interdisent l’analyse simultanée de différents ensembles de données, ou encore à la taille des données. Ces possibles raisons rendent un traitement unique de l’échantillon dans sa totalité impossible ou extrêmement long. Un tel problème est étonnamment difficile à régler et il se pose dans de nombreux contextes (par exemple, élicitation par des experts, multi-vues apprentissage, problèmes de “big data” distribués, etc.), mais à ce jour, aucune solution suffisamment générale n’a pu être trouvée. Les solutions de type Monte Carlo sont soit approximatives (MCMC évolutif, fusion, Bayes variationnel) ou inapplicables à des paramètres réalistes.
Ce workshop propose de comprendre et de comparer les solutions existantes pour unifier les analyses et inférences distribuées et partielles sur des paramètres partagés à partir de sources multiples, en une seule inférence cohérente. Nous espérons aussi beaucoup des interactions entre différentes communautés, comme celles proches du machine learning, différentes sensibilités et différentes expertises, pour explorer d’autres possibilités afin de valider ces méthodes, évaluer leurs pratiques impact et développer des évaluations quantitatives de leur taux d’erreur. Il y a en effet beaucoup de possibilités d’adapter la théorie à des applications particulières (comme le BigData), construire des schémas de parallélisation efficaces, comprendre le degré d’approximation et l’efficacité algorithmique d’autres paradigmes d’unification, et explorer de nouvelles directions théoriques et méthodologiques.

Speakers

to be announced

SPONSORS

 

Emplacement
CIRM, Luminy

Catégories



Retour en haut 

Secured By miniOrange