Méthodes stochastiques de modélisation de données: application à la reconstruction de données non régulières

Léticia Buslig
I2M, Aix-Marseille Université

Date(s) : 06/12/2014   iCal
0 h 00 min

Soutenance de thèse

Thèse de doctorat en Mathématiques

Sous la direction de Jacques Liandrat et de Jean Baccou.

Le président du jury était Christophe Pouet.

Le jury était composé de Victor Picheny.

Les rapporteurs étaient Pep Mulet Mestre, Pierre Goovaerts.


Les méthodes de modélisation de données sont utilisées naturellement en analyse de risque puisqu’on est amené à analyser des données (concentration d’un polluant, température d’une gaine de réacteur,…. ) qui sont le plus souvent discrètes car obtenues via des mesures ponctuelles (capteurs répartis sur le territoire français) ou via un processus numérique (logiciel de calcul simulant un ensemble de phénomènes physiques). Parmi les méthodes de modélisation, les approches stochastiques sont souvent privilégiées car elles permettent d’associer une précision à toute quantité qui sera estimée à partir des données via le modèle probabiliste choisi. Cependant, ces méthodes supposent le plus souvent que le phénomène que l’on cherche à expliquer est continu. Or, en pratique, les phénomènes étudiés sont souvent non réguliers voire discontinus. L’objet de la thèse est donc de proposer de nouvelles techniques stochastiques pour une meilleure modélisation de données non régulières.

Contrairement aux méthodes classiques, les méthodes proposées seront construites en deux étapes :
une étape d’analyse de la structure des données à partir des observations (il s’agit en particulier de définir un nouvel outil pour détecter les zones de non régularité du phénomène)
une étape de prédiction qui intègrera l’information collectée dans la première étape. Cette démarche est très liée aux techniques de traitement de données utilisées pour la compression de signaux ou d’images.

L’originalité de ce sujet de thèse repose donc sur l’amélioration des méthodes de traitement de données non régulières et sur leur adaptation à la prédiction de phénomènes réels (cartographie d’un polluant ,…..) ou à la représentation de codes de calcul (surface de réponse) pour l’analyse d’incertitude (en complément du suivi du consortium DICE et du projet BEMUSE). Dans ce dernier cas, il est aussi possible de choisir la série de points (plan d’expérience) où l’on veut connaître la réponse du code et qui servira à la construction du modèle. Cette thèse doit permettre d’intégrer l’information a posteriori fournie par la détection des zones de non régularité pour la construction de nouveaux plans d’expérience. En effet, les plans d’expérience classiques sont basés sur des critères conduisant à une occupation uniforme de toutes les zones du domaine de variation des paramètres. L’uniformité de la répartition n’est pas adaptée pour la représentation de phénomènes non réguliers pour lesquels l’information pertinente se situe dans les zones de non régularité. Cette information n’est occessible qu’après la segmentation des données observées réalisée dans la première étape des méthodes que l’on propose de construire. Cette optimisation de la répartition des points du plan d’expérience permettra un gain de calcul conséquent tout en décrivant précisément le phénomène étudié.

Même si ce sujet est plutôt axé sur la représentation des codes de calcul, les avancées prévues à l’issue des travaux de cette thèse sont très génériques et bénéficieront aux outres thématiques transverses à l’Institut suivantes :
Soutien méthodologique à l’expertise.
Construction de nouvelles méthodes d’analyse de risque: intégration de la surface de réponse résultante dans l’étape de propagation de la méthode RaFu.
Homogénéisation numerique de matériaux hétérogènes : exploitation des techniques de modélisation stochastique et des outils structuraux qui en découlent pour la prédiction numérique de l’intégrité des crayons de combustible en situations accidentelles.

La thèse proposée a pour objectif la construction de nouvelles méthodes stochastiques de modélisation en particulier dans le cas de données non régulières. Le principe de ces méthodes est de coupler une étape d’enrichissement de plans d’expérience à une étape de modélisation locale adaptative. L’idée est ici d’enrichir le plan d’expérience en rajoutant des simulations dans les zones de non régularités de la réponse puis de construire un opérateur d’interpolation adaptée à la présence de zones de non régularités. Les techniques de modélisation envisagées sont les approches géostatistiques telles que le krigeage qu’on cherchera à relier aux méthodes utilisées dans le domaine du traitement d’images et qui s’avèrent très efficaces pour la modélisation de données non régulières.

Une première étape de la thèse consistera d’abord à réaliser une étude bibliographique sur les différentes techniques de modélisation de données existantes (en particulier avec les techniques géostatistiques de krigeage) puis d’explorer de nouvelles pistes en vue d’amélioration des outils déjà existants. Cela concerne l’étude de procédés d’enrichissement du plan d’expérience intégrant des approches venant du traitement d’images (détection de contours et segmentation), la construction de méthodes locales d’interpolation basées sur la sélection d’un stencil d’interpolation dépendant de la régularité locale des données dans un voisinage du point à estimer. Pour ce travail, le doctorant pourra bénéficier de l’appui de l’Ecole Centrale Marseille (Professeur Jacques Liandrat).

Dons un deuxième temps, le doctorant appliquera les méthodes construites et analysées dans la première étape à des cas synthétiques puis à un cas réel issu des différents projets (DICE, BEMUSE) ou collaborations (DSR/ST3C, SEMCA/LEC) auquel le LIMSI est associé.

Les différents développements informatiques seront intégrés dans le logiciel d’analyse d’incertitude SUNSET.


Lien :
theses.fr

Catégories



Retour en haut 

Secured By miniOrange