Actualités Offres de thèses Soutenances actuelles

Soutenances autorisées pour l'ED « École Doctorale Mathématiques, Information, Ingénierie des Systèmes » (ED 590 MIIS)

Liste des soutenances actuelles 41

Etudes des fonctions de pertes basées sur l'entropie dans le contexte de l'apprentissage profond pour la radiomique.

Doctorant·e
BROCHET Thibaud
Direction de thèse
RUAN SU (Directeur·trice de thèse)
Date de la soutenance
16/07/2024 à 14:00
Lieu de la soutenance
UFR santé
Rapporteurs de la thèse
GARREAU MIREILLE Professeur des Universités UNIVERSITE RENNES 1
ZHU YUEMIN Directeur de Recherche Institut National des Sciences Appliquees de Lyon
Membres du jurys
GARREAU MIREILLE, Professeur des Universités, UNIVERSITE RENNES 1
LAPUYADE-LAHORGUE JEROME, Maître de Conférences, Université de Rouen Normandie
MERIAUDEAU FABRICE, Professeur des Universités, Universite de Bourgogne
RUAN SU, Professeur des Universités, Université de Rouen Normandie
ZHU YUEMIN, Directeur de Recherche, Institut National des Sciences Appliquees de Lyon
Résumé
Cette thèse explore l'impact des nouvelles fonctions de perte dérivées d'entropies généralisées et de nouvelles architectures de réseaux de neurones sur les performances des opérations de classification en Deep Learning. L'objectif principal de cette recherche est d'étudier comment l'utilisation de l'entropie généralisée d'Havrda-Charvat, avec la modulation de l'hyperparamètre alpha, influence les performances des modèles de classification. En parallèle, de nouvelles architectures de réseaux de neurones adaptées aux spécificités des données médicales ont été développées. Les résultats montrent une amélioration significative des performances par rapport aux fonctions de perte et aux réseaux traditionnels, démontrant ainsi la pertinence et le potentiel des approches proposées. Les conclusions de cette étude suggèrent que ces améliorations soulignent l'importance de poursuivre les recherches dans ce domaine prometteur.
Abstract
This thesis explores the impact of new loss functions derived from generalized entropies and novel neural network architectures on the performance of classification operations in Deep Learning. The main objective of this research is to investigate how the use of Havrda-Charvat's generalized entropy, with the modulation of the alpha hyperparameter, influences the performance of classification models. In parallel, new neural network architectures tailored to the specificities of medical data have been developed. The results show a significant improvement in performance compared to traditional loss functions and networks, thereby demonstrating the relevance and potential of the proposed approaches. The conclusions of this study suggest that these improvements highlight the importance of continuing research in this promising field.

Méthodes stochastiques du second ordre pour le traitement séquentiel de données massives

Doctorant·e
LU WEI
Direction de thèse
PORTIER BRUNO (Directeur·trice de thèse)
GODICHON ANTOINE (Co-encadrant·e de thèse)
Date de la soutenance
09/07/2024 à 14:00
Lieu de la soutenance
Salle BO A RC 02, INSA Rouen Normandie
Rapporteurs de la thèse
PELLETIER MARIANE PROFESSEUR DES UNIVERSITÉS Université de Versailles Saint-Quentin-en-Yvelines
PORTIER FRANÇOIS MAITRE DE CONFERENCES DES UNIVERSITES HDR ENSAI, Bruz
Membres du jurys
CANU STEPHANE, PROFESSEUR DES UNIVERSITÉS, INSA de Rouen Normandie
CENAC PEGGY, MAITRE DE CONFERENCES DES UNIVERSITES HDR, Université de Bourgogne
GODICHON ANTOINE, MAITRE DE CONFERENCES DES UNIVERSITES HDR, Sorbonne Université
PELLETIER MARIANE, PROFESSEUR DES UNIVERSITÉS, Université de Versailles Saint-Quentin-en-Yvelines
POGGI JEAN MICHEL, PROFESSEUR DES UNIVERSITÉS, Université Paris-Saclay
PORTIER BRUNO, PROFESSEUR DES UNIVERSITÉS, INSA de Rouen Normandie
PORTIER FRANÇOIS, MAITRE DE CONFERENCES DES UNIVERSITES HDR, ENSAI, Bruz
Résumé
Avec le développement rapide des technologies et l'acquisition de données de plus en plus massives, les méthodes capables de traiter les données de manière séquentielle (en ligne) sont devenues indispensables. Parmi ces méthodes, les algorithmes de gradient stochastique se sont imposés pour estimer le minimiseur d'une fonction exprimée comme l'espérance d'une fonction aléatoire. Bien qu'ils soient devenus incontournables, ces algorithmes rencontrent des difficultés lorsque le problème est mal conditionné. Dans cette thèse, nous nous intéressons sur les algorithmes stochastiques du second ordre, tels que ceux de type Newton, et leurs applications à diverses problématiques statistiques et d'optimisation. Après avoir établi des bases théoriques et exposé les motivations qui nous amènent à explorer les algorithmes de Newton stochastiques, nous développons les différentes contributions de cette thèse. La première contribution concerne l'étude et le développement d'algorithmes de Newton stochastiques pour la régression linéaire ridge et la régression logistique ridge. Ces algorithmes sont basés sur la formule de Riccati (Sherman-Morrison) pour estimer récursivement l'inverse de la Hessienne. Comme l'acquisition de données massives s'accompagne généralement d'une contamination de ces dernières, on s'intéresse, dans une deuxième contribution, à l'estimation en ligne de la médiane géométrique, qui est un indicateur robuste, i.e. peu sensible à la présence de données atypiques. Plus précisément, nous proposons un nouvel estimateur de Newton stochastique pour estimer la médiane géométrique. Dans les deux premières contributions, les estimateurs des inverses de Hessienne sont construits à l'aide de la formule de Riccati, mais cela n'est possible que pour certaines fonctions. Ainsi, notre troisième contribution introduit une nouvelle méthode de type Robbins-Monro pour l'estimation en ligne de l'inverse de la Hessienne, nous permettant ensuite de développer des algorithmes de Newton stochastiques dits universels. Enfin, notre dernière contribution se focalise sur des algorithmes de type Full Adagrad, où la difficulté réside dans le fait que l'on a un pas adaptatif basé sur la racine carré de l'inverse de la variance du gradient. On propose donc un algorithme de type Robbins-Monro pour estimer cette matrice, nous permettant ainsi de proposer une approche récursive pour Full AdaGrad et sa version streaming, avec des coûts de calcul réduits. Pour tous les nouveaux estimateurs que nous proposons, nous établissons leurs vitesses de convergence ainsi que leur efficacité asymptotique. De plus, nous illustrons l'efficacité de ces algorithmes à l'aide de simulations numériques et en les appliquant à des données réelles.
Abstract
With the rapid development of technologies and the acquisition of big data, methods capable of processing data sequentially (online) have become indispensable. Among these methods, stochastic gradient algorithms have been established for estimating the minimizer of a function expressed as the expectation of a random function. Although they have become essential, these algorithms encounter difficulties when the problem is ill-conditioned. In this thesis, we focus on second-order stochastic algorithms, such as those of the Newton type, and their applications to various statistical and optimization problems. After establishing theoretical foundations and exposing the motivations that lead us to explore stochastic Newton algorithms, we develop the various contributions of this thesis. The first contribution concerns the study and development of stochastic Newton algorithms for ridge linear regression and ridge logistic regression. These algorithms are based on the Riccati formula (Sherman-Morrison) to recursively estimate the inverse of the Hessian. As the acquisition of big data is generally accompanied by a contamination of the latter, in a second contribution, we focus on the online estimation of the geometric median, which is a robust indicator, i.e., not very sensitive to the presence of atypical data. More specifically, we propose a new stochastic Newton estimator to estimate the geometric median. In the first two contributions, the estimators of the Hessians' inverses are constructed using the Riccati formula, but this is only possible for certain functions. Thus, our third contribution introduces a new Robbins-Monro type method for online estimation of the Hessian's inverse, allowing us then to develop universal stochastic Newton algorithms. Finally, our last contribution focuses on Full Adagrad type algorithms, where the difficulty lies in the fact that there is an adaptive step based on the square root of the inverse of the gradient's covariance. We thus propose a Robbins-Monro type algorithm to estimate this matrix, allowing us to propose a recursive approach for Full AdaGrad and its streaming version, with reduced computational costs. For all the new estimators we propose, we establish their convergence rates as well as their asymptotic efficiency. Moreover, we illustrate the efficiency of these algorithms using numerical simulations and by applying them to real data.

Automated Depression Level Estimation: A Study on Discourse Structure, Input Representation and Clinical Reliability

Doctorant·e
AGARWAL Navneet
Direction de thèse
DIAS Gael (Directeur·trice de thèse)
Date de la soutenance
27/06/2024 à 14:00
Lieu de la soutenance
Salle de soutenance, S3, Campus 2, Caen
Rapporteurs de la thèse
AMBLARD MAXIME Professeur des universités Université de Lorraine
DOUCET Antoine Professeur des universités UNIVERSITE LA ROCHELLE
Membres du jurys
AMBLARD MAXIME, Professeur des universités, Université de Lorraine
DE CHOUDHURY MUNMUM, Professeur , Institut de Technologie de Géorgie
DIAS Gael, Professeur des universités, Université de Caen Normandie
DOUCET Antoine, Professeur des universités, UNIVERSITE LA ROCHELLE
GRABAR NATALIA, Chargé de recherche au CNRS, UNIVERSITE LILLE 3 CHARLES DE GAULLE
KRISHNA SAI SUBRAHMANYAM GORTHI RAMA, Professeur , Indian Institute of Technology
SIRTS KAIRIT, Maître de conférences, UNIVERSITE TARTU ULIKOOL ESTONIE
Résumé
Compte tenu de l'impact sévère et généralisé de la dépression, des initiatives de recherche significatives ont été entreprises pour définir des systèmes d'évaluation automatisée de la dépression. La recherche présentée dans cette thèse tourne autour des questions suivantes qui restent relativement inexplorées malgré leur pertinence dans le domaine de l'évaluation automatisée de la dépression : (1) le rôle de la structure du discours dans l'analyse de la santé mentale, (2) la pertinence de la représentation de l'entrée pour les capacités prédictives des modèles de réseaux neuronaux, et (3) l'importance de l'expertise du domaine dans la détection automatisée de la dépression. La nature dyadique des entretiens patient-thérapeute garantit la présence d'une structure sous-jacente complexe dans le discours. Dans cette thèse, nous établissons d'abord l'importance des questions du thérapeute dans l'entrée du modèle de réseau neuronal, avant de montrer qu'une combinaison séquentielle des entrées du patient et du thérapeute est une stratégie sous-optimale. Par conséquent, des architectures à vues multiples sont proposées comme moyen d'incorporer la structure du discours dans le processus d'apprentissage des réseaux neuronaux. Les résultats expérimentaux obtenus avec deux encodages de texte différents montrent les avantages des architectures multi-vues proposées, validant la pertinence de la conservation de la structure du discours dans le processus d'apprentissage du modèle. Ayant établi la nécessité de conserver la structure du discours dans le processus d'apprentissage, nous explorons plus avant les représentations textuelles basées sur les graphes. Les recherches menées dans ce contexte mettent en évidence l'impact des représentations d'entrée non seulement pour définir les capacités d'apprentissage du modèle, mais aussi pour comprendre leur processus prédictif. Les graphiques de similitude de phrases et les graphiques de corrélation de mots-clés sont utilisés pour illustrer la capacité des représentations graphiques à fournir des perspectives variées sur la même entrée, en mettant en évidence des informations qui peuvent non seulement améliorer les performances prédictives des modèles, mais aussi être pertinentes pour les professionnels de la santé. Le concept de vues multiples est également incorporé dans les deux structures graphiques afin de mettre en évidence les différences de perspectives entre le patient et le thérapeute au cours d'un même entretien. En outre, il est démontré que la visualisation des structures graphiques proposées peut fournir des informations précieuses indiquant des changements subtils dans le comportement du patient et du thérapeute, faisant allusion à l'état mental du patient. Enfin, nous soulignons le manque d'implication des professionnels de la santé dans le contexte de la détection automatique de la dépression basée sur des entretiens cliniques. Dans le cadre de cette thèse, des annotations cliniques de l'ensemble de données DAIC-WOZ ont été réalisées afin de fournir une ressource pour mener des recherches interdisciplinaires dans ce domaine. Des expériences sont définies pour étudier l'intégration des annotations cliniques dans les modèles de réseaux neuronaux appliqués à la tâche de prédiction au niveau des symptômes dans le domaine de la détection automatique de la dépression. En outre, les modèles proposés sont analysés dans le contexte des annotations cliniques afin d'établir une analogie entre leur processus prédictif et leurs tendances psychologiques et ceux des professionnels de la santé, ce qui constitue une étape vers l'établissement de ces modèles en tant qu'outils cliniques fiables.
Abstract
Given the severe and widespread impact of depression, significant research initiatives have been undertaken to define systems for automated depression assessment. The research presented in this dissertation revolves around the following questions that remain relatively unexplored despite their relevance within automated depression assessment domain; (1) the role of discourse structure in mental health analysis, (2) the relevance of input representation towards the predictive abilities of neural network models, and (3) the importance of domain expertise in automated depression detection. The dyadic nature of patient-therapist interviews ensures the presence of a complex underlying structure within the discourse. Within this thesis, we first establish the importance of therapist questions within the neural network model's input, before showing that a sequential combination of patient and therapist input is a sub-optimal strategy. Consequently, Multi-view architectures are proposed as a means of incorporating the discourse structure within the learning process of neural networks. Experimental results with two different text encodings show the advantages of the proposed multi-view architectures, validating the relevance of retaining discourse structure within the model's training process. Having established the need to retain the discourse structure within the learning process, we further explore graph based text representations. The research conducted in this context highlights the impact of input representations not only in defining the learning abilities of the model, but also in understanding their predictive process. Sentence Similarity Graphs and Keyword Correlation Graphs are used to exemplify the ability of graphical representations to provide varying perspectives of the same input, highlighting information that can not only improve the predictive performance of the models but can also be relevant for medical professionals. Multi-view concept is also incorporated within the two graph structures to further highlight the difference in the perspectives of the patient and the therapist within the same interview. Furthermore, it is shown that visualization of the proposed graph structures can provide valuable insights indicative of subtle changes in patient and therapist's behavior, hinting towards the mental state of the patient. Finally, we highlight the lack of involvement of medical professionals within the context of automated depression detection based on clinical interviews. As part of this thesis, clinical annotations of the DAIC-WOZ dataset were performed to provide a resource for conducting interdisciplinary research in this field. Experiments are defined to study the integration of the clinical annotations within the neural network models applied to symptom-level prediction task within the automated depression detection domain. Furthermore, the proposed models are analyzed in the context of the clinical annotations to analogize their predictive process and psychological tendencies with those of medical professionals, a step towards establishing them as reliable clinical tools.

Grandes déviations dynamiques du processus de l'exclusion en contact faible avec des réservoirs

Doctorant·e
BOULEY Angele
Direction de thèse
LANDIM CLAUDIO (Directeur·trice de thèse)
Date de la soutenance
25/06/2024 à 14:00
Lieu de la soutenance
LMRS - Laboratoire de Mathématiques Raphaël Salem
Rapporteurs de la thèse
BLONDEL ORIANE Chargé de Recherche Université Claude Bernard - Lyon 1
TERTULIANO FRANCO Professeur des Universités Université Fédérale de Bahia
Membres du jurys
BLONDEL ORIANE, Chargé de Recherche, Université Claude Bernard - Lyon 1
CALKA PIERRE, Professeur des Universités, Université de Rouen Normandie
LANDIM CLAUDIO, , Université de Rouen Normandie
MOURRAGUI MUSTAPHA, Maître de Conférences, Université de Rouen Normandie
SIMON MARIELLE, Professeur des Universités, Université Claude Bernard - Lyon 1
TERTULIANO FRANCO, Professeur des Universités, Université Fédérale de Bahia
Résumé
Cette thèse s'intéresse à un processus d'exclusion en contact faible avec des réservoirs. Plus précisément, on reprend le modèle étudié dans l'article "Hydrostatics and dynamical large deviations of boundary driven gradient symmetric exclusion processes" de J. Farfan, C. Landim, M. Mourragui mais dans le cas d'un contact faible (et non plus fort) avec les réservoirs. Par ce contact faible, des résultats sont modifiés comme le théorème de la limite hydrodynamique et le théorème des grandes déviations dynamiques. Ce sont les modifications de ses deux résultats qui sont étudiés dans cette thèse dans le cas de la dimension 1. La première partie de la thèse consistera à montrer le théorème de la limite hydrodynamique pour notre modèle, i.e. montrer la convergence de la mesure empirique. En se basant sur les étapes de la Section 5 du livre "Scaling limits of interacting particle systems" de C. Kipnis, C. Landim, il s'agira de montrer que cette suite est relativement compacte avant d'étudier les propriétés de ses points limites. Pour chacune des sous-suites convergentes, on montrera que celles-ci convergent vers des points limites qui se concentrent sur des trajectoires absolument continues et dont les densités sont solutions faibles d'une équation qu'on nommera l'équation hydrodynamique. En finissant par montrer qu’il y a unicité des solutions faibles de l’équation hydrodynamique, on aura alors un unique point limite et la convergence de la suite sera établie. Dans la deuxième partie de la thèse, on montrera le théorème des grandes déviations dynamiques, i.e. qu'il existe une fonction taux I_{[0,T]}( . |\gamma) vérifiant le principe des grandes déviations pour la suite étudiée dans la première partie. Après avoir définit la fonction taux, on montrera donc que celle-ci est semicontinue inférieurement, qu'elle a ses ensembles de niveaux compacts et qu'elle vérifie une propriété de borne inférieure et de borne supérieure. Une des principales difficulté sera de montrer qu’on a une propriété de densité pour un ensemble F pour notre fonction taux. Ceci représentera donc une part importante de cette section. De plus, pour montrer cette densité, on aura besoin de décomposer la fonction I_{[0,T]}( .|\gamma) qui admet des termes de bords et n’a pas de propriété de convexité comme l’ont les fonctions taux de plusieurs modèles déjà existants. En raison de ses deux contraintes, de nouvelles propriétés de régularités ainsi qu'un nouveau type de décomposition seront démontrés.
Abstract
This thesis focuses on a process of exclusion in weak contact with reservoirs. More precisely, we revisit the model studied in the article "Hydrostatics and dynamical large deviations of boundary driven gradient symmetric exclusion processes" by J. Farfan, C. Landim, M. Mourragui but in the case of weak (rather than strong) contact with the reservoirs. Through this weak contact, results are modified such as the hydrodynamic limit theorem and the theorem of large dynamical deviations. The modifications of these two results are studied in this thesis in the case of dimension 1. The first part of the thesis will consist of proving the hydrodynamic limit theorem for our model, i.e. showing the convergence of the empirical measure. Based on the steps in Section 5 of the book "Scaling limits of interacting particle systems" by C. Kipnis, C. Landim, we will show that this sequence is relatively compact before studying the properties of its limit points. For each convergent subsequence, we will show that they converge to limit points that concentrate on absolutely continuous trajectories and whose densities are weak solutions of an equation that we will call the hydrodynamic equation. By demonstrating the uniqueness of weak solutions of the hydrodynamic equation, we will then have a unique limit point and the convergence of the sequence will be established. In the second part of the thesis, we will demonstrate the theorem of large dynamical deviations, i.e. that there exists a rate function I_{[0,T]}(.|\gamma) satisfying the large deviations principle for the sequence studied in the first part. After defining the rate function, we will show that it is lower semicontinuous, has compact level sets, and satisfies a lower bound and an upper bound property. One of the main challenges will be to show a density property for a set F. This will represent a significant part of this section. Moreover, to prove this density property, we will need to decompose the function I_{[0,T]}(.|\gamma) which contains boundary terms and does not have a convexity property like the rate functions of several existing models. Due to these two constraints, new regularity properties as well as a new type of decomposition will be demonstrated.

Mobile data analysis: robust alignment and flexible clustering methods

Doctorant·e
YAN YUJIN
Direction de thèse
PAUCHET ALEXANDRE (Directeur·trice de thèse)
KNIPPEL ARNAUD (Co-encadrant·e de thèse)
Date de la soutenance
21/06/2024 à 10:30
Lieu de la soutenance
amphi DU B RJ 02 (Marie Curie) du bâtiment Dumont d'Urville de l'INSA de Rouen Normandie
Rapporteurs de la thèse
DU MOUZA CEDRIC PROFESSEUR DES UNIVERSITÉS Conservatoire national des arts et métiers
NGUYEN VIET HUNG PROFESSEUR DES UNIVERSITÉS Université Clermont Auvergne
Membres du jurys
ALES ZACHARIE, ASSOCIATE PROFESSOR - ÉQUIVALENT HDR , ENSTA Paris
DU MOUZA CEDRIC, PROFESSEUR DES UNIVERSITÉS, Conservatoire national des arts et métiers
JOLLOIS FRANCOIS-XAVIER, MAÎTRE DE CONFÉRENCES, Université Paris Cité
KNIPPEL ARNAUD, MAÎTRE DE CONFÉRENCES, INSA de Rouen Normandie
LESOT MARIE-JEANNE, PROFESSEUR DES UNIVERSITÉS, Sorbonne Université
MAINGUENAUD MICHEL, PROFESSEUR DES UNIVERSITÉS, INSA de Rouen Normandie
NGUYEN VIET HUNG, PROFESSEUR DES UNIVERSITÉS, Université Clermont Auvergne
PAUCHET ALEXANDRE, MAITRE DE CONFERENCES DES UNIVERSITES HDR, INSA de Rouen Normandie
Résumé
La popularité des appareils mobiles dans la vie moderne a révolutionné la communication, la navigation et les activités quotidiennes. Les appareils mobiles génèrent une grande quantité de données, y compris un large éventail de comportements des utilisateurs, allant du suivi de la localisation aux modèles de communication et aux données des capteurs. Ces données à multiples facettes ne saisissent pas seulement les interactions entre les individus et leurs appareils, mais révèlent également les tendances et les préférences sociales. Reconnaissant l'importance des données mobiles, nos recherches sont consacrées à l'exploration et à l'exploitation des comportements quotidiens des utilisateurs enregistrés par les appareils mobiles. Dans un premier temps, nous nous concentrons sur l'analyse des données de trajectoire, un composant des données mobiles qui est généralement représenté sous la forme d'une séquence spatio-temporelle. En utilisant les informations sémantiques intégrées dans les points de trajectoire, nous pouvons obtenir des informations sur les comportements et les activités des utilisateurs. Cependant, l'intégration des dimensions spatiales et temporelles augmente la complexité de l'analyse. Nous proposons une architecture de regroupement de trajectoires basée sur la sémantique pour analyser les données de trajectoires, qui comprend le prétraitement des données, l'exploration de la similarité et les méthodes de regroupement. En outre, nous introduisons un modèle d'exploration des similitudes fondé sur la programmation dynamique pour quantifier la similitude entre les trajectoires, améliorant ainsi notre compréhension des données mobiles. Une analyse expérimentale complète est menée sur un ensemble de données réelles afin de comparer notre modèle avec des méthodes de référence. Les résultats de la comparaison montrent la capacité de notre algorithme à examiner efficacement les associations au sein des données de trajectoire. Pour améliorer le contrôle expérimental, nous proposons un modèle de génération de données simulant des scénarios de la vie quotidienne en générant des données aléatoires fondées sur des données d'utilisateurs réels. Grâce à des comparaisons quantitatives entre l'architecture proposée et d'autres approches, notre algorithme démontre des performances acceptables. En passant des données de trajectoire aux données mobiles multivariées, nous sommes confrontés au défi d'utiliser efficacement divers types de capteurs pour extraire des informations subtiles sur le comportement de l'utilisateur. En introduisant l'algorithme d'alignement de séquences multivariées unidimensionnelles (1D MSA) et l'algorithme d'alignement de séquences multivariées bidimensionnelles (2D MSA), nous facilitons une analyse complète des données mobiles multivariées. Alors que l'algorithme 1D MSA privilégie l'efficacité de calcul, l'algorithme 2D MSA 2D excelle dans l'extraction de similitudes subtiles entre les séquences, ce qui permet une analyse plus détaillée. Parallèlement, nous utilisons différentes méthodes de regroupement pour analyser les sous-séquences similaires obtenues par les deux algorithmes et nous avons obtenu des résultats de regroupement similaires, voire identiques. En outre, les états de l'utilisateur représentés par chaque catégorie dans les résultats du regroupement sont très faciles à interpréter. Cela indique que nos algorithmes peuvent obtenir des résultats stables et cohérents sur des problèmes réels. En outre, nous comparons les sous-séquences similaires obtenues par l'algorithme 2D MSA et les méthodes de référence. Les résultats montrent que l'algorithme 2D MSA que nous proposons est plus performant lorsqu'il s'agit de capturer des similarités subtiles à partir des données. Cette performance robuste fait de l'algorithme 2D MSA un outil puissant pour extraire des sous-séquences significatives dans des données mobiles multivariées, contribuant ainsi à une meilleure interprétation des données et à des app
Abstract
The widespread popularity of mobile devices in modern life has brought a revolution in communication, navigation, and daily activities. Mobile devices generate a vast amount of data, including a wide range of user behaviors from location tracking to communication patterns and sensor data. This multifaceted data not only captures the interactions between individuals and their devices, but also reveals social trends and preferences. Recognizing the importance of mobile data, our research is dedicated to exploring and mining the user daily behavior recorded by mobile devices. Initially, we focus on analyzing trajectory data, which is a component of mobile data that is typically represented as a spatio-temporal sequence. Using the semantic information embedded in trajectory points, we can gain insights into users' behaviors and activities. However, the integration of spatial and temporal dimensions increases the complexity of the analysis. We propose a semantic-based trajectory clustering (STC) architecture to analyze trajectory data, which includes data preprocessing, similarity exploration, and clustering methods. In addition, we introduce a dynamic programming-based similarity exploration (DPD) model to quantify the similarity between trajectories, thus enhancing our understanding of mobile data. A comprehensive experimental analysis is conducted on a real-world dataset to compare the DPD model with the other baseline methods. The comparison results show the adeptness of our DPD algorithm in effectively examining associations within trajectory data. To enhance experimental control, we propose a data generation model simulating daily life scenarios by generating random data based on real user data. Through quantitative comparisons between the proposed STC architecture and other approaches, our algorithm demonstrates good performance. Transitioning from trajectory data to multivariate mobile data, we are challenged to effectively utilize various sensor types to extract subtle insights into user behavior. By introducing one-dimensional multivariate sequence alignment (1D MSA) algorithm and two-dimensional multivariate sequence alignment (2D MSA) algorithm, we facilitate a comprehensive analysis of multivariate mobile data. While the 1D MSA algorithm prioritizes computational efficiency, the 2D MSA algorithm excels at extracting subtle similarities between sequences, providing a more detailed analysis. Meanwhile, we use some different clustering methods to analyze the similar subsequences obtained by the two algorithms and obtained similar or even identical clustering results. Moreover, the user states represented by each category in the clustering results are highly interpretable. This indicates that our algorithms can obtain stable and real-life consistent results. Furthermore, we compare the similar subsequences obtained by 2D MSA algorithm and baseline methods. The results show that our proposed 2D MSA algorithm has superior performance in capturing subtle similarity from the data. This robust performance makes the 2D MSA algorithm as a powerful tool for extracting meaningful subsequences in multivariate mobile data, contributing to enhanced data interpretation and practical applications.

Phase retrieval with non-Euclidean Bregman based geometry

Doctorant·e
GODEME Jean-Jacques
Direction de thèse
FADILI Mohamed Jalal (Directeur·trice de thèse)
Date de la soutenance
21/06/2024 à 10:00
Lieu de la soutenance
Université de Caen
Rapporteurs de la thèse
BLANC-FERAUD LAURE Directeur de recherche au CNRS UNIVERSITE NICE SOPHIA ANTIPOLIS
LUKE RUSSELL Professeur GOTTINGEN - GEORGE AUGUST UNIVERSITÄT
Membres du jurys
AMRA CLAUDE, Directeur de recherche au CNRS, Institut Fresnel (UMR 7249)
BLANC-FERAUD LAURE, Directeur de recherche au CNRS, UNIVERSITE NICE SOPHIA ANTIPOLIS
FADILI Mohamed Jalal, Professeur des universités, ENSICAEN
JAMING PHILIPPE, Professeur des universités, UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
LUKE RUSSELL, Professeur , GOTTINGEN - GEORGE AUGUST UNIVERSITÄT
POON CLARICE, assistant professeur, WARWICK - UNIVERITY OF WARWICK
WALDSPURGER IRÈNE, Chargée de recherche, UNIVERSITE PARIS 9
Résumé
Dans ce travail, nous nous intéressons au problème de reconstruction de phase de signaux à valeurs réelles en dimension finie, un défi rencontré dans de nombreuses disciplines scientifiques et d’ingénierie. Nous explorons deux approches complémentaires : la reconstruction avec et sans régularisation. Dans les deux cas, notre travail se concentre sur la relaxation de l’hypothèse de Lipschitz-continuité généralement requise par les algorithmes de descente du premier ordre, et qui n’est pas valide pour la reconstruction de phase lorsqu’il formulée comme un problème de minimisation. L’idée clé ici est de remplacer la géométrie euclidienne par une divergence de Bregman non euclidienne associée à un noyau générateur approprié. Nous utilisons un algorithme de descente miroir ou de descente à la Bregman avec cette divergence pour résoudre le problème de reconstruction de phase sans régularisation. Nous démontrons des résultats de reconstruction exacte (à un signe global près) à la fois dans un cadre déterministe et avec une forte probabilité pour un nombre suffisant de mesures aléatoires (mesures Gaussiennes et pour des mesures structurées comme la diffraction codée). De plus, nous établissons la stabilité de cette approche vis-à-vis d’un bruit additif faible. En passant à la reconstruction de phase régularisée, nous développons et analysons d’abord un algorithme proximal inertiel à la Bregman pour minimiser la somme de deux fonctions, l’une étant convexe et potentiellement non lisse et la seconde étant relativement lisse dans la géométrie de Bregman. Nous fournissons des garanties de convergence à la fois globale et locale pour cet algorithme. Enfin, nous étudions la reconstruction sans bruit et la stabilité du problème régularisé par un a priori de faible complexité. Pour celà, nous formulons le problème comme la minimisation d’une objective impliquant un terme d’attache aux données non convexe et un terme de régularisation convexe favorisant les solutions conformes à une certaine notion de faible complexité. Nous établissons des conditions pour une reconstruction exacte et stable et fournissons des bornes sur le nombre de mesures aléatoires suffisants pour de garantir que ces conditions soient remplies. Ces bornes d’échantillonnage dépendent de la faible complexité des signaux à reconstruire. Ces résultats nouveaux permettent d’aller bien au-delà du cas de la reconstruction de phase parcimonieuse.
Abstract
In this work, we investigate the phase retrieval problem of real-valued signals in finite dimension, a challenge encountered across various scientific and engineering disciplines. It explores two complementary approaches: retrieval with and without regularization. In both settings, our work is focused on relaxing the Lipschitz-smoothness assumption generally required by first-order splitting algorithms, and which is not valid for phase retrieval cast as a minimization problem. The key idea here is to replace the Euclidean geometry by a non-Euclidean Bregman divergence associated to an appropriate kernel. We use a Bregman gradient/mirror descent algorithm with this divergence to solve the phase retrieval problem without regularization, and we show exact (up to a global sign) recovery both in a deterministic setting and with high probability for a sufficient number of random measurements (Gaussian and Coded Diffraction Patterns). Furthermore, we establish the robustness of this approach against small additive noise. Shifting to regularized phase retrieval, we first develop and analyze an Inertial Bregman Proximal Gradient algorithm for minimizing the sum of two functions in finite dimension, one of which is convex and possibly nonsmooth and the second is relatively smooth in the Bregman geometry. We provide both global and local convergence guarantees for this algorithm. Finally, we study noiseless and stable recovery of low complexity regularized phase retrieval. For this, we formulate the problem as the minimization of an objective functional involving a nonconvex smooth data fidelity term and a convex regularizer promoting solutions conforming to some notion of low-complexity related to their nonsmoothness points. We establish conditions for exact and stable recovery and provide sample complexity bounds for random measurements to ensure that these conditions hold. These sample bounds depend on the low complexity of the signals to be recovered. Our new results allow to go far beyond the case of sparse phase retrieval.

Enhancing Maritime Logistics with Blockchain Technology: Application to secure and trace dangerous goods in smart ports

Doctorant·e
ABDALLAH Rim
Direction de thèse
BERTELLE CYRILLE (Directeur·trice de thèse)
DUVALLET Claude (Co-encadrant·e de thèse)
Date de la soutenance
18/06/2024 à 14:00
Lieu de la soutenance
Amphi UFRST Le Havre
Rapporteurs de la thèse
VERDIER FRANÇOIS PROFESSEUR DES UNIVERSITES UNIVERSITE CÔTE D'AZUR
ZEDDINI BESMA MAÎTRE DE CONFERENCES (HDR) CY TECH CERGY PARIS
Membres du jurys
BENNANI YOUNES, Professeur à l' Université de Paris XIII, UNIVERSITE PARIS 13 PARIS-NORD
BERTELLE CYRILLE, PROFESSEUR DES UNIVERSITES, Université Le Havre Normandie
BESANCENOT JÉRÔME, DOCTEUR, HAROPA PORT
BOUZEFRANE SAMIA, PROFESSEUR DES UNIVERSITES, CNAM DE PARIS
DUVALLET CLAUDE, MAÎTRE DE CONFERENCES, Université Le Havre Normandie
VERDIER FRANÇOIS, PROFESSEUR DES UNIVERSITES, UNIVERSITE CÔTE D'AZUR
ZEDDINI BESMA, MAÎTRE DE CONFERENCES (HDR), CY TECH CERGY PARIS
Résumé
Cette thèse s'inscrit à l'avant-garde de la logistique maritime et explore le potentiel transformateur de la technologie blockchain pour améliorer la traçabilité de la chaîne d'approvisionnement et faciliter l'échange de données sécurisé et multi-source. À travers une analyse approfondie des applications de la blockchain, ce travail de recherche examine méticuleusement comment cette technologie émergente peut contribuer de manière significative à renforcer la transparence, la traçabilité et la sécurité au sein du commerce international. En s'appuyant sur un cadre théorique complet et des études de cas concrets, cette étude universitaire met en lumière les défis et les opportunités à multiples facettes liés à l'intégration de la blockchain dans la logistique maritime. Elle évalue de manière critique l'impact de cette technologie sur la traçabilité des données critiques au sein des systèmes d'information maritimes, telles que les marchandises dangereuses et les journaux d'identification, avec le potentiel de s'étendre à un échange de données inter et intra plus large. Cette thèse vise non seulement à enrichir les connaissances universitaires, mais également à servir d'appel à l'action pour les innovateurs et les décideurs politiques des secteurs maritime et technologique. Elle préconise une approche innovante qui favorise un engagement plus profond avec les possibilités de transformation offertes par la blockchain. Cette approche considère la blockchain non pas comme un substitut, mais comme une couche complémentaire aux systèmes d'information maritime existants. Elle envisage une intégration et une utilisation transparentes d'une technologie blockchain personnalisée et évaluée au sein du secteur maritime, garantissant ainsi sa cohérence avec les exigences spécifiques de l'industrie et les tendances actuelles de numérisation. Ce travail de recherche vise à fournir des éclairages qui permettent de mieux comprendre les implications de la technologie blockchain pour le paysage en évolution du commerce et de la logistique mondiaux.
Abstract
At the forefront of maritime logistics, this dissertation explores the transformative potential of blockchain technology to enhance supply chain traceability and facilitate secure, multi-source data exchange. Through a deep analysis of blockchain applications, the research meticulously examines how this emerging technology can significantly elevate transparency, strengthen traceability, and fortify security within the global trade arena. By weaving together a comprehensive theoretical framework and real-world case studies, this scholarly endeavour sheds light on the multifaceted challenges and opportunities associated with integrating blockchain into maritime logistics. It critically evaluates the technology's impact on the traceability of critical data within maritime information systems, such as dangerous goods and identification logs, with the potential to extend to broader inter- and intra-data exchange. This dissertation not only contributes to academic knowledge but also serves as a compelling call to action for innovators and policymakers in the maritime and technology sectors. It advocates for an innovative approach that fosters deeper engagement with the possibilities of blockchain-driven transformation. This approach views blockchain not as a replacement, but as a complementary layer to existing maritime information systems. It envisions seamless integration and utilization of customized and evaluated blockchain technology within the maritime sector, ensuring its coherence with industry-specific requirements and ongoing digitization trends. This research aims to provide insights that enhance the understanding of blockchain technology's implications for the evolving global trade and logistics landscape.

Apprentissage profond pour l'analyse de la pollution des sols par imagerie hyperspectrale

Doctorant·e
DHAINI Mohamad
Direction de thèse
HONEINE PAUL (Directeur·trice de thèse)
Date de la soutenance
17/06/2024 à 14:00
Lieu de la soutenance
Université de Rouen Normandie, Saint Etienne du Rouvray
Rapporteurs de la thèse
PUIGT MATTHIEU Maître de Conférences HDR ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
SOUSSEN CHARLES Professeur des Universités CentraleSupélec
Membres du jurys
AINOUZ SAMIA, Professeur des Universités, INSA de Rouen Normandie
BERAR MAXIME, Maître de Conférences, Université de Rouen Normandie
FABRE SOPHIE, Directeur de Recherche, Office National d'Etudes&recherches Aéro
HONEINE PAUL, Professeur des Universités, Université de Rouen Normandie
PUIGT MATTHIEU, Maître de Conférences HDR, ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
RAKOTOMAMONJY ALAIN, Professeur des Universités, Université de Rouen Normandie
SOUSSEN CHARLES, Professeur des Universités, CentraleSupélec
Résumé
Ces dernières années, l'apprentissage profond a été étudié pour un large spectre d'applications. Dans cette thèse, nous visons à explorer un domaine moins connu mais d'une importance cruciale : l'apprentissage profond au profit de l'environnement. Plus précisément, nous étudions l'utilisation de l'apprentissage profond pour l'analyse de la pollution des sols à l'aide de l'imagerie hyperspectrale. Dans notre travail, nous fournissons des réponses aux besoins industriels identifiés par la société Tellux spécialisée dans les analyses environnementales tels de la pollution par les hydrocarbures ou la matière organique des sols. L'application de modèles d'apprentissage profond sur des données spectrales des sols n'est pas simple en raison des variabilités liées à la composition des sols, des types de contaminants ainsi que les paramètres d'acquisition. La thèse est divisée en deux parties principales en fonction de la nature et des objectifs des modèles développés. Dans la première partie, nous abordons les modèles conçus pour caractériser la structures stratigraphique des données d'un seul site de sol. A cette fin, en utilisant des techniques d'apprentissage non supervisé, notre contribution consiste à développer un autoencodeur convolutionnel complet pour le démélange hyperspectral non-linéaire conçu pour estimer la composition du sol. L'autoencodeur proposé surpasse des ensembles de données hyperspectrales aéroportées bien connus et il est utilisé dans une étude de cas opérationel de Tellux pour estimer la structures lithologiques du sol. Dans la deuxième partie, nous abordons les modèles généralisables à différents types de données géologiques, principalement des données synthétiques à des données réelles enregistrés sur le terrain. Nous proposons des modèles de régression conçus pour estimer la concentration en hydrocarbures des sols. À cette fin, nous explorons les techniques d'adaptation au domaine pour les tâches de régression sur les données hyperspectrales. L'adaptation de domaine pour les tâches de régression est très difficile par rapport à la classification en raison de la sensibilité du modèle à la dispersion des données dans l'espace des caractéristiques en fonction de la variable de sortie. Notre contribution consiste en deux nouvelles fonctions de perte de domaine adaptées aux problèmes de régression avec une mise en œuvre stable dans un réseau neuronal. Enfin, pour accroître la robustesse du modèle face à plusieurs variabilités spectrales possibles, nous explorons les techniques d'apprentissage contrastif pour les tâches de régression. À cette fin, nous proposons des techniques d'augmentation spectrale et spatiale adaptées aux données hyperspectrales et nous fournissons un cadre pour l'apprentissage contrastif spectral et spectral-spatial pour la régression sur les données hyperspectrales. Les techniques d'adaptation au domaine et d'apprentissage contrastif proposées améliorent les scores de régression des modèles de base les plus récents sur des données hyperspectrales aériennes synthétiques et réelles. De plus, les techniques proposées améliorent la généralisation des modèles Tellux des ensembles de données synthétiques de laboratoire et des ensembles de données réelles enregistrés sur le terrain.
Abstract
Throughout the years, deep learning has been investigated across a broad spectrum of applications. In this thesis, we aim to explore a less charted but critically important area: deep learning for the benefit of the environment. More precisely, we investigate the use of deep learning for soil pollution analysis using hyperspectral imagery. In our work, we provide answers to the industrial needs identified by the startup Tellux specialized in the environmental analysis such as soil pollution by hydrocarbons or organic materials. The application of deep learning models on soil spectral data is not straightforward as there are several difficulties faced related to variabilities in soil composition, types of pollutants, and acquisition parameters. The thesis is divided into two main parts according to the nature and objectives of the developed models. In the first part, we address the models designed to characterize the strati-graphic structure of a single site soil data. To this end, using unsupervised learning techniques, our contribution consists of developing an end-to-end convolutional autoencoder for nonlinear hyperspectral unmixing designed to estimate the soil composition. The proposed autoencoder outperforms well-known airborne hyperspectral datasets and is used in the operational phase of Tellux to estimate soil lithology. In the second part, we address the models that can be generalized across different soil datasets from different geological sites, mainly from synthetic ones to real field datasets. We propose regression models designed for estimating concentration of hydrocarbons pollution. For this purpose, we explore domain adaptation techniques for regression tasks on hyperspectral data. Domain adaptation for regression tasks is very challenging compared to classification due to sensitivity of the model to scattering of data in the feature space according to the output variable. Our contribution consists of two novel domain loss functions suitable for regression problems with stable implementation inside a neural network. Finally, to increase the robustness of the model against several possible spectral variabilities, we explore contrastive learning techniques for regression tasks. To this end, we propose spectral and spatial augmentation techniques suitable for hyperspectral data and we provide a framework for spectral and spectral-spatial contrastive learning for regression on hyperspectral data. The proposed domain adaptation and contrastive learning techniques improves the regression scores of state-of-the-art baseline models on synthetic and real airborne hyperspectral data. Besides, the proposed techniques improves the generalization of Tellux models from synthetic laboratory datasets to real field ones.

Modélisation et simulation numérique du problème inverse en tomographie électromagnétique.

Doctorant·e
COUSIN THEAU
Direction de thèse
GOUT CHRISTIAN (Directeur·trice de thèse)
FAUCHARD CYRILLE (Co-directeur·trice de thèse)
TONNOIR ANTOINE (Co-encadrant·e de thèse)
Date de la soutenance
25/03/2024 à 14:15
Lieu de la soutenance
Amphi Curie, INSA Rouen.
Rapporteurs de la thèse
DARBAS MARION PROFESSEUR DES UNIVERSITÉS Université de Paris 13
LEPAROUX DONATIENNE DIRECTEUR DE RECHERCHE Université Gustave Eiffel
Membres du jurys
DARBAS MARION, PROFESSEUR DES UNIVERSITÉS, Université de Paris 13
DUMONT HERVÉ, INGENIEUR DE RECHERCHE, Eiffage
FAUCHARD CYRILLE, DIRECTEUR DE RECHERCHE, Cerema
FLISS SONIA, PROFESSEUR DES UNIVERSITÉS, ENSTA Paris
GOUT CHRISTIAN, PROFESSEUR DES UNIVERSITÉS, INSA de Rouen Normandie
LEPAROUX DONATIENNE, DIRECTEUR DE RECHERCHE, Université Gustave Eiffel
SERHIR MOHAMMED, ASSOCIATE PROFESSOR, EQUIVALENT HDR, Centrale Supelec
TONNOIR ANTOINE, MAÎTRE DE CONFÉRENCES, INSA de Rouen Normandie
Résumé
Cette thèse s'inscrit dans un projet de recherche qui a pour ambition de développer, dans une démarche écologique, une méthodologie permettant de retrouver la densité des matériaux du génie civil. L'objectif est de remplacer une méthode invasive et nucléaire par une approche non destructive et électromagnétique. Les travaux de cette thèse sont issues d'une collaboration Cifre entre le Cerema, Routes de France et le Laboratoire de Mathématiques de l'INSA de Rouen Normandie (LMI). Des premiers travaux ont permis d'établir un lien entre la densité et la permittivité diélectrique d'un matériau, ce qui a conduit l'équipe ENDSUM du Cerema Normandie à réaliser un banc permettant d'émettre et de recevoir des ondes électromagnétiques. Il est équipé de moteurs pas à pas pour les antennes et un moteur pour le support, permettant d'accéder à des mesures de type tomographie. L'objectif de cette thèse est de mettre en place un solveur permettant de réaliser une inversion sur les données générées par ce banc afin de retrouver la permittivité et in fine la compacité. Cela implique la modélisation et la simulation numérique de ce système, basée sur la diffraction des ondes électromagnétiques régie par les équations de Maxwell que nous avons étudiés en ordre 2. La réalisation de ce solveur 3D a nécessité l'implémentation d'une méthode type \'Elément Finis, basée sur les \'Eléments Finis de Nédelec. La prise en compte du caractère non borné du domaine a été réalisée grâce à l'implémentation de Perfectly Matched Layers. Afin d'optimiser l'implémentation, nous avons également mis en place une vectorisation de l'assemblage des matrices de discrétisation et implémenté une méthode de décomposition de domaine. Finalement, la résolution du problème de minimisation s'est faite par une approche de type Gauss-Newton utilisant la méthode d'état adjoints pour le calcul de la matrice Hessienne. Cette résolution est combinée avec une régularisation de Tikhonov dite semi-quadratique permettant d'accentuer le contraste dans la permittivité recherchée. La modélisation du banc a également nécessité des travaux sur le calibrage des antennes utilisées. Nous avons réadapté les travaux de dans le but de considérer les antennes comme une source ponctuelle associée à une onde sphérique et mis en place un procédé expérimental permettant de corriger les signaux reçus.
Abstract
This thesis is part of a research project aiming to develop, in an ecological approach, a methodology for retrieving the density of civil engineering materials. The objective is to replace an invasive and nuclear method with a non-destructive and electromagnetic approach. The work of this thesis stems from a CIFRE collaboration between Cerema, Routes de France, and the Laboratory of Mathematics at INSA Rouen Normandie (LMI). The initial work has established a relationship between the density and the dielectric permittivity of a material, leading the ENDSUM team at Cerema Normandie to develop a bench capable of emitting and receiving electromagnetic waves. It is equipped with stepper motors for the antennas and a motor for the support, enabling tomography-type measurements. The objective of this thesis is to implement a solver capable of performing inversion on the data generated by this bench to retrieve the permittivity and ultimately the compactness. This involves the numerical modeling and simulation of this system, based on the diffraction of electromagnetic waves governed by the Maxwell equations we studied in second order. The development of this 3D solver required the implementation of a Finite Element type method, based on Nedelec Finite Elements. The consideration of the unbounded nature of the domain was achieved through the implementation of Perfectly Matched Layers. To optimize the implementation, we also introduced vectorization of the discretization matrix assembly and implemented a domain decomposition method. Finally, the resolution of the minimization problem was carried out using a Gauss-Newton approach utilizing the adjoint state method for computing the Hessian matrix. This resolution is combined with a semi-quadratic Tikhonov regularization method to enhance the contrast in the desired permittivity. The modeling of the bench also required work on the calibration of the antennas used. We have readapted previous work to consider the antennas as a point source associated with a spherical wave and implemented an experimental process to correct the received signals.

Problems, models and methods for risk reduction after industrial disasters involving dangerous substances

Doctorant·e
BARBALHO Thiago Jobson
Direction de thèse
SANTOS ANDREA CYNTHIA (Directeur·trice de thèse)
Date de la soutenance
19/03/2024 à 14:00
Lieu de la soutenance
Amphi Normand - Bâtiment UFR Sciences et Techniques
Rapporteurs de la thèse
ABSI NABIL PROFESSEUR DES UNIVERSITES ECOLE NATIONALE DES MINES DE ST ETIENNE
KEDAD-SIDHOUM SAFIA PROFESSEUR DES UNIVERSITES CNAM DE PARIS
Membres du jurys
ABSI NABIL, PROFESSEUR DES UNIVERSITES, ECOLE NATIONALE DES MINES DE ST ETIENNE
BOSTEL NATHALIE, PROFESSEUR DES UNIVERSITES, Université Nantes
DE CASTRO PENA GUILHERME, ASSOCIATE PROFESSOR, UNIVERSIDADE FEDERAL DE SAO JOAO DEL-REI
DUHAMEL CHRISTOPHE, MAÎTRE DE CONFERENCES, Université Le Havre Normandie
JIMENEZ LAREDO JUAN LUIS, ASSOCIATE PROFESSOR, UNIVERSIDAD DE GRANADA
KEDAD-SIDHOUM SAFIA, PROFESSEUR DES UNIVERSITES, CNAM DE PARIS
SANTOS ANDREA CYNTHIA, PROFESSEUR DES UNIVERSITES, Université Le Havre Normandie
Résumé
En Europe, plus de 250 accidents majeurs impliquant des sites industriels soumis à la Directive Seveso ont été signalés depuis 2010. Malgré les réglementations en place visant à prévenir de tels accidents et à en minimiser l'impact, la gestion des risques après ces catastrophes reste un défi complexe. Lorsqu'un désastre industriel survient, des informations préliminaires sur le terrain sont collectées pour déterminer l'étendue de l'accident, et des décisions opérationnelles doivent être prises en fonction de la nature dangereuse des produits impliqués et de l'étendue de la zone affectée. Dans cette thèse, nous explorons le domaine des problèmes complexes de planification étroitement liés aux facteurs de risque découlant du traitement (nettoyage ou neutralisation) de substances dangereuses accidentellement libérées par des sources industrielles. L'objectif principal est de développer des modèles d'optimisation et des solutions efficaces qui abordent les défis auxquels sont confrontés les secteurs industriels et les opérations logistiques. Nous proposons de nouveaux problèmes d'optimisation pour établir un cadre de planification des opérations sur site visant à nettoyer ou neutraliser les dangers potentiels. Nous présentons plusieurs scénarios de problèmes et investiguons leurs résultats numériques obtenus par les différentes méthodes d'optimisation. Ces méthodes, conjointement avec les plans de gestion des risques déjà existants, peuvent fournir des insights intéressants pour être appliqués à des situations réalistes.
Abstract
In Europe, more than 250 major accidents involving industrial sites under the Seveso Directive have been reported since 2010. Despite regulations in place to prevent such accidents and minimize their impact, managing risk after these disasters remains a complex challenge. Once an industrial disaster occurs, preliminary on-the-ground information is collected to determine the extent of the accident, and operational decisions need to be made based on the hazardous nature of the products involved and the extent of the affected area. In this thesis, we delve into the realm of complex scheduling problems closely linked to risk factors arising from the treatment (cleaning or neutralizing) of hazardous substances accidentally released by industrial sources. The primary objective is to develop effective optimization models and solutions addressing the challenges faced by industries and logistical operations. We propose new optimization problems to establish a framework for scheduling on-site operations to either clean or neutralize potential hazards. We present mathematical formulations and an Iterated Local Search metaheuristic. The methods were applied to solve various problem scenarios, and we investigate their numerical results and their applicability to realistic situations.

Un système d'aide à la décision pour les négoces de matériaux

Doctorant·e
SOUPLY Marc
Direction de thèse
RIOULT Francois (Directeur·trice de thèse)
Date de la soutenance
06/03/2024 à 14:00
Lieu de la soutenance
Caen Campus 2
Rapporteurs de la thèse
CAMARGO MAURICIO Professeur des universités Université de Lorraine
CLÉMENÇON STEPHAN Professeur des universités Telecom Paris
Membres du jurys
CAMARGO MAURICIO, Professeur des universités, Université de Lorraine
CLÉMENÇON STEPHAN, Professeur des universités, Telecom Paris
FRYDMAN CLAUDIA, Professeur des universités, Ecole polytechnique Marseille
MENARD Tomas, Maître de conférences HDR, Université de Caen Normandie
RIOULT Francois, Maître de conférences HDR, Université de Caen Normandie
ZACHAREWICZ GRÉGORY, Professeur , IMT Mines d'Alès
ZANNI-MERK CECILIA, Professeur des universités, INSA de Rouen Normandie
Résumé
Cette thèse détaille la mise en œuvre d'un système d'aide à la décision pour le négoce de matériaux. Le contexte industriel dans lequel évolue ce négoce y est notamment décrit, et justifie les deux axes clé où des améliorations significatives peuvent être apportées : la prédiction de la demande, et l'optimisation du réapprovisionnement. Une exploration des solutions existantes dans ces deux domaines est proposée, et une discussion sur l'applicabilité des méthodes récentes rattachées à l'industrie 4.0 est menée. Il apparaît que les industries de tailles moyennes et petites n'ont ni le besoin ni les moyens de déployer les modèles issus du big data. Pour ces raisons, la thèse propose des processus économes en puissance de calcul, mêlant des méthodes traditionnelles bien connues avec des concepts plus récents pour circonscrire les prévisions et les réapprovisionnements autour de ce qui compte réellement pour le négoce de matériaux~: des résultats fiables sur les produits clé, obtenus selon des durées opérationnelles réaliste. Pour ces raisons, le travail s'appuie principalement sur des expérimentations comme la prévision avec extraction de saisonnalité automatisée et le choix en amont du meilleur modèle prédictif parmi quatre : le modèle ARIMAX, la forêt aléatoire, le LSTM et une moyenne mobile. L'optimisation, elle, se voit accélérée par l'enchaînement de méthodes de résolution appuyées par de l'early-stopping et du warm-start, tout en tenant compte des nombreuses contraintes spécifiques au négoce. Quatre méthodes de résolution sont ainsi comparées~: un algorithme glouton, un solveur quadratique, le recuit simulé et un algorithme génétique.
Abstract
This thesis describes the implementation of a decision support system for the material trade. It describes the industrial context in which this trade operates, and justifies the two key areas where significant improvements can be made: demand prediction and replenishment optimization. Existing solutions in these two areas are explored, and the applicability of recent Industry 4.0 methods is discussed. It appears that small and medium-sized industries have neither the need nor the means to deploy Big Data models. For these reasons, this work proposes processes that save computing power, blending well-known traditional methods with more recent concepts to circumscribe forecasts and replenishments around what really matters for the material trade: reliable results on key products, obtained within realistic operational timescales. For these reasons, the study relies mainly on experiments such as forecasting with automated seasonality extraction and upstream selection of the best predictive model from four: the ARIMAX model, the random forest, the LSTM and a moving average. Optimization, on the other hand, is accelerated by a sequence of resolution methods supported by early-stopping and warm-start, while taking into account the numerous constraints specific to this trading field. Four optimization methods are compared: a greedy algorithm, a quadratic solver, simulated annealing and a genetic algorithm.

Real-time Indoor Localization with Embedded Computer Vision and Deep Learning

Doctorant·e
DAOU Andrea
Direction de thèse
HONEINE PAUL (Directeur·trice de thèse)
BENSRHAIR ABDELAZIZ (Co-directeur·trice de thèse)
Date de la soutenance
14/02/2024 à 14:00
Lieu de la soutenance
Rouen (Saint Etienne du Rouvray)
Rapporteurs de la thèse
CHAMBON SYLVIE Maître de Conférences HDR Université de Toulouse 3 - Paul Sabatier
SIDEBE DRO DESIRE Professeur des Universités Comue Universites Paris-Saclay
Membres du jurys
BENSRHAIR ABDELAZIZ, Professeur des Universités, INSA de Rouen Normandie
CHAMBON SYLVIE, Maître de Conférences HDR, Université de Toulouse 3 - Paul Sabatier
HONEINE PAUL, Professeur des Universités, Université de Rouen Normandie
MERIAUDEAU FABRICE, Professeur des Universités, Universite de Bourgogne
SIDEBE DRO DESIRE, Professeur des Universités, Comue Universites Paris-Saclay
Résumé
La localisation d'une personne ou d'un bien dans des environnements intérieurs est devenue une nécessité. Le système de positionnement par satellites, une solution prédominante pour la localisation en extérieur, rencontre des limites lorsqu'il est appliqué en intérieur en raison de la réflexion des signaux et de l'atténuation causée par les obstacles. Pour y remédier, diverses solutions de localisation en intérieur ont été étudiées. Les méthodes de localisation en intérieur sans fil exploitent les signaux pour déterminer la position d'un appareil dans un environnement intérieur. Cependant, l'interférence des signaux, souvent causée par des obstacles physiques, des réflexions et des appareils concurrents, peut entraîner des imprécisions dans l'estimation de la position. De plus, ces méthodes nécessitent le déploiement d'infrastructures, ce qui entraîne des coûts d'installation et de maintenance. Une autre approche consiste à estimer le mouvement de l'utilisateur à l'aide des capteurs inertiels de l'appareil. Toutefois, cette méthode se heurte à des difficultés liées à la précision des capteurs, aux caractéristiques de mouvement de l'utilisateur et à la dérive temporelle. D'autres techniques de localisation en intérieur exploitent les champs magnétiques générés par la Terre et les structures métalliques. Ces techniques dépendent des appareils et des capteurs utilisés ainsi que de l'environnement dans lequel se situe l'utilisateur. L'objectif de cette thèse est de réaliser un système de localisation en intérieur conçu pour les professionnels, tels que les pompiers, les officiers de police et les travailleurs isolés, qui ont besoin de solutions de positionnement précises et robustes dans des environnements intérieurs complexes. Dans cette thèse, nous proposons un système de localisation en intérieur qui exploite les récentes avancées en vision par ordinateur pour localiser une personne à l’intérieur d’un bâtiment. Nous développons un système de localisation au niveau de la pièce. Ce système est basé sur l'apprentissage profond et les capteurs intégrés dans le smartphone, combinant ainsi les informations visuelles avec le cap magnétique du smartphone. Pour se localiser, l'utilisateur capture une image de l'environnement intérieur à l'aide d'un smartphone équipé d'une caméra, d'un accéléromètre et d'un magnétomètre. L'image capturée est ensuite traitée par notre système composé de plusieurs réseaux neuronaux convolutionnels directionnels pour identifier la pièce spécifique dans laquelle se situe l'utilisateur. Le système proposé nécessite une infrastructure minimale et fournit une localisation précise. Nous soulignons l'importance de la maintenance continue du système de localisation en intérieur par vision. Ce système nécessite une maintenance régulière afin de s'adapter à l'évolution des environnements intérieurs, en particulier lorsque de nouvelles pièces doivent être intégrées dans le système de localisation existant. L'apprentissage incrémental par classe est une approche de vision par ordinateur qui permet aux réseaux neuronaux profonds d'intégrer de nouvelles classes au fil du temps sans oublier les connaissances déjà acquises. Dans le contexte de la localisation en intérieur par vision, ce concept doit être appliqué pour prendre en compte de nouvelles pièces. La sélection d'échantillons représentatifs est essentielle pour contrôler les limites de la mémoire, éviter l'oubli et conserver les connaissances des classes déjà apprises. Nous développons une méthode de sélection d'échantillons basée sur la cohérence pour l'apprentissage incrémental par classe dans le cadre de l'apprentissage profond. La pertinence de la méthodologie et des contributions algorithmiques de cette thèse est rigoureusement testée et validée par des expérimentations et des évaluations complètes sur des données réelles.
Abstract
The need to determine the location of individuals or objects in indoor environments has become an essential requirement. The Global Navigation Satellite System, a predominant outdoor localization solution, encounters limitations when applied indoors due to signal reflections and attenuation caused by obstacles. To address this, various indoor localization solutions have been explored. Wireless-based indoor localization methods exploit wireless signals to determine a device's indoor location. However, signal interference, often caused by physical obstructions, reflections, and competing devices, can lead to inaccuracies in location estimation. Additionally, these methods require access points deployment, incurring associated costs and maintenance efforts. An alternative approach is dead reckoning, which estimates a user's movement using a device's inertial sensors. However, this method faces challenges related to sensor accuracy, user characteristics, and temporal drift. Other indoor localization techniques exploit magnetic fields generated by the Earth and metal structures. These techniques depend on the used devices and sensors as well as the user's surroundings. The goal of this thesis is to provide an indoor localization system designed for professionals, such as firefighters, police officers, and lone workers, who require precise and robust positioning solutions in challenging indoor environments. In this thesis, we propose a vision-based indoor localization system that leverages recent advances in computer vision to determine the location of a person within indoor spaces. We develop a room-level indoor localization system based on Deep Learning (DL) and built-in smartphone sensors combining visual information with smartphone magnetic heading. To achieve localization, the user captures an image of the indoor surroundings using a smartphone, equipped with a camera, an accelerometer, and a magnetometer. The captured image is then processed using our proposed multiple direction-driven Convolutional Neural Networks to accurately predict the specific indoor room. The proposed system requires minimal infrastructure and provides accurate localization. In addition, we highlight the importance of ongoing maintenance of the vision-based indoor localization system. This system necessitates regular maintenance to adapt to changing indoor environments, particularly when new rooms have to be integrated into the existing localization framework. Class-Incremental Learning (Class-IL) is a computer vision approach that allows deep neural networks to incorporate new classes over time without forgetting the knowledge previously learned. In the context of vision-based indoor localization, this concept must be applied to accommodate new rooms. The selection of representative samples is essential to control memory limits, avoid forgetting, and retain knowledge from previous classes. We develop a coherence-based sample selection method for Class-IL, bringing forward the advantages of the coherence measure to a DL framework. The relevance of the methodology and algorithmic contributions of this thesis is rigorously tested and validated through comprehensive experimentation and evaluations on real datasets.

Probabilistic Exponential Smoothing for Explainable AI in the Supply Chain domain

Doctorant·e
CIFONELLI ANTONIO
Direction de thèse
CANU STEPHANE (Directeur·trice de thèse)
Date de la soutenance
22/12/2023 à 10:00
Lieu de la soutenance
INSA Rouen Normandie
Bâtiment Bougainville, rez-de-chaussée, salle BO-A-RC-02
685 avenue de l'université
76801 Saint Etienne du Rouvray
Rapporteurs de la thèse
AMINI MASSIH-REZA PROFESSEUR DES UNIVERSITÉS Université Grenoble Alpes
BATTON HUBERT MIREILLE PROFESSEUR DES UNIVERSITÉS École des Mines de Saint-Étienne
Membres du jurys
AINOUZ SAMIA, PROFESSEUR DES UNIVERSITÉS, INSA de Rouen Normandie
AMINI MASSIH-REZA, PROFESSEUR DES UNIVERSITÉS, Université Grenoble Alpes
BATTON HUBERT MIREILLE, PROFESSEUR DES UNIVERSITÉS, École des Mines de Saint-Étienne
CANU STEPHANE, PROFESSEUR DES UNIVERSITÉS, INSA de Rouen Normandie
LE HEGARAT-MASCLE SYLVIE, PROFESSEUR DES UNIVERSITÉS, Université Paris-Saclay
Résumé
Le rôle clé que l’IA pourrait jouer dans l’amélioration des activités commerciales est connu depuis longtemps, mais le processus de penetration de cette nouvelle technologie a rencontrzécertains freins au sein des entreprises, en particulier, les coûts de mise oeuvre. En moyenne, 2.8 ans sont nécessaires depuis la sélection du fournisseur jusqu’au déploiement complet d’une nouvelle solution. Trois points fondamentaux doivent être pris en compte lors du développement d’un nouveau modèle. Le désalignement des attentes, le besoin de compréhension et d’explications et les problems de performance et de fiabilité. Dans le cas de modèles traitant des données de la supply chain, cinq questions spécifiques viennent s’ajouter aux précédentes: - La gestion des incertitudes. Les décideurs cherchent un moyen de minimiser le risque associé à chaque décision qu’ils doivent prendre en présence d’incertitude. Obtenir une prévision exacte est un rêve; obtenir une prévision assez précise et en calculer les limites est réaliste et judicieux. - Le traitement des données entières et positives. La plupart des articles ne peuvent pas être vendus en sous-unités. Cet aspect simple de la vente se traduit par une contrainte qui doit être satisfaite: le résultat doit être un entier positif. - L’observabilité. La demande du client ne peut pas être mesurée directement, seules les ventes peuvent être enregistrées et servir de proxy. - La rareté et la parcimonie. Les ventes sont une quantité discontinue. En enregistrant les ventes par jour, une année entiére est condensée en seulement 365 points. De plus, une grande partie d’entre elles sera à zéro. - L’optimisation juste-à-temps. La prévision est une fonction clé, mais elle n’est qu’un élément d’une chaîne de traitements soutenant la prise de décision. Le temps est une ressource précieuse qui ne peut pas être consacrée entièrement à une seule fonction. Le processus de décision et les adaptations associées doivent donc être effectuées dans un temps limité et d’une manière suffisamment flexible pour pouvoir être interrompu et relancé en cas de besoin afin d’incorporer des événements inattendus ou des ajustements nécessaires. Cette thèse s’insère dans ce contexte et est le résultat du travail effectué au coeur de Lokad. La recherche doctorale a été financée par Lokad en collaboration avec l’ANRT dans le cadre d’un contrat CIFRE. Le travail proposé a l’ambition d’être un bon compromis entre les nouvelles technologies et les attentes des entreprises, en abordant les divers aspects précédemment présentés. Nous avons commencé à effectuer des prévisions en utilisant la famille des lissages exponentiels, qui sont faciles à mettre en oeuvre et extrêmement rapides à exécuter. Largement utilisés dans l’industrie, elles ont déjà gagné la confiance des utilisateurs. De plus, elles sont faciles à comprendre et à expliquer à un public non averti. En exploitant des techniques plus avancées relevant du domaine de l’IA, certaines des limites des modèles utilisés peuvent être surmontées. L’apprentissage par transfert s’est avéré être une approche pertinente pour extrapoler des informations utiles dans le cas où le nombre de données disponibles était très limité. Nous avons proposé d’utiliser un modèle associé à une loi de Poisson, une binomiale négative qui correspondmieux à la nature des phénomènes que nous cherchons à modéliser et à prévoir. Nous avons aussi proposé de traiter l’incertitude par des simulations de Monte Carlo. Un certain nombre de scénarios sont générés, échantillonnés et modélisés par dans une distribution. À partir de cette dernière, des intervalles de confiance de taille différentes et adaptés peuvent être déduits. Sur des données réelles de l’entreprise, nous avons comparé notre approche avec les méthodes de l’état de l’art comme DeepAR, DeepSSMs et N-Beats. Nous en avons déduit un nouveau modèle conçu à partir de la méthode Holt-Winter. Ces modèles ont été mis en oeuvre dans le “work flow” de l’entreprise
Abstract
The key role that AI could play in improving business operations has been known for a long time, but the penetration process of this new technology has encountered certain obstacles within companies, in particular, implementation costs. On average, it takes 2.8 years from supplier selection to full deployment of a new solution. There are three fundamental points to consider when developing a new model. Misalignment of expectations, the need for understanding and explanation, and performance and reliability issues. In the case of models dealing with supply chain data, there are five additionally specific issues: - Managing uncertainty. Precision is not everything. Decision-makers are looking for a way to minimise the risk associated with each decision they have to make in the presence of uncertainty. Obtaining an exact forecast is a advantageous; obtaining a fairly accurate forecast and calculating its limits is realistic and appropriate. - Handling integer and positive data. Most items sold in retail cannot be sold in subunits. This simple aspect of selling, results in a constraint that must be satisfied by the result of any given method or model: the result must be a positive integer. - Observability. Customer demand cannot be measured directly, only sales can be recorded and used as a proxy. - Scarcity and parsimony. Sales are a discontinuous quantity. By recording sales by day, an entire year is condensed into just 365 points. What’s more, a large proportion of them will be zero. - Just-in-time optimisation. Forecasting is a key function, but it is only one element in a chain of processes supporting decision-making. Time is a precious resource that cannot be devoted entirely to a single function. The decision-making process and associated adaptations must therefore be carried out within a limited time frame, and in a sufficiently flexible manner to be able to be interrupted and restarted if necessary in order to incorporate unexpected events or necessary adjustments. This thesis fits into this context and is the result of the work carried out at the heart of Lokad, a Paris-based software company aiming to bridge the gap between technology and the supply chain. The doctoral research was funded by Lokad in collaborationwith the ANRT under a CIFRE contract. The proposed work aims to be a good compromise between new technologies and business expectations, addressing the various aspects presented above. We have started forecasting using the exponential smoothing family which are easy to implement and extremely fast to run. As they are widely used in the industry, they have already won the confidence of users. What’s more, they are easy to understand and explain to an unlettered audience. By exploiting more advanced AI techniques, some of the limitations of the models used can be overcome. Cross-learning proved to be a relevant approach for extrapolating useful information when the number of available data was very limited. Since the common Gaussian assumption is not suitable for discrete sales data, we proposed using a model associatedwith either a Poisson distribution or a Negative Binomial one, which better corresponds to the nature of the phenomena we are seeking to model and predict. We also proposed using Monte Carlo simulations to deal with uncertainty. A number of scenarios are generated, sampled and modelled using a distribution. From this distribution, confidence intervals of different and adapted sizes can be deduced. Using real company data, we compared our approach with state-of-the-art methods such as DeepAR model, DeepSSMs and N-Beats. We deduced a new model based on the Holt-Winter method. These models were implemented in Lokad’s work flow.

Modelling of type II superconductors: implementation with FreeFEM.

Doctorant·e
TAIN CYRIL
Direction de thèse
CAPUTO JEAN-GUY (Directeur·trice de thèse)
DANAILA IONUT (Co-directeur·trice de thèse)
Date de la soutenance
21/12/2023 à 14:00
Lieu de la soutenance
INSA Rouen Normandie
Bâtiment Dumont d'Urville, rez-de-jardin
Amphi Marie Curie DU-B-RJ-02
685 avenue du l'université
76801 Saint Etienne du Rouvray
Rapporteurs de la thèse
SANDIER ETIENNE PROFESSEUR DES UNIVERSITÉS Université Paris-Est - Créteil Val-de-Marne
SORENSEN MADS PETER PROFESSEUR Technical University of Denmark
Membres du jurys
BERGER KEVIN, MAÎTRE DE CONFÉRENCES, Université de Lorraine
CAPUTO JEAN-GUY, MAITRE DE CONFERENCES DES UNIVERSITES HDR, INSA de Rouen Normandie
DANAILA IONUT, PROFESSEUR DES UNIVERSITÉS, Université de Rouen Normandie
GOZZELINO LAURA, ASSOCIATE PROFESSOR, Politecnico di Torino, Italy
PROUKAKIS NIKOLAOS, PROFESSEUR, Newcastle University, Royaume-Uni
SANDIER ETIENNE, PROFESSEUR DES UNIVERSITÉS, Université Paris-Est - Créteil Val-de-Marne
SORENSEN MADS PETER, PROFESSEUR, Technical University of Denmark
Résumé
Nous présentons dans cette étude quatre modèles pour les supraconducteurs de type II: le modèle de London, le modèle de Ginzburg-Landau dépendant du temps (TDGL), le modèle de Ginzburg-Landau stationnaire et un modèle de type Abelian-Higgs. Pour le modèle de London nous avons étudié un problème à symétrie cylindrique. Nous avons établi une formulation hydrodynamique du modèle grâce à l'introduction d'une fonction courant. Le caractère bien posé du problème a été prouvé. Le champ magnétique extérieur a été calculé pour des domaines 2D et 3D. En 3D une méthode par éléments frontières a été implémentée en utilisant une fonctionalité récente de FreeFem. Pour le modèle TDGL deux codes fondés sur deux formulations variationnelles ont été implémentées et validées sur des cas tests classiques de la littérature en 2D et 3D. Pour le modèle GL stationnaire une méthode de gradient de Sobolev a été utilisée pour trouver l'état d'équilibre. Ces résultats ont été comparés avec ceux du modèle TDGL. Pour le modèle Abelian-Higgs un code Fortran différences finies en 1D a été développé et validé par la construction d'un système manufacturé. Ce modèle a été utilisé pour retrouver certaines propriétés de magnétisation des supraconducteurs.
Abstract
In this thesis we present four models for type II superconductors: the London model, the time dependent Ginzburg-Landau (TDGL) model, the steady state Ginzburg-Landau model and an Abelian-Higgs model. For the London model a problem with cylindrical symmetry was considered. A hydrodynamic formulation of the problem was established through the introduction of a stream function. Well-posedness of the problem was proved. The external magnetic field was computed for 2D and 3D domains. In 3D a boundary element method was implemented using a recent feature of FreeFem. For the TDGL model two codes based on two variational formulations were proposed and tested on classical benchmarks of the literature in 2D and 3D. In the steady state GL model a Sobolev gradient technique was used to find the equilibrium state. The results were compared with the ones given by the TDGL model. In the Abelian-Higgs model a 1D finite differences code written in Fortran was developed and tested with the construction of a manufactured system. The model was used to retrieve some of the properties of magnetization of superconductors.

Approximation de Dynamic Time Warping par réseaux de neurones pour la compression de signaux EEG et l'analyse de l'insomnie induite par le COVID long.

Doctorant·e
LEROGERON Hugo
Direction de thèse
HEUTTE LAURENT (Directeur·trice de thèse)
Date de la soutenance
21/12/2023 à 10:00
Lieu de la soutenance
Université de Rouen Normandie
Rapporteurs de la thèse
OUDRE LAURENT Professeur des Universités Ecole Normale Supérieure Paris-Saclay
TAVENARD ROMAIN Professeur des Universités Universite de Haute Bretagne Rennes 2
Membres du jurys
CAPPONI CÉCILE, Professeur des Universités, Aix-Marseille université
HEUTTE LAURENT, Professeur des Universités, Université de Rouen Normandie
OUDRE LAURENT, Professeur des Universités, Ecole Normale Supérieure Paris-Saclay
OUKHELLOU LATIFA, Directeur de Recherche, Université Marne La Vallée
PICOT-CLEMENTE ROMAIN, ,
RAKOTOMAMONJY ALAIN, Professeur des Universités, Université de Rouen Normandie
TAVENARD ROMAIN, Professeur des Universités, Universite de Haute Bretagne Rennes 2
Résumé
Ce manuscrit présente les travaux effectués dans le cadre d'une thèse CIFRE réalisée en collaboration entre le LITIS et Saagie, et qui s'inscrit dans le projet PANDORE-IA en partenariat avec le centre du sommeil VIFASOM. Les signaux électroencéphalographiques (EEG) sont très utiles pour aider les experts à identifier diverses anomalies comme les troubles du sommeil. En particulier dernièrement, la communauté s'est beaucoup intéressée au COVID long et à ses divers impacts sur le sommeil. Ces signaux sont cependant volumineux : la compression permet de réduire les coûts de stockage et de transfert. Les approches récentes de compression se basent sur des autoencodeurs qui utilisent une fonction de coût pour apprendre. Celle-ci est usuellement la MSE, mais il existe des métriques plus adaptées aux séries temporelles, en particulier DTW. DTW n'est toutefois pas différentiable et ne peut donc être utilisée pour un apprentissage de bout-en-bout. Pour résoudre ce problème, nous proposons dans cette thèse deux approches d'approximation de DTW basées sur des réseaux de neurones. La première approche utilise un réseau siamois pour projeter les signaux de sorte que la distance euclidienne des signaux projetés soit la plus proche possible de la DTW des signaux originaux. La deuxième approche tente de directement prédire la valeur de DTW. Nous montrons que ces approches sont plus rapides que les autres approximations différentiables de DTW tout en obtenant des résultats similaires à l'utilisation de DTW dans des tâches de requêtage ou de classification de signaux du sommeil. Nous montrons ensuite que l'approximation siamoise peut être utilisée comme fonction de coût pour apprendre un système de compression des signaux de sommeil basé sur un autoencodeur. Nous justifions du choix de l'architecture du réseau par le fait qu'elle nous permet de faire varier le taux de compression. Nous évaluons ce système de compression par la classification sur les signaux compressés puis reconstruits, et montrons que les mesures usuelles de qualité de compression ne permettent pas de correctement évaluer la capacité d'un système de compression à conserver l'information discriminante. Nous montrons que nos approximations de DTW permettent d'obtenir de meilleures performances sur les données reconstruites que des algorithmes de compression usuels et que d'autres fonctions de coût de reconstruction. Enfin, pour étudier l'impact du COVID long sur l'insomnie, nous collectons et mettons à disposition de la communauté un jeu de données nommé COVISLEEP, constitué de polysomnographies de personnes ayant développé une insomnie chronique après infection du COVID, et de personnes souffrant d'insomnie chronique mais n'ayant pas été infectées par le virus. Nous comparons diverses approches à l'état de l'art pour classifier les états du sommeil, et utilisons la meilleure pour apprendre la détection de COVID long. Nous montrons la difficulté de la tâche, notamment due à la forte variabilité entre les patients. Ceci offre à la communauté un jeu complexe qui laisse place au développement de méthodes plus performantes.
Abstract
This manuscript presents the work carried out within the framework of the CIFRE thesis conducted in partnership between LITIS and Saagie and which is part of the PANDORE-IA project in association with the VIFASOM sleep center. Electroencephalographic (EEG) signals are very useful in helping experts identify various abnormalities like sleep disorders. Recently, the community has shown great interest in long COVID and its various impacts on sleep. However, these signals are voluminous: compression allows reducing storage and transfer costs. Recent compression approaches are based on autoencoders that use a cost function to learn. It is usually the Mean Squared Error (MSE), but there are metrics more suited to time series, particularly Dynamic Time Warping (DTW). However, DTW is not differentiable and thus can not be used as a loss for end-to-end learning. To solve this problem, we propose in this thesis two approaches to approximate DTW based on neural networks. The first approach uses a Siamese network to project the signals so that the Euclidean distance of the projected signals is as close as possible to the DTW of the original signals. The second approach attempts to predict directly the DTW value. We show that these approaches are faster than other differentiable approximations of DTW while obtaining results similar to DTW in query or classification on sleep data. We then demonstrate that the Siamese approximation can be used as a cost function for learning a sleep signal compression system based on an autoencoder. We justify the choice of the network architecture by the fact that it allows us to vary the compression rate. We evaluate this compression system by classification on the compressed and then reconstructed signals, and show that the usual measures of compression quality do not allow for a proper assessment of a compression system's ability to retain discriminative information. We show that our DTW approximations yield better performance on the reconstructed data than conventional compression algorithms and other reconstruction losses. Finally, to study the impact of long COVID on insomnia, we collect and provide the community with a dataset named COVISLEEP, containing polysomnographies of individuals who developed chronic insomnia after COVID infection, and of those suffering from chronic insomnia but who have not been infected by the virus. We compare various state-of-the-art approaches for sleep staging, and use the best one for learning the detection of long COVID. We highlight the difficulty of the task, especially due to the high variability among patients. This offers a complex dataset to the community that allows for the development of more effective methods.

Games with incomplete information: complexity, algorithmics, reasoning

Doctorant·e
LI Junkang
Direction de thèse
ZANUTTINI Bruno (Directeur·trice de thèse)
Date de la soutenance
21/12/2023 à 13:00
Lieu de la soutenance
Salle de thèse (S3-102) - Sciences 3 - Campus 2 - Université de Caen Normandie
Rapporteurs de la thèse
SPANJAARD OLIVIER Maître de conférences HDR Sorbonne Université
STURTEVANT NATHAN Professeur University of Alberta
Membres du jurys
CAZENAVE TRISTAN, Professeur des universités, UNIVERSITE PARIS 9
DIMA CATALIN, Professeur des universités, UNIVERSITE MARNE LA VALLEE UNIV PARIS EST MARNE LA VALLEE
SPANJAARD OLIVIER, Maître de conférences HDR, Sorbonne Université
STURTEVANT NATHAN, Professeur , University of Alberta
THOMAS VINCENT, Maître de conférences, Université de Lorraine
VENTOS VERONIQUE, Docteur, NUKKAI
ZANUTTINI Bruno, Professeur des universités, Université de Caen Normandie
Résumé
Dans cette thèse, on étudie les jeux à information incomplète. On commence par établir un paysage complet de la complexité du calcul des stratégies pures optimales pour différentes sous-catégories de jeux, lorsque les jeux sont explicitement donnés en entrée. On étudie ensuite la complexité lorsque les jeux sont représentés de façon compacte (par leurs règles de jeu, par exemple). Pour ce faire, on conçoit deux formalismes pour ces représentations compactes. Dans la suite, on se consacre aux jeux à information incomplète, en proposant d'abord un nouveau formalisme, nommé jeu combinatoire à information incomplète, qui regroupe les jeux sans hasard (sauf un tirage aléatoire initial) et avec uniquement des actions publiques. Pour de tels jeux, ce nouveau formalisme capture la notion de l'information et de la connaissance des joueurs mieux que la forme extensive. Puis, on étudie des algorithmes et leurs optimisations pour résoudre les jeux combinatoires à information incomplète ; certains algorithmes que l'on propose sont applicables au-delà de ces jeux. Dans la dernière partie, on présente un travail en cours, qui consiste à modéliser les raisonnements récursifs et différents types de connaissances sur le comportement des adversaires dans les jeux à information incomplète.
Abstract
In this dissertation, we study games with incomplete information. We begin by establishing a complete landscape of the complexity of computing optimal pure strategies for different subclasses of games, when games are given explicitly as input. We then study the complexity when games are represented compactly (e.g.\ by their game rules). For this, we design two formalisms for such compact representations. Then we concentrate on games with incomplete information, by first proposing a new formalism called combinatorial game with incomplete information, which encompasses games of no chance (apart from a random initial drawing) and with only public actions. For such games, this new formalism captures the notion of information and knowledge of the players in a game better than extensive form. Next, we study algorithms and their optimisations for solving combinatorial games with incomplete information; some of these algorithms are applicable beyond these games. In the last part, we present a work in progress that concerns the modelling of recursive reasoning and different types of knowledge about the behaviour of the opponents in games with incomplete information.

Analyse et analyse numérique d'EDP issues de la thermomécanique des fluides

Doctorant·e
AOUN Mirella
Direction de thèse
GUIBE OLIVIER (Directeur·trice de thèse)
Date de la soutenance
20/12/2023 à 14:30
Lieu de la soutenance
LMRS
22 avenue de la mare aux daims
76800 St Etienne Du Rouvray
Rapporteurs de la thèse
LEWANDOWSKI ROGER Professeur des Universités UNIVERSITE RENNES 1
MIRANVILLE ALAIN Professeur des Universités Université Poitiers
Membres du jurys
ANDREIANOV BORIS, Professeur des Universités, Universite de Tours
GUIBE OLIVIER, Maître de Conférences, Université de Rouen Normandie
LEWANDOWSKI ROGER, Professeur des Universités, UNIVERSITE RENNES 1
MIRANVILLE ALAIN, Professeur des Universités, Université Poitiers
ROSIER CAROLE, Professeur des Universités, ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
ZIDANI HASNAA, Professeur des Universités, INSA de Rouen Normandie
Résumé
Dans cette thèse nous nous intéressons à des systèmes non linéaires d'évolution issus d'un modèle de solidification non isotherme avec prise en compte de la convection. Ces systèmes consistent en un couplage non linéaire de trois équations aux dérivés partielles : la première est l'équation de la phase, la deuxième est l'équation de conservation de l'énergie et la troisième est l'équation de Navier-Stokes incompressible. Plus précisément, nous nous intéressons à établir des résultats sur l'existence de solutions pour ce type de systèmes en dimension $2$ et $3$ ainsi que sur la convergence de solutions approchées par la méthode des volumes finis. Une des particularités de ce type de système est la présence d'un terme naturellement dans $L^1$ dans l'équation de conservation de l'énergie, ce qui demande un traitement particulier. Cette thèse est divisée en deux parties. La première partie comporte deux chapitres et est consacrée à l'étude des problèmes avec données $L^1$ et des conditions aux limites de type Neumann. Pour traiter ces problèmes et ces données peu régulières, nous nous plaçons dans le cadre des solutions renormalisées. Nous établissons dans un premier chapitre un résultat de convergence des solution approchées par la méthode des volumes finis vers l'unique solution renormalisée à médiane nulle dans le cas d'une équation de convection-diffusion elliptique. Dans le second chapitre nous nous intéressons à un problème parabolique non-linéaire, avec des conditions de Neumann non homogène et un terme de convection. Pour ce problème nous donnons une définition de solution renormalisée et nous montrons l'existence et l'unicité d'une telle solution. La deuxième partie comporte deux chapitres et est consacrée à l'étude du système en dimension $2$ et $3$. Dans un premier chapitre nous traitons le cas de la dimension $2$ et nous définissons une notion de solution faibles--renormalisées. Avec notamment l'aide des résultats d'existence et de stabilité établis dans la première partie pour l'équation de la conservation de l'énergie, nous démontrons un résultat d'existence de solution. Le dernier chapitre aborde le cas plus délicat de la dimension $3$. L'absence de résultat général de stabilité et d'unicité pour l'équation de Navier-Sokes en dimension $3$ nous impose tout d'abord à transformer le système en un système formellement équivalent. Par approximation et passage à la limite nous démontrons un résultat d'existence de solution dans un sens faible.
Abstract
In this thesis, we focus on nonlinear evolutionary systems derived from a non-isothermal solidification problem with melt convection. These systems consist of three partial differential equations. The first is the phase-field equation coupled with the heat equation and the incompressible Navier-Stokes equation. More precisely, we are interested in the existence of solutions for these types of systems in the two-dimensional and the three-dimensional cases, and in the convergence of a finite volume approximation. One of the particularities of this type of system is the presence of a term naturally in $L^1$ in the energy conservation equation, which requires special treatment. This thesis is divided into two parts. The first part is divided into two chapters and is devoted to the study of problems with $L^1$ data and Neumann-type boundary conditions. To deal with these problems, and with data that are not very regular, we use the framework of renormalized solutions. In the first chapter, we establish a convergence result for solutions approximated by the finite volume method to the unique renormalized solution with zero median in the case of an elliptic convection-diffusion equation. In the second chapter, we focus on a non-linear parabolic problem with non-homogeneous Neumann conditions and a convection term. For this problem, we provide a definition of a renormalized solution and we show the existence and uniqueness of such a solution. The second part is devoted to the study of the system in dimensions $2$ and $3$. The first chapter deals with the dimension $2$ and defines the notion of weak--renormalized solutions. With the help of the existence and stability results established in the first part for the conservation of energy equation, we prove the existence of a weak--renormalized solution. The final chapter considers the trickier case of dimension $3$. The absence of a general stability and uniqueness result for the $3$-dimensional Navier-Sokes equation requires us to transform the system into a formally equivalent one. By approximation and passage to the limit, we prove the existence of a solution in a weak sense.

Identification de modèles sous forme de représentation d'état pour les systèmes à sortie binaire

Doctorant·e
MESTRAH Ali
Direction de thèse
POULIQUEN Mathieu (Directeur·trice de thèse)
Date de la soutenance
20/12/2023 à 09:00
Lieu de la soutenance
Salle des thèses (S3 102) - Sciences 3 - Campus 2 - Université de Caen Normandie
Rapporteurs de la thèse
BOMBOIS XAVIER Directeur de recherche ECOLE CENTRALE LYON
POINOT THIERRY Professeur des universités Université Poitiers
Membres du jurys
BOMBOIS XAVIER, Directeur de recherche, ECOLE CENTRALE LYON
CHERRIER-PAWLOWSKI ESTELLE, Maître de conférences HDR, ENSICAEN
JAUBERTHIE CARINE, Professeur des universités, Université de Toulouse 3 - Paul Sabatier
JUILLARD JEROME, Professeur des universités, Ecole Supérieure d'Electricité
PIGEON Eric, Maître de conférences, Université de Caen Normandie
POINOT THIERRY, Professeur des universités, Université Poitiers
POULIQUEN Mathieu, Professeur des universités, Université de Caen Normandie
Résumé
Cette thèse porte sur la modélisation paramétrique des systèmes linéaires invariants à partir de mesures binaires de la sortie. Ce problème de modélisation est abordée via l’usage des méthodes des sous-espaces. Ces méthodes permettent l’estimation de modèles sous forme de représentation d’état, un des avantages de ces méthodes étant que leur mise en œuvre ne nécessite pas la connaissance préalable de l’ordre du système. Ces méthodes ne sont initialement pas adaptées au traitement de données binaires, l’objectif de cette thèse est ainsi leur adaptation à ce contexte d’identification. Dans cette thèse nous proposons trois méthodes des sous-espaces. Les propriétés de convergence de deux d’entre elles sont établies. Des résultats de simulations de Monte-Carlo sont présentés afin de montrer les bonnes performances, mais aussi les limites, de ces méthodes.
Abstract
This thesis focuses on parametric modeling of invariant linear systems from binary output measurements. This identification problem is addressed via the use of subspace methods. These methods allow the estimation of state-space models, an added benefit of these methods being the fact that their implementation does not require the prior knowledge of the order of the system. These methods are initially adapted to high resolution data processing, the objective of this thesis is therefore their adaptation to the identification using binary measurements. In this thesis we propose three subspace methods. Convergence properties of two of them are established. Monte Carlo simulation results are presented to show the good performance, but also limits, of these methods.

SMART MODELS FOR SECURITY ENHANCEMENT IN THE INTERNET OF VEHICLES

Doctorant·e
AMARI Houda
Direction de thèse
KHOUKHI LYES (Directeur·trice de thèse)
HADRICH BELGLITH LAMIA (Co-directeur·trice de thèse)
Date de la soutenance
19/12/2023 à 14:00
Lieu de la soutenance
UCN - Campus 2 - Sciences 3 - Salle des Thèses (S3 102)
Rapporteurs de la thèse
BEN AYED LEILA Professeur Université de la Manouba Tunis - Tunisie
LORENZ PASCAL Professeur des universités Université de Haute-Alsace
Membres du jurys
ABOU EL HOUDA ZAKARIA, Chercheur, Université du Québec - INRS
BEN AYED LEILA, Professeur , Université de la Manouba Tunis - Tunisie
BERRI SARA, Maître de conférences, CY Cergy Paris Université
BOUASSIDA NADIA, Professeur , l'Université de Sfax
DESCAMPS Philippe, Professeur des universités, ENSICAEN
HADRICH BELGLITH LAMIA, Professeur , l'Université de Sfax
KHOUKHI LYES, Professeur des universités, ENSICAEN
LORENZ PASCAL, Professeur des universités, Université de Haute-Alsace
Résumé
Avec les progrès réalisés au cours de la dernière décennie dans les Systèmes de Transport Intelligents (STI), les progrès technologiques dans le domaine véhciculaire à connu une évolution qui a donné naissance au paradigme prometteur de l'Internet des véhicules (IoV), attirant l'attention de nombreux chercheurs et inudstriels. Il est à noter que l'Internet des véhicules (IoV) vise à améliorer l'efficacité des transports, la sécurité et le confort des passagers en échangeant des informations sur la circulation et l'infodivertissement avec des véhicules connectés. La multitude de technologies d'accès aux réseaux, la mobilité exceptionnellement élevée des véhicules connectés et leur forte densité en zone urbaine, ainsi que la prédominance des communications sans fil font de l'écosystème IoV un réseau complexe, vulnérable et hétérogène aux caractéristiques très dynamiques de l'environnement véhiculaire. De nombreuses entités composent son architecture (véhicules connectés, humains, unités routières. De plus, les réseaux véhiculaires présentent différents types de communication pour confirmer sa connectivité et sa continuité. En conséquence, de nombreux messages critiques pour la sécurité à faible latence sont générés et échangés au sein du réseau. Cependant, cette diversité conduit à de nouvelles exigences de sécurité qui semblent difficiles à prendre en compte et à élargir la surface d'attaque de tels réseaux. Par conséquent, la diffusion de messages/entités malveillants au sein de l'IoV réduit considérablement les performances du réseau et devient une menace pour les passagers et les piétons vulnérables. En conséquence, des mécanismes de sécurité devraient être envisagés pour sécuriser les communications dans l'IoV. Cette thèse vise à proposer de nouveaux modèles pour améliorer les aspects de sécurité de l'écosystème IoV face à diverses attaques, y compris les attaques DDoS, tout en préservant la confidentialité des utilisateurs.
Abstract
With the major progress in Intelligent Transportation Systems (ITS), there has been an exponential interest in technological advancements of Internet of Vehicles (IoV), attracting the attention of numerous researchers from academia and industry. IoV technology aims to enhance transport efficiency, passenger safety, and comfort by exchanging traffic and infotainment information to connected vehicles. The multitude of network access technologies, the exceptionally high mobility of connected vehicles and their high density in urban areas, and the predominance of wireless communications make the IoV ecosystem a complex, vulnerable and heterogeneous network with very dynamic characteristics, some of which are difficult to predict and subject to scalability and threats problems. Many entities compose its architecture (connected vehicles, humans, roadside units (RSUs), ITS). Moreover, it presents different communication types to confirm its connectivity and vulnerability. However, this diversity leads to new security requirements that seem challenging to consider and enlarge the attack surface of such networks. Therefore, disseminating malicious messages/entities within the network significantly reduces the network performance and becomes a threat to passengers and vulnerable pedestrians. Accordingly, security mechanisms should be considered to secure communications in vehicular networks. This thesis aims to develop novel models to enhance the security aspects of the IoV ecosystem dealing with diverse attacks, including DDoS attacks, while preserving users' privacy.

Modèle ontologique formel, un appui à la sélection des variables pour la construction des modèles multivariés.

Doctorant·e
PRESSAT-LAFFOUILHERE Thibaut
Direction de thèse
SOUALMIA LINA (Directeur·trice de thèse)
BENICHOU JACQUES (Co-directeur·trice de thèse)
Date de la soutenance
19/12/2023 à 14:00
Lieu de la soutenance
Université de Rouen Normandie
Rapporteurs de la thèse
LEFFONDRE KAREN Professeur des Universités UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
MOUGIN FLEUR Professeur des Universités UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
Membres du jurys
BENICHOU JACQUES, Professeur des Univ - Prat Hospitalier, Université de Rouen Normandie
CHARLET JEAN, Chargé de Recherche, Sorbonne Universite
DUCLOS CATHERINE, Professeur des Univ - Prat Hospitalier, UNIVERSITE PARIS 13 PARIS-NORD
GROSJEAN Julien, , Université de Rouen Normandie
LEFFONDRE KAREN, Professeur des Universités, UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
MOUGIN FLEUR, Professeur des Universités, UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
SOUALMIA LINA, Professeur des Universités, Université de Rouen Normandie
Résumé
Répondre à une question de recherche causale dans un contexte d’étude observationnelle nécessite de sélectionner des variables de confusion. Leur intégration dans un modèle multivarié en tant que co-variables permet de diminuer le biais dans l’estimation de l'effet causal de l'exposition sur le critère de jugement. Leur identification est réalisée grâce à des diagrammes causaux (DCs) ou des graphes orientés acycliques. Ces représentations, composées de noeuds et d'arcs orientés, permettent d’éviter la sélection de variables qui augmenteraient le biais, comme les variables de médiation et de collision. Les méthodes existantes de construction de DCs manquent cependant de systématisme et leur représentation de formalisme, d’expressivité et de complétude. Afin de proposer un cadre de construction formel et complet capable de représenter toutes les informations nécessaires à la sélection des variables sur un DC enrichi, d’analyser ce DC et surtout d’expliquer les résultats de cette analyse, nous avons proposé d'utiliser un modèle ontologique enrichi de règles d'inférences. Un modèle ontologique permet notamment de représenter les connaissances sous la forme de graphe expressif et formel composé de classes et de relations similaires aux noeuds et arcs des DCs. Nous avons développé l’ontologie OntoBioStat (OBS) à partir d’une liste de questions de compétence liée à la sélection des variables et de l'analyse de la littérature scientifique relative aux DCs et aux ontologies. Le cadre de construction d’OBS est plus riche que celui d’un DC, intégrant des éléments implicites tels que les causes nécessaires, contextuels d’une étude, sur l’incertitude de la connaissance et sur la qualité du jeu de données correspondant. Afin d’évaluer l’apport d’OBS, nous l’avons utilisée pour représenter les variables d’une étude observationnelle publiée et avons confronté ses conclusions à celle d’un DC. OBS a permis d'identifier de nouvelles variables de confusion grâce au cadre de construction différent des DCs et aux axiomes et règles d'inférence. OBS a également été utilisée pour représenter une étude rétrospective en cours d’analyse : le modèle a permis d’expliquer dans un premier temps les corrélations statistiques retrouvées entre les variables de l’étude puis de mettre en évidence les potentielles variables de confusion et leurs éventuels substituts ("proxys"). Les informations sur la qualité des données et l’incertitude des relations causales ont quant à elles facilité la proposition des analyses de sensibilité, augmentant la robustesse de la conclusion de l’étude. Enfin, les inférences ont été expliquées grâce aux capacités de raisonnement offertes par le formalisme de représentation d'OBS. À terme OBS sera intégrée dans des outils d’analyse statistique afin de bénéficier des bibliothèques existantes pour la sélection des variables et de permettre son utilisation par les épidémiologistes et les biostatisticiens.
Abstract
Responding to a causal research question in the context of observational studies requires the selection of confounding variables. Integrating them into a multivariate model as co-variables helps reduce bias in estimating the true causal effect of exposure on the outcome. Identification is achieved through causal diagrams (CDs) or directed acyclic graphs (DAGs). These representations, composed of nodes and directed arcs, prevent the selection of variables that would introduce bias, such as mediating and colliding variables. However, existing methods for constructing CDs lack systematic approaches and exhibit limitations in terms of formalism, expressiveness, and completeness. To offer a formal and comprehensive framework capable of representing all necessary information for variable selection on an enriched CD, analyzing this CD, and, most importantly, explaining the analysis results, we propose utilizing an ontological model enriched with inference rules. An ontological model allows for representing knowledge in the form of an expressive and formal graph consisting of classes and relations similar to the nodes and arcs of Cds. We developed the OntoBioStat (OBS) ontology based on a list of competency questions about variable selection and an analysis of scientific literature on CDs and ontologies. The construction framework of OBS is richer than that of a CD, incorporating implicit elements like necessary causes, study context, uncertainty in knowledge, and data quality. To evaluate the contribution of OBS, we used it to represent variables from a published observational study and compared its conclusions with those of a CD. OBS identified new confounding variables due to its different construction framework and the axioms and inference rules. OBS was also used to represent an ongoing retrospective study analysis. The model explained statistical correlations found between study variables and highlighted potential confounding variables and their possible substitutes (proxies). Information on data quality and causal relation uncertainty facilitated proposing sensitivity analyses, enhancing the study's conclusion robustness. Finally, inferences were explained through the reasoning capabilities provided by OBS's formal representation. Ultimately, OBS will be integrated into statistical analysis tools to leverage existing libraries for variable selection, making it accessible to epidemiologists and biostatisticians.

Aide à la décision pour le diagnostic des défauts pour une maintenance proactive dans un générateur photovoltaique

Doctorant·e
COMPAORE Wendpuire Ousmane
Direction de thèse
HOBLOS GHALEB (Directeur·trice de thèse)
KOALAGA ZACHARIE (Co-directeur·trice de thèse)
Date de la soutenance
19/12/2023 à 14:00
Lieu de la soutenance
Université de Ouaga
Burkina Faso
Rapporteurs de la thèse
BARREAU MIHAELA Maître de Conférences HDR Université d'Angers
DJEZIRI MOHAND Maître de Conférences HDR Aix-Marseille université
Membres du jurys
BARREAU MIHAELA, Maître de Conférences HDR, Université d'Angers
DJEZIRI MOHAND, Maître de Conférences HDR, Aix-Marseille université
EL BADAOUI EL NAJJAR MAAN, Professeur des Universités, UNIVERSITE LILLE 1 SCIENCES ET TECHNOLOGIE
HOBLOS GHALEB, Maître de Conférences HDR, ESIGELEC ROUEN
KOALAGA ZACHARIE, Professeur des Universités, Université Joseph Ki-Zerbo
ZOUGMORE FRANÇOIS, Professeur des Universités, Université Joseph Ki-Zerbo
Résumé
La perte de puissance d'un générateur photovoltaïque (GPV) est sans conteste due à l'apparition d'un certain nombre d'anomalies liées à la fabrication, à la production ou à l'environnement, engendrant des défaillances dans son bon fonctionnement. A partir d'un modèle réaliste, assez proche du fonctionnement réel et capable de prendre en compte l'effet d'avalanche d'une jonction PN transmise à l'ensemble du GPV, nous avons montré à suffisance, la perte de performances d'un générateur PV et la nécessité d'avoir une méthode de diagnostic pour l'aide à la maintenance afin de ne pas subir les effets des défauts. Deux méthodes de diagnostic ont été appliquées à ce GPV, l'une portant sur la détection et la localisation des défauts capteurs, et l'autre sur la détection et la localisation des défauts systèmes. Le choix particulier de ces deux techniques de diagnostic, qui ne ciblent pas les mêmes types de défauts, réside dans la nature complexe du modèle du processus industriel soumis à l'étude. Les performances obtenues avec la méthode des relations de redondance analytique (RRA) basée sur le principe de l'espace de parité appliqué au point de fonctionnement maximal, sont très pertinentes. Par la méthode de l'intelligence artificielle (IA) basée sur le principe des réseaux de neurones artificiels (RNA), nous avons expérimenté deux méthodes de classification pour la détection et le diagnostic des défauts systèmes. Si la détectabilité est prouvée avec nos différentes configurations sans possibilité de situer l'origine et la cause dans la première partie de la classification, nous arrivons grâce à un faisceau d'indices à situer l'origine ou la cause grâce à la classification pour le diagnostic. La réalisation de deux prototypes d'acquisition temps réel est faite sur le principe de l'Internet industriel des objets (IIoT). Le premier permet uniquement l'acquisition et la sauvegarde des données sur une carte SD. Le second prototype plus évolué, permet la transmission en temps réel par Wifi à un serveur web et vise la réalisation à long terme d'une plateforme de surveillance en temps réel. Les deux prototypes produisent des données qui sont utilisées pour alimenter les deux méthodes de diagnostic. Les résultats obtenus avec des données réelles sont compatibles avec ceux obtenus en phase de simulation. Les conclusions de ce diagnostic permettront une meilleure efficacité dans les opérations de maintenance proactive.
Abstract
The loss of power of a photovoltaic generator (PVG) is undoubtedly due to the appearance of a certain number of anomalies linked to manufacturing, production or the environment and causing failures in its proper functioning. From a realistic model, quite close to real operation and able to take into account the avalanche effect of a PN junction transmitted to the entire PVG, we have sufficiently shown the loss of performance of a PV generator and the need to have a diagnostic method for maintenance assistance in order not to suffer the effects of faults. Two diagnostic methods were applied to this PVG, one relating to the detection and localization of sensor faults, and the other to the detection and localization of system faults. The particular choice of these two diagnostic techniques, which do not target the same types of faults, lies in the complex nature of the model of the industrial process subjected to study. The performances obtained with the analytical redundancy relations (ARR), method based on the principle of parity space applied to the maximum operating point are very relevant. Using the artificial intelligence (AI), method based on the principle of artificial neural networks (ANN), we experimented with two classification methods for the detection and diagnosis of system faults. If detectability is proven with our different configurations without the possibility of locating the origin and the cause in the first part of the classification, we arrive thanks to a bundle of clues to locate the origin or the cause thanks to the classification for the diagnostic. The production of two real-time acquisition prototypes is based on the principle of the Industrial Internet of Things (IIoT). The first only allows the acquisition and saving of data on an SD card. The second, and more advanced prototype, allows real-time transmission via WiFi to a web server and aims to create a real-time monitoring platform in the long term. Both prototypes produce data that is used to power both diagnostic methods. The results obtained with real data are compatible with those obtained in the simulation phase. The conclusions of this diagnosis will enable greater efficiency in proactive maintenance operations.

Self-supervised representation learning and applications to image and video analysis

Doctorant·e
DENIZE JULIEN
Direction de thèse
HERAULT Romain (Directeur·trice de thèse)
RABARISOA JAONARY (Co-encadrant·e de thèse)
Date de la soutenance
18/12/2023 à 14:00
Lieu de la soutenance
Nano-Innov
2 Bd Thomas Gobert
91120 Palaiseau
Rapporteurs de la thèse
ACHARD CATHERINE PROFESSEUR DES UNIVERSITÉS Sorbonne Université
NAJMAN LAURENT PROFESSEUR DES UNIVERSITÉS ESIEE Paris
Membres du jurys
ACHARD CATHERINE, PROFESSEUR DES UNIVERSITÉS, Sorbonne Université
AMINI MASSIH-REZA, PROFESSEUR DES UNIVERSITÉS, Université Grenoble Alpes
CHAN HON TONG ADRIEN, DOCTEUR, ONERA
HERAULT Romain, PROFESSEUR DES UNIVERSITÉS, Université de Caen Normandie
NAJMAN LAURENT, PROFESSEUR DES UNIVERSITÉS, ESIEE Paris
RABARISOA JAONARY, INGENIEUR DE RECHERCHE, CEA LIST, Palaiseau
SABOURIN ASTRID, DOCTEUR, CEA LIST, Palaiseau
Résumé
Dans cette thèse, nous développons des approches d'apprentissage auto-supervisé pour l'analyse d'images et de vidéos. L'apprentissage de représentation auto-supervisé permet de pré-entraîner les réseaux neuronaux à apprendre des concepts généraux sans annotations avant de les spécialiser plus rapidement à effectuer des tâches, et avec peu d'annotations. Nous présentons trois contributions à l'apprentissage auto-supervisé de représentations d'images et de vidéos. Premièrement, nous introduisons le paradigme théorique de l'apprentissage contrastif doux et sa mise en œuvre pratique appelée Estimation Contrastive de Similarité (SCE) qui relie l'apprentissage contrastif et relationnel pour la représentation d'images. Ensuite, SCE est étendue à l'apprentissage de représentation vidéo temporelle globale. Enfin, nous proposons COMEDIAN, un pipeline pour l'apprentissage de représentation vidéo locale-temporelle pour l'architecture transformer. Ces contributions ont conduit à des résultats de pointe sur de nombreux benchmarks et ont donné lieu à de multiples contributions académiques et techniques publiées.
Abstract
In this thesis, we develop approaches to perform self-supervised learning for image and video analysis. Self-supervised representation learning allows to pretrain neural networks to learn general concepts without labels before specializing in downstream tasks faster and with few annotations. We present three contributions to self-supervised image and video representation learning. First, we introduce the theoretical paradigm of soft contrastive learning and its practical implementation called Similarity Contrastive Estimation (SCE) connecting contrastive and relational learning for image representation. Second, SCE is extended to global temporal video representation learning. Lastly, we propose COMEDIAN a pipeline for local-temporal video representation learning for transformers. These contributions achieved state-of-the-art results on multiple benchmarks and led to several academic and technical published contributions.

Améliorations des outils de détection de malwares par analyse statique grâce à des mécanismes d'intelligence artificielle

Doctorant·e
MARAIS Benjamin
Direction de thèse
CHESNEAU Christophe (Directeur·trice de thèse)
Date de la soutenance
18/12/2023 à 14:00
Lieu de la soutenance
UCN - Campus 2 - UFR des Sciences 3 - Salle S3-247
Rapporteurs de la thèse
BADONNEL REMI Professeur des universités Université de Lorraine
MATEI BASARAB Maître de conférences HDR Sorbonne Université
Membres du jurys
BADONNEL REMI, Professeur des universités, Université de Lorraine
CHESNEAU Christophe, Maître de conférences, Université de Caen Normandie
DIDI BIHA Mohamed, Professeur des universités, Université de Caen Normandie
FROMONT ELISA, Professeur des universités, IRISA/INRIA Rennes
LEVRARD CLEMENT, Professeur des universités, Université de Rennes
MATEI BASARAB, Maître de conférences HDR, Sorbonne Université
QUERTIER Tony, ASSISTANT INGENIEUR DE RECH.ET FORMATION, ORANGE INNOVATION
Résumé
Cette thèse porte sur l'analyse de fichiers malveillants. Nous nous intéressons particulièrement à l'utilisation de l'intelligence artificielle pour développer et améliorer des outils d'analyse de malware. Dans un premier temps, nous abordons le problème d'un point de vue défensif en proposant des outils d'analyse, et en élaborant de nouveaux modèles de détection de logiciels malveillants basés sur l'apprentissage supervisé et l'apprentissage profond. Nous proposons aussi une approche offensive, basée sur des méthodes d'apprentissage par renforcement, dans le but de contourner différentes solutions de détection. Cette méthode permet d'étudier leurs failles et leurs faiblesses afin d'évaluer leur efficacité.
Abstract
This thesis focuses on the analysis of malicious files. We are particularly interested in using artificial intelligence to develop and improve malware analysis tools. Firstly, we propose a defensive approach, by providing analysis tools and by developing new malware detection models based on supervised and deep learning. We also propose an offensive approach, based in reinforcement learning methods, with the purpose of bypassing various detection solutions. This method allows us to examine their vulnerabilities and weaknesses in order to assess their effectiveness.

"Link-homotopie" en topologie de base dimension

Doctorant·e
GRAFF Emmanuel
Direction de thèse
BELLINGERI Paolo (Directeur·trice de thèse)
MEILHAN JEAN-BAPTISTE (Co-directeur·trice de thèse)
Date de la soutenance
18/12/2023 à 17:00
Lieu de la soutenance
UCN - Campus 2 - Sciences 3 - Salle des Thèses (S3 102)
Rapporteurs de la thèse
MASSUYEAU GWENAEL Professeur des universités Universite de Bourgogne
ROWELL ERIC Professeur UNIVERSITE TEXAS A&M ETATS-UNIS
Membres du jurys
AUDOUX BENJAMIN, Maître de conférences HDR, Aix-Marseille université
BELLINGERI Paolo, Maître de conférences, Université de Caen Normandie
LEBED Victoria, Maître de conférences, Université de Caen Normandie
MASSUYEAU GWENAEL, Professeur des universités, Universite de Bourgogne
MEILHAN JEAN-BAPTISTE, Maître de conférences HDR, Université Grenoble Alpes
PARIS LUIS, Professeur des universités, Universite de Bourgogne
ROWELL ERIC, Professeur , UNIVERSITE TEXAS A&M ETATS-UNIS
WAGNER EMMANUEL, Professeur des universités, IMJ-PRG
Résumé
Ce mémoire explore la topologie de basse dimension, en mettant l'accent sur la théorie des nœuds. Une théorie consacrée à l'étude des nœuds tels qu'ils sont communément compris : des morceaux de ficelle enroulés dans l'espace ou, de manière plus générale, des entrelacs formés en prenant plusieurs bouts de ficelle. Les nœuds et les entrelacs sont étudiés à déformation près, par exemple, à isotopie près, ce qui implique des manipulations sans couper ni faire passer la ficelle à travers elle-même. Cette thèse explore la link-homotopie, une relation d'équivalence plus souple où des composantes distinctes demeurent séparées, mais où une composante donnée peut s'auto-intersecter. La théorie des claspers, des puissants outils de chirurgie, est développée à link-homotopie près. Leur utilisation permet une démonstration géométrique de la classification des entrelacs avec 4 composantes ou moins à link-homotopie près. Une attention particulière est ensuite accordée aux tresses, des objets mathématiques apparentés aux nœuds et aux entrelacs. Il est montré que le groupe de tresses homotopiques est linéaire, c'est-à-dire isomorphe à un sous-groupe de matrices. De nouvelles présentations de ce groupe sont également proposées. Enfin, il est établi que le groupe de tresse homotopique est sans torsion, quel que soit le nombre de composantes. Ce dernier résultat s'appuie sur le contexte plus large de la théorie des nœuds soudés.
Abstract
This thesis explores low-dimensional topology, with a focus on knot theory. Knot theory is dedicated to the study of knots as commonly understood: a piece of string tied in space or, more generally, links formed by taking several pieces of string. Knots and links are studied up to deformation, for example, up to isotopy, which involves manipulations that do not require cutting or passing the string through itself. This thesis explores link-homotopy, a more flexible equivalence relation where distinct components remain disjoint, but a single component can self-intersect. The theory of claspers, powerful tools of surgery, is developed up to link-homotopy. Their use allows for a geometric proof of the classification of links with 4 components or less up to link-homotopy. Special attention is then given to braids, mathematical objects related to knots and links. It is shown that the homotopy braid group is linear, meaning it is faithfully represented by a subgroup of matrices. New group presentations are also proposed. Finally, it is established that the homotopy braid group is torsion-free for any number of components. This last result draws upon the broader context of welded knot theory.

Caractérisations physique et thermique de transistors HEMTs de la filière GaN polarisés en régimes continu et pulsé.

Doctorant·e
STRENAER Raphael
Direction de thèse
GUHEL Yannick (Directeur·trice de thèse)
BOUDART Bertrand (Co-directeur·trice de thèse)
Date de la soutenance
14/12/2023 à 10:00
Lieu de la soutenance
Amphi ESIX - ESIX Normandie - Cherbourg-en-Cotentin
Rapporteurs de la thèse
MAHER HASSAN Professeur SHERBROOKE - UNIVERSITE DE SHERBROOKE
MALBERT NATHALIE Professeur des universités Universite de Bordeaux
Membres du jurys
BOUDART Bertrand, Professeur des universités, Université de Caen Normandie
BOUEXIERE CHLOÉ, Ingénieur de recherche, Direction Générale de l'Armement
GAQUIERE CHRISTOPHE, Professeur des universités, UNIVERSITE LILLE 1 SCIENCES ET TECHNOLOGIE
GUHEL Yannick, Professeur des universités, Université de Caen Normandie
MAHER HASSAN, Professeur , SHERBROOKE - UNIVERSITE DE SHERBROOKE
MALBERT NATHALIE, Professeur des universités, Universite de Bordeaux
Résumé
Les transistors de type HEMT (High Electron Mobility Transistors) à base de GaN sont des composants prometteurs pour des applications de puissance et des applications hyperfréquences. Cependant, ils sont aujourd’hui encore sujet à des effets limitatifs tels que des effets de pièges électriques et/ou d’auto-échauffement induits par la polarisation électrique. Dans ce manuscrit de thèse, nous avons donc développé des méthodes afin de caractériser physiquement et thermiquement des composants. Dans la première partie, nous avons mis au point une technique de caractérisation combinant les mesures électriques I-V en régime impulsionnel avec les techniques de photoionisation. L’objectif est de déterminer la position, l’énergie d’activation et les constantes de temps des pièges présents dans les composants sans utiliser des lois d’Arrhenius. Dans la deuxième partie, la caractérisation thermique de ces composants en mode de fonctionnement a été faite grâce à la spectroscopie Raman. Ainsi, nous avons estimé des températures d’auto-échauffement moyennées sur le volume sondé en utilisant la spectroscopie Raman classique et celles des surfaces du semiconducteur et des contacts métalliques en utilisant deux types de microthermomètres Raman à base de TiO2 et de CeO2. Cette technique de caractérisation a également fait ses preuves pour caractériser thermiquement des composants polarisés en régime impulsionnel.
Abstract
GaN-based High-Electron Mobility Transistors (HEMTs) are promising for power and microwave applications. However, they remain subject to limiting effects such as electrical traps and/or self-heating, both induced by electrical polarization. In this dissertation, we therefore sought methods to physically and thermally characterize components. Firstly, we developed a characterization technique combining pulsed I-V electrical measurements with photoionization techniques. The aim is to determine the position, activation energy and time constants of traps in the components without using Arrhenius laws. Secondly, thermal characterization of biased components was carried out using Raman spectroscopy. Thus, we estimated the averaged self-heating temperature on the probed volume using conventional Raman spectroscopy and those of the surface of the semiconductor layer or metal contacts using Raman microthermometers based on CeO2 and TiO2. This technique was also made it possible to thermally characterize components biased in pulsed regime.

Conception, développement et évaluation d'un dispositif de réalité virtuelle pour la rééducation d’enfants et d’adolescents atteints de paralysie cérébrale : le projet RV-REEDUC

Doctorant·e
BURIN CHU Simone
Direction de thèse
BENGUIGUI Nicolas (Directeur·trice de thèse)
Date de la soutenance
12/12/2023 à 14:00
Lieu de la soutenance
UCN - Campus 2 - Sciences 3 - Salle des Thèses (S3 102)
Rapporteurs de la thèse
MONTAGNE GILLES Professeur des universités Aix-Marseille université
PERROT ALEXANDRA Maître de conférences HDR Université Paris Saclay
Membres du jurys
BENGUIGUI Nicolas, Professeur des universités, Université de Caen Normandie
BIDEAU BENOIT, Professeur des universités, Universite de Haute Bretagne Rennes 2
LECONTE Pascale, Maître de conférences, Université de Caen Normandie
MONTAGNE GILLES, Professeur des universités, Aix-Marseille université
OLIVIER ISABELLE, Professeur des universités, Universite Grenoble Alpes
PERROT ALEXANDRA, Maître de conférences HDR, Université Paris Saclay
Résumé
L'objectif de ce travail de thèse était de concevoir, de développer et d'évaluer l'efficacité d'un dispositif de réalité virtuelle immersive basé sur des tâches visuo-manuelles, telles que la poursuite et le pointage d’objets, pour la rééducation du membre supérieur d'enfants et d'adolescents atteints de paralysie cérébrale. La première étude de cette thèse consistait en une revue systématique avec méta-analyse afin de faire un état des lieux des caractéristiques et des effets des dispositifs de réalité virtuelle utilisés dans la rééducation des enfants et des jeunes adultes atteints de paralysie cérébrale. La synthèse des 22 études incluses dans cette revue nous a permis de déterminer les avantages et les limites des dispositifs à considérer dans le développement de ce nouvel outil de rééducation virtuelle. La deuxième étude de cette thèse était basée sur une expérimentation et avait pour but d'évaluer l'impact de différentes contraintes dans une tâche visuo-manuelle de poursuite sur la performance de 23 participants adultes. Les résultats ont montré une dégradation des performances lorsque les contraintes de la tâche étaient plus élevées. Ces résultats nous ont permis de définir les niveaux de difficulté du dispositif de réalité virtuelle pour la rééducation. La troisième étude consistait en un essai clinique randomisé visant à évaluer les effets du dispositif de réalité virtuelle sur des paramètres moteurs, fonctionnels, cinématiques et motivationnels chez 20 enfants et adolescents atteints de paralysie cérébrale. Les résultats montrent que ce dispositif de réalité virtuelle immersive est un outil efficace, intéressant, sécurisé et attractif pour la rééducation du membre supérieur chez des enfants et des adolescents atteints de paralysie cérébrale.
Abstract
The aim of this thesis was to conceive, develop and evaluate the effectiveness of an immersive virtual reality device based on visuo-manual tasks, such as tracking and pointing, for the rehabilitation of the upper limb of children and adolescents with cerebral palsy. The first study of this thesis consisted of a systematic review with meta-analysis to assess the characteristics and effects of virtual reality devices used in the rehabilitation of children and young adults with cerebral palsy. The synthesis of the 22 studies included in this review allowed us to determine the advantages and limitations of the devices to be considered in the development of a new virtual rehabilitation tool. The second study in this thesis was based on an experiment and aimed to assess the impact of different constraints in the pursuit task (i.e., target speed, virtual cube size and transformation gain) on the performance of 22 adult participants. The results showed a decrease in performance when the task constraints were higher. These results enabled us to define the difficulty levels of the virtual reality device for rehabilitation. The third study was a randomized clinical trial to assess the effectiveness of the virtual reality device on motor, functional, kinematic, and motivational parameters in 20 children and adolescents with cerebral palsy. The results suggest that the immersive virtual reality device developed in this thesis is an effective, interesting, safe, and attractive tool for upper limb rehabilitation in children and adolescents with cerebral palsy.

Approches symboliques pour une intelligence artificielle explicable

Doctorant·e
BELLUCCI MATTHIEU
Direction de thèse
ZANNI-MERK CECILIA (Directeur·trice de thèse)
DELESTRE Nicolas (Co-encadrant·e de thèse)
MALANDAIN Nicolas (Co-encadrant·e de thèse)
Date de la soutenance
01/12/2023 à 14:30
Lieu de la soutenance
INSA Rouen Normandie
Amphi Curie DU-B-RJ-02, rez-de-jardin Bâtiment Dumont d'Urville
685 avenue de l'université
76801 Saint Etienne du Rouvray
Rapporteurs de la thèse
CRUZ CHRISTOPHE PROFESSEUR DES UNIVERSITÉS Université de Bourgogne, Dijon
MARQUIS PIERRE PROFESSEUR DES UNIVERSITÉS Université d'Artois, Lens
Membres du jurys
ABEL MARIE-HELENE, PROFESSEUR DES UNIVERSITÉS, Université de Technologie de Compiègne
CRUZ CHRISTOPHE, PROFESSEUR DES UNIVERSITÉS, Université de Bourgogne, Dijon
DELESTRE Nicolas, MAÎTRE DE CONFÉRENCES, INSA de Rouen Normandie
FRYDMAN CLAUDIA, PROFESSEUR DES UNIVERSITÉS, Université d'Aix-Marseille
MALANDAIN Nicolas, MAÎTRE DE CONFÉRENCES, INSA de Rouen Normandie
MARQUIS PIERRE, PROFESSEUR DES UNIVERSITÉS, Université d'Artois, Lens
ZANNI-MERK CECILIA, PROFESSEUR DES UNIVERSITÉS, INSA de Rouen Normandie
Résumé
L'adoption généralisée de l'IA est due aux progrès considérables réalisés par les modèles d’apprentissage automatique en termes de performances. Ces algorithmes sont appliqués pour aider les décideurs dans des domaines sensibles tels que la santé ou la justice. Ces modèles sont communément appelés boîtes noires car il est impossible de comprendre leur processus de décision et l’influence de chaque caractéristique sur le résultat. Cette opacité peut cacher des décisions discriminatoires qui peuvent avoir un impact sur la vie d’une personne. C’est pourquoi la communauté scientifique a commencé à étudier la conception d’une IA explicable (XAI). Une direction prometteuse pour le développement d’une IA puissante et explicable est la combinaison d’approches symboliques de l’IA avec des modèles d’apprentissage automatique, résultant en des méthodes neurosymboliques. Alors que les modèles d’apprentissage automatique sont préférés pour leurs performances, les méthodes d’IA symbolique sont connues pour être explicables car elles exploitent les connaissances et la logique humaines pour prendre une décision. En outre, les ontologies ont été identifiées comme des candidates idéales pour la conception d’algorithmes d’IA explicables. Pourtant, les travaux actuels sur les techniques neurosymboliques se concentrent sur l’amélioration des performances plutôt que sur la conception de systèmes d’IA explicables, malgré leur potentiel à fournir des explications. Par conséquent, cette thèse est consacrée à l’exploration des applications des méthodes symboliques d’IA pour créer un système d’IA explicable. Au préalable, une étude de la terminologie de la XAI est menée, car des notions importantes ne sont pas clairement définies dans la littérature. Une terminologie est introduite qui identifie et définit les termes récurrents de la XAI qui sont ambiguës dans la littérature. La principale conclusion est qu’une explication est un processus interactif qui détermine un ensemble de causes ayant conduit au résultat d’un système d’IA. Ensuite, nous présentons un classificateur d’images basé sur une ontologie (OBIC) capable de détecter les erreurs dans ses prédictions. Ce système exploite une ontologie qui décrit le domaine d’application pour former des modèles d’apprentissage automatique capables de détecter la classe de l’image et un ensemble de propriétés définies dans l’ontologie, comme la texture ou la couleur d’un objet. Une incohérence dans les prédictions est détectée par l’ontologie et signifie qu’il y a eu une erreur dans la classification, ce qui aide l’utilisateur à décider s’il doit faire confiance à la prédiction finale. En outre, les prédictions des modèles d’apprentissage automatique sont fondées sur la connaissance du domaine, ce qui facilite la compréhension et l’explication de la prédiction. Nous avons construit une interface d’explication qui extrait des informations utiles de ce système et formule des explications adéquates. Afin d’expliquer l’étape de détection des erreurs du système intelligent explicable, nous devons concevoir une méthode d’explication pour les ontologies adaptée à la plupart des utilisateurs. Parmi les techniques d’explication les plus populaires, les explications contrefactuelles semblent présenter de nombreux avantages et font l’objet d’études approfondies pour expliquer les modèles d’apprentissage automatique. Nous proposons une méthode de génération d’explications contrefactuelles pour les ontologies. Elle est adaptée pour expliquer le fonctionnement de l’ontologie aux non-initiés, ce qui rend cette solution idéale pour expliquer l’étape de détection des erreurs. Enfin, nous évaluons nos contributions sur une tâche de classification d'images. La qualité et la validité de la phase de détection des erreurs sont testées et analysées. Une étude utilisateur à petite échelle est menée avec des experts du domaine pour évaluer la pertinence et la qualité des explications contrefactuelles générées.
Abstract
The widespread adoption of AI is due to the significant progress in performance achieved by machine learning models. These algorithms are being applied to assist decision-makers in sensitive domains such as healthcare, justice or banking. These models are commonly called black-boxes as it is impossible to comprehend their decision process. This opacity can hide discriminatory decisions that have the potential to impact someone's life. As a result, scientific communities have started investigating the design of an explainable AI (XAI). A promising direction for the development of a powerful and explainable AI is the combination of symbolic AI approaches with machine learning models, resulting in neurosymbolic methods. While machine learning models are preferred for their performance, symbolic AI methods are known to be explainable as they exploit human knowledge and logic to make a decision. Furthermore, ontologies have been identified as ideal candidates for the design of explainable AI algorithms. Yet, the current work on neurosymbolic techniques is focused on improving the performance rather than designing explainable AI systems. Consequently, this thesis is dedicated to exploring applications of symbolic AI methods to create an explainable AI system. Beforehand, a study of the terminology of XAI is conducted, as important notions are not clearly defined. A terminology is introduced that identifies and defines recurring terms of XAI that are ambiguous in the literature. The main finding is that an explanation is the result an interactive process that determines a set of causes that led to the outcome of an AI system. Then, we introduce an ontology-based image classifier (OBIC) capable of detecting errors in its predictions. This system exploits an ontology that describes the domain of application. This ontology is used to train machine learning classifiers that identify the class and a set of properties visible in an image e.g. the texture or color of an object. An inconsistency in the predictions is detected by the ontology and signifies that there was an error in the classification, thus helping a user to decide whether to trust the final prediction. Moreover, the predictions from the machine learning models are grounded in domain knowledge to facilitate the comprehension and explanation of the prediction. Explanations are the result of an interactive process, hence we built an explanation interface that extracts useful information from this system and formulates adequate explanations. In order to explain the error detection step from OBIC, we need to design an explanation method for ontologies. Among the most popular explanation techniques, counterfactual explanations seem to present many advantages and are being heavily studied to explain machine learning models. We propose the CEO method (Counterfactual Explanations for Ontologies) to generate such explanations for ontologies. It is adapted to explain the functioning of the ontology to laypersons making this solution ideal to explain the error detection step. It is also suited to assist the ontology designer in the debugging phase by highlighting unexpected inferences caused by design issues. Finally, we evaluate our contributions on an image classification task. The quality and validity of the error detection phase are tested and analyzed. Similarly, a small scale user study is conducted with domain experts to evaluate the relevance and quality of the generated counterfactual explanations.

Contribution to the certification of fingerprint systems: towards the reproducibility of the evaluation

Doctorant·e
WONE Abdarahmane
Direction de thèse
ROSENBERGER Christophe (Directeur·trice de thèse)
CHARRIER Christophe (Co-directeur·trice de thèse)
Date de la soutenance
29/11/2023 à 10:00
Lieu de la soutenance
Salle F 200 - Bâtiment F - Campus 2 - ENSICAEN
Rapporteurs de la thèse
KPALMA KIDIYO Professeur des universités INSA de Rennes
MORAIN-NICOLIER FREDERIC Professeur des universités UNIVERSITE REIMS CHAMPAGNE ARDENNE
Membres du jurys
CHARRIER Christophe, Maître de conférences, Université de Caen Normandie
DI MANNO Joel, Ingénieur de recherche, FIME EMEA
KPALMA KIDIYO, Professeur des universités, INSA de Rennes
LARABI CHAKER, Professeur des universités, Université Poitiers
MORAIN-NICOLIER FREDERIC, Professeur des universités, UNIVERSITE REIMS CHAMPAGNE ARDENNE
ROSENBERGER Christophe, Professeur des universités, ENSICAEN
SCHUCKERS STÉPHANIE, Professeur , Clarkson University
Résumé
Les systèmes informatiques sont de plus en plus utilisés au quotidien pour diverses tâches. Au regard des services et des applications concernés, leur sécurité est une garantie essentielle pour leur fonctionnement, ainsi qu'un gage de confiance pour l'utilisateur final. La biométrie est une solution pour cela. La biométrie regroupe l'ensemble des techniques informatiques permettant de reconnaître automatiquement un individu à partir de ses caractéristiques physiques, biologiques, voire comportementales. Elle permet, dans le cadre de l'authentification de s'assurer que seules des personnes légitimes puissent accéder à certaines données, certains endroits ou encore certaines applications. Que ce soient des tâches répétitives et quotidiennes comme déverrouiller son téléphone ou des tâches plus délicates comme valider une transaction bancaire, la biométrie est de plus en plus utilisée non seulement pour sécuriser les systèmes informatiques, mais aussi pour simplifier notre quotidien. Cependant, la sécurité des systèmes biométriques doit être assurée. Un système biométrique doit à la fois pouvoir reconnaître la bonne personne et résister aux attaques. Cela signifie pouvoir donner l'accès à une personne légitime, rejeter une personne illégitime et détecter les fraudes. Cette thèse s'inscrit dans le cadre de la certification des systèmes biométriques qui est une étape qui qualifie la conformité d'un système biométrique donné à un plan de test proposé par une autorité. C'est une étape cruciale avant le déploiement ou l'industrialisation d'une solution biométrique. Nous nous proposons d'explorer le problème de la répétabilité de ces tests. En effet, nous souhaitons qu'une évaluation ou une certification biométrique puisse être indépendante des conditions dans lesquelles elle a été réalisée. Pour cela, nous explorons les impacts qu'ont les conditions environnementales d'acquisition tout comme la technologie d'acquisition pour les systèmes basés sur les empreintes digitales. D'un autre côté, les tests d'attaques sont faits en fabriquant physiquement des instruments d'attaque, ce qui a un coup et s'accompagne de contraintes légales et opérationnelles. Nous explorons la création, basée sur les réseaux de neurones profonds, de ce type d'instruments utilisables dans le cadre de l'évaluation de produits biométriques à empreintes digitales. Nous validons ces études par une méthodologie objective qui a un sens physique que nous proposons et appliquons tout au long de cette thèse.
Abstract
Computer science is more and more present in our daily lives for multiple tasks. Considering its multiple services and applications, its security is an essential guarantee of the trust that a final user can have. Biometrics is a solution for that. Biometrics gathers all the methods and techniques to automatically recognize individuals thanks to their physical, biological, or behavioral traits. In authentication or identification tasks, it allows to be sure that only legitimate people have access to some data, places, or applications, etc. Whether it is for daily tasks such as unlocking our phones or some specific task as validating a banking operation, biometrics is more and more used not only to secure some solutions but also to simplify our lives. However, we must be sure about the security of biometric systems. A biometric system should be able to recognize a genuine user, reject an illegitimate and resist attacks. This PhD thesis deals with the certification of biometric fingerprint systems which is an important step prior to the production and deployment of a biometric solution. We explore the factors impacting the behavior of a fingerprint system in its recognition capacities. Indeed, a test of a biometric system should not be dependent on the conditions it was realized. We want biometric testing to be repeatable and biometric solutions to be interoperable. We analyze how environmental conditions as well as the acquisition technology can impact the recognition of a biometric fingerprint system. Moreover, the testing of resistance to attack has legal and operational constraints that make the testing difficult. We propose to explore the generation of synthetic attack instruments using a deep-leaning solution for the evaluation of biometric fingerprint solutions. We validate our studies with an objective method that we propose in this dissertation.

Procédure unifiée d'identification par méthode inverse de coefficients aérodynamiques d'un projectile

Doctorant·e
TALLEC Thomas
Direction de thèse
DELVARE Franck (Directeur·trice de thèse)
Date de la soutenance
29/11/2023 à 14:30
Lieu de la soutenance
UCN - Campus 2 - Sciences 3 - Salle des Thèses (S3 102)
Rapporteurs de la thèse
AUCEJO MATHIEU Maître de conférences HDR Conservatoire Nal des Arts et Métiers
MERCIER SÉBASTIEN Professeur des universités Université de Lorraine
Membres du jurys
ALLERY CYRILLE, Professeur des universités, UNIVERSITE LA ROCHELLE
AUCEJO MATHIEU, Maître de conférences HDR, Conservatoire Nal des Arts et Métiers
BENNIS Anne-Claire, Professeur des universités, Université de Caen Normandie
DELVARE Franck, Professeur des universités, Université de Caen Normandie
GRANGE NATHAN, Docteur, KNDS France
GRIGNON CHRISTOPHE, Docteur, Direction Générale de l'Armement
HEDDADJ SETTIE, Docteur, KNDS France
MERCIER SÉBASTIEN, Professeur des universités, Université de Lorraine
Résumé
Dans le domaine de la balistique extérieure, l'identification des coefficients aérodynamiques d'un projectile est cruciale pour la prédiction de sa trajectoire et de son point d'impact. Parmi les nombreuses méthodes d'identification existantes, l'approche proposée à partir de données issues de vol instrumentés se distingue par deux aspects majeurs : premièrement, elle repose exclusivement sur des mesures radar, éliminant ainsi tout équipement embarqué, et deuxièmement, elle permet d'identifier les coefficients aérodynamiques de manière séquentielle. L'introduction d'un petit paramètre adimensionnel et le développement asymptotique du modèle balistique du Point Matériel Modifié permettent d'une part de mettre en évidence les différents niveaux d'influence des forces aérodynamiques dans les différentes directions et d'autre part, d'obtenir des modèles intermédiaires ou des expressions analytiques pour l'identification des coefficients aux différents ordres. Notre technique d'optimisation recherche, à chaque étape, le couple vitesses/coefficients aérodynamiques qui satisfait les modèles balistiques intermédiaires tout en se rapprochant au mieux de la trajectoire mesurée. La validation de la procédure d'identification séquentielle est effectuée en plusieurs étapes, dans un premier temps à partir de données synthétiques puis dans un second temps en utilisant des données expérimentales obtenues à l'aide d'un radar de trajectographie. Dans le cadre, de la qualification de la méthode, différentes configurations de tirs pour différents projectiles sont analysées avec l'obtention de résultats aussi précis, pour le coefficient de traînée, que ceux obtenues par les outils existants.
Abstract
In the field of external ballistics, identifying the aerodynamic coefficients of a projectile is crucial to predict its trajectory and point of impact. Among the various existing identification methods, the proposed approach, which utilizes data from instrumented flights, stands out for two major aspects : first, it relies exclusively on radar measurements, eliminating the need for onboard equipment, and second, it allows for sequential identification of the aerodynamic coefficients. The introduction of a dimensionless small parameter and the subsequent asymptotic development of the Modified Point-Mass ballistic model serve a dual purpose. On the one hand, they reveal the varying levels of influence exerted by aerodynamic forces in different directions, and on the other hand, furnish intermediate models or analytical expressions for coefficient identification across various orders. Our optimization technique searches, at each step, for the velocity/aerodynamic coefficient pair that satisfies the intermediate ballistic models while closely matching the measured trajectory. The validation of the sequential identification procedure is carried out in several steps, initially using synthetic data and then using experimental data obtained with a trajectory radar. In the context of method validation, diverse firing configurations for a range of projectiles undergo rigorous analysis, resulting in drag coefficient results as precise as those attained by established tools.

Performance and Security Evaluation of Behavioral Biometric Systems

Doctorant·e
WANDJI PIUGIE Yris Brice
Direction de thèse
ROSENBERGER Christophe (Directeur·trice de thèse)
CHARRIER Christophe (Co-directeur·trice de thèse)
Date de la soutenance
28/11/2023 à 10:00
Lieu de la soutenance
S3 102 - UFR des Sciences - Campus 2 - Université de Caen Normandie
Rapporteurs de la thèse
LAURENT HÉLÈNE Professeur des universités INSA Centre Val de loire
PUECH WILLIAM Professeur des universités Université de Montpellier
Membres du jurys
BOURS PATRICK, Professeur des universités, Norwegian University of Science and Tech
CHARRIER Christophe, Maître de conférences, Université de Caen Normandie
DI MANNO Joel, Ingénieur de recherche, FIME EMEA
LAURENT HÉLÈNE, Professeur des universités, INSA Centre Val de loire
PUECH WILLIAM, Professeur des universités, UNIVERSITE MONTPELLIER 2 SCIENCES ET TECH DU LANGUEDOC
ROSENBERGER Christophe, Professeur des universités, ENSICAEN
SCHUCKERS STÉPHANIE, Professeur , Clarkson University
Résumé
La biométrie comportementale est une approche prometteuse pour renforcer la sécurité des systèmes informatiques tout en améliorant l'expérience utilisateur grâce à l'analyse des interactions des utilisateurs. Cette thèse de doctorat propose une méthode générique basée sur l'analyse de séries temporelles comportementales. Elle explore l'utilisation de techniques d'apprentissage machine traditionnelles et d'apprentissage profond pour l'authentification des utilisateurs basée sur ces comportements. En outre, nous examinons la vulnérabilité des systèmes biométriques comportementales aux attaques par présentation. Nous utilisons le TimeGAN pour générer des données biométriques synthétiques préservant les caractéristiques temporelles, rendant difficile leur distinction des données authentiques. Les résultats obtenus soulignent la capacité du TimeGAN à générer des modèles comportementaux pour tester les systèmes d'authentification, remettant en question la robustesse de ces systèmes face aux attaques malveillantes.
Abstract
Behavioral biometrics enhances IT security and improves user experience by analyzing interactions. This Ph.D. thesis proposes a generic method based on the analysis of behavioral time series. It explores the use of traditional machine learning and deep learning techniques for user identification and authentication based on these behaviors. In addition, the research carried out examines the vulnerability of behavioral biometric systems to presentation attacks. To this end, we use TimeGAN to generate synthetic behavioral biometric data capable of fooling authentication systems. These synthetic data preserve temporal characteristics, making it difficult to distinguish them from authentic data. The results highlight TimeGAN's ability to generate behavioral patterns that could be used to test authentication systems, raising questions about the robustness of such systems against malicious attacks.

Inférence statistique pour des processus markoviens et semi-markoviens basée sur des mesures de divergence.

Doctorant·e
GKELSINIS Thomas
Direction de thèse
BARBU VLAD STEFAN (Directeur·trice de thèse)
Date de la soutenance
28/11/2023 à 10:00
Lieu de la soutenance
Salle de séminaire M.0.1
Laboratoire LMRS
76801 St Etienne Du Rouvray
Rapporteurs de la thèse
BOUZEBDA SALIM Professeur des Universités UNIV TECHNOLOGIE COMPIEGNE UTC COMPIEGNE
BRONIATOWSKI MICHEL Professeur des Universités Sorbonne Universite
Membres du jurys
BARBU VLAD STEFAN, Maître de Conférences HDR, Université de Rouen Normandie
BOUZEBDA SALIM, Professeur des Universités, UNIV TECHNOLOGIE COMPIEGNE UTC COMPIEGNE
BRONIATOWSKI MICHEL, Professeur des Universités, Sorbonne Universite
FOULADIRAD MITRA, Professeur des Universités, Ecole Centrale de Marseille
KEZIOU AMOR, Maître de Conférences HDR, UNIVERSITE REIMS CHAMPAGNE ARDENNE
MILOSEVIC BOJANA, Professeur Associé, Université de Belgrade
PERGAMENCHTCHIKOV SERGUEI, Professeur des Universités, Université de Rouen Normandie
PEYRARD NATHALIE, Directeur de Recherche, Inra de Toulouse
Résumé
Cette thèse est dédiée aux techniques de statistique inférentielle pour des processus markoviens et semi-markoviens, techniques basées sur des mesures de divergence; une partie de la thèse est aussi dédiée à la modélisation de la fiabilité pour ce type de processus. Plus précisément, on propose une méthodologie statistique basée sur des types particuliers de mesures de divergence, afin de construire des tests d'hypothèses pour des processus markoviens et semi-markoviens. Un des problèmes statistiques les plus courants est l'identification du comportement stochastique qui gouverne l'évolution d'un système aléatoire pour lequel on connaît seulement un échantillon fini; ce problème est souvent connu sous le nom de test d'adéquation. Un cadre particulier de cette situation est lorsqu'on souhaite comparer le comportement stochastique de deux systèmes aléatoires, en observant seulement une partie finie de leurs trajectoires passées. Dans un premier temps, nous étudions l'application de la mesure de divergence de Kullback-Leibler pondérée et corrigée pour construire des tests à un échantillon et à deux échantillons pour des variables aléatoires indépendantes identiquement distribuées (i.i.d.), comme proposé dans. Deux tests statistiques sont proposés, le test d'adéquation pondéré (WGoF) et le test d'homogénéité pondéré (WHom). L'utilisation de cette méthodologie permet aux chercheurs de se concentrer sur des régions particulières du support, tout en retenant une partie de l'information relative aux autres parties. Nous déduisons les lois asymptotiques des statistiques des tests sous l'hypothèse nulle. Des simulations Monte Carlo intensives sont présentées afin d'évaluer les performances des tests, en termes des erreurs de première et seconde espèce. Dans un second temps, nous étendons ces résultats de tests d'hypothèses simples au cadre des chaînes de Markov d'ordre général, en prenant en compte l'information a priori qu'on peut avoir sur l'utilité de chaque transition pour un système multi-états. Pour cela, nous considérons la version pondérée de la φ-divergence entre des chaînes de Markov d'ordre général, ensemble avec la statistique de test basée sur cette divergence. Des exemples importants de cette famille sont les statistiques de test de chi-deux et du rapport de vraisemblance. Par conséquent, la méthodologie que nous proposons représente une extension qui inclut des techniques existantes, vues comme des cas spécifiques où il n'y a pas d'information a priori qui est prise en compte. Nous obtenons les lois asymptotiques des statistiques des tests sous l'hypothèse nulle. En suivant la trajectoire de la thèse, après les cadres i.i.d. et Markov, il est raisonnable de continuer avec un cadre semi-markovien. Dans cette direction, on propose une famille de φ-divergences pour des chaînes semi-markoviennes et les statistiques de test correspondantes, afin de construire des tests d'hypothèses à un échantillon et à deux échantillons. La méthodologie et les outils proposés dans ce chapitre étendent le but des tests d'hypothèses pour des chaînes semi-markoviennes au-delà de l'application classique des tests, en considérant une famille générale de tests, issue des choix possibles de la fonction φ liée à la φ-divergence. Nous obtenons les lois asymptotiques des statistiques des tests sous l'hypothèse nulle et aussi la fonction puissance sous une alternative fixée. La partie finale de la thèse est dédiée à la modélisation de la fiabilité pour des chaînes semi-markoviennes, comme proposé. Plus précisément, on s'intéresse à une nouvelle mesure de fiabilité, appelée Fiabilité Séquentielle par Intervalles (SIR), qui quantifie la probabilité que le système soit opérationnel pendant une séquence donnée d'intervalles qui ne se chevauchent pas. Il s'agit d'une mesure qui inclut, comme cas particuliers, plusieurs mesures classiques de fiabilité, comme la fonction de fiabilité, la fiabilité par intervalle ou bien la disponibilité.
Abstract
This thesis deals with statistical inferential techniques for Markov and semi-Markov processes based on divergence measures, according with important developments in reliability modelling for such type of processes. Especially, it proposes a statistical methodology based on particular types of divergence measures, applied in the framework of hypothesis testing for Markov and semi-Markov processes. One of the most known statistical issues is the (statistical) identification of the underlying stochastic process that governs the evolution of a random system whose just a finite sample is known. That issue is often called as goodness-of-fit or one-sample testing. First, we study the application of the weighted alternative of the Kullback-Leibler divergence measure (Gkelsinis and Karagrigoriou, 2020) for testing one-sample and two-sample simple hypotheses for independent and identically distributed (i.i.d.) random variables as proposed in (Gkelsinis et al., 2022). Two test-statistics have been proposed, the weighted Goodness-of-Fit (WGoF) and the weighted test of Homogeneity (WHom) and their asymptotic distribution under the simple null hypothesis has been identified. The utilization of this methodology enables researchers to concentrate on particular subsets of the support while retaining information from the remaining subsets. Also, extensive Monte Carlo simulations are presented in order to evaluate the performance (in terms of type I and type II errors) of the aforementioned test-statistics. Secondly, we extend the previous result for testing simple hypotheses for general order Markov chains (Gkelsinis and Barbu, 2023a) by incorporating prior information regarding the utility of each transition within the multistate system. For that reason, the weighted alternative of the φ-divergence between general order Markov chains has been proposed according with the test-statistic based on it. Notable examples of this family include the chi-squared and likelihood ratio test-statistics. Consequently, this methodology can be viewed as a comprehensive generalization, encompassing existing techniques as specific instances when no prior information is taken into account. The asymptotic distribution of the test-statistics has been proved, along with Monte Carlo simulations to assess the performance of the proposed methodology. Following the above trajectory of the thesis, after the i.i.d. and the Markov case it is reasonable to proceed with the semi-Markov framework. Based on that direction, we propose the family of φ-divergence measures for semi-Markov chains and the associated test-statistics for testing simple one-sample and two-sample hypotheses (Gkelsinis and Barbu, 2023b). The methodology and tools introduced in this paper, expands the scope of testing statistical hypotheses for semi-Markov chains beyond the application of classical test-statistics, to a general family by taking into account the φ-function related to the φ-divergence. The asymptotic distribution of the test-statistics under the simple null hypotheses has been identified as well as the power function under fixed alternatives. The final part of this thesis is concerned with new developments on reliability modelling for time-homogeneous semi-Markov chains as proposed in Barbu et al., 2021 and Barbu et al., 2023. Particularly, we present a novel reliability measure called Sequential Interval Reliability (SIR) which quantifies the probability of the system being operational within a given sequence of non-overlapping time intervals. The proposed measure encompasses various existing reliability measures, including the interval reliability, the reliability function and the availability function. For the computation of the measure in the transient case, a recurrent-type formula is derived while asymptotic results determine its limiting behavior.

Simulation numérique des matériaux à changement de phase.

Doctorant·e
LEGRAND Cecile
Direction de thèse
DANAILA IONUT (Directeur·trice de thèse)
Date de la soutenance
27/11/2023 à 14:00
Lieu de la soutenance
Laboratoire LMRS
22 av de la mare aux daims
76801 St Etienne Du Rouvray
Rapporteurs de la thèse
MAMMERI YOUCEF Professeur des Universités Université Jean Monnet
MUREA CORNEL MARIUS Maître de Conférences HDR Université de Haute-Alsace
Membres du jurys
DANAILA IONUT, Professeur des Universités, Université de Rouen Normandie
HECHT FRÉDÉRIC, Professeur des Universités, Sorbonne Universite
LUDDENS FRANCKY, Maître de Conférences, Université de Rouen Normandie
MAMMERI YOUCEF, Professeur des Universités, Université Jean Monnet
MUREA CORNEL MARIUS, Maître de Conférences HDR, Université de Haute-Alsace
SALMON STEPHANIE, Professeur des Universités, UNIVERSITE REIMS CHAMPAGNE ARDENNE
YAKOUBI DRISS, Maître de Conférences, Ec Sup Ing Ld Vinci la Defense
Résumé
Dans ce travail, nous abordons l'analyse et la simulation numérique des Matériaux à Changement de Phases (MCP). Ces matériaux présentent des régions de phase solide et liquide distinctes, caractérisées par une prédominance de convection naturelle dans le liquide et de conduction dans le solide. Nous utilisons les équations incompressibles de Navier-Stokes, intégrant le modèle de Boussinesq pour gérer les forces de flottabilité dues aux effets thermiques, et les couplons avec une formulation de l'équation de l'énergie basée sur la méthode d'enthalpie. Ces équations sont résolues via une méthode d'éléments finis adaptatifs. Notre approche mono-domaine traite les phases solide et liquide en utilisant les mêmes systèmes d'équations. Dans la phase solide, nous réduisons la vitesse à zéro en ajoutant un terme de pénalisation dans l'équation de quantité de mouvement, suivant le modèle de Carman-Kozeny, qui simule le ralentissement de la vitesse dans un milieu poreux. La discrétisation spatiale s'effectue avec des éléments finis de Taylor-Hood (éléments finis P2 pour la vitesse et P1 pour la pression) et un schéma d'intégration temporelle implicite de second ordre (GEAR). Les systèmes d'équations non linéaires sont résolus par un algorithme de Newton, et les méthodes numériques sont implémentées dans le logiciel libre FreeFem++. Nous avons développé une nouvelle Toolbox qui étend les applications en incluant des paramètres physiques variables, permettant de modéliser des configurations complexes comme des MCP en série, la présence d'ailettes, ou une pièce remplie d'air jouxtant un MCP. Des cas de validation du code sont présentés, où nos résultats numériques sont comparés à des données expérimentales et numériques issues de la physique. L'étude comprend également l'analyse de la méthode des éléments finis stabilisés, basée sur les procédures de stabilisation de la pression minimale. Un terme de pénalité constant est ajouté à l'équation de conservation de la masse discrétisée. Nous laissons ce terme de pénalité varier en fonction de la taille de la maille, afin de récupérer la convergence pour la vitesse et la température, même si la condition inf-sup n'est pas satisfaite, par exemple pour la paire $P_1$-$P_1$. Nous donnons des estimations a priori et une illustration numérique pour soutenir l'utilisation de tels éléments.
Abstract
In this work, we address the analysis and numerical simulation of Phase Change Materials (PCM). These materials exhibit distinct solid and liquid phase regions, characterized by a predominance of natural convection in the liquid and conduction in the solid. We employ the incompressible Navier-Stokes equations, incorporating the Boussinesq model for managing buoyancy forces due to thermal effects, and couple them with an energy equation formulation based on the enthalpy method. These equations are solved using an adaptive finite element method. Our single-domain approach processes the solid and liquid phases using the same equation systems. In the solid phase, we reduce the velocity to zero by introducing a penalization term in the momentum equation, following the Carman-Kozeny model, which simulates the slowing of velocity in a porous medium. Spatial discretization is carried out using Taylor-Hood finite elements (P2 finite elements for velocity and P1 for pressure) and a second-order implicit time integration scheme (GEAR). The nonlinear equation systems are solved using Newton's algorithm, and the numerical methods are implemented in the FreeFem++ open-source software. We have developed a new Toolbox that expands applications by including variable physical parameters, enabling the modeling of complex configurations such as PCM in series, the presence of fins, or a room filled with air adjacent to a PCM. Validation cases for the code are presented, where our numerical results are compared to experimental and numerical data from physics. The study also includes the analysis of the stabilized finite element method, based on procedures for minimal pressure stabilization. A constant penalty term is added to the discretized mass conservation equation. We allow this penalty term to vary according to the mesh size, to achieve convergence for velocity and temperature, even if the inf-sup condition is not met, for example, for the P1-P1 pair. We provide a priori estimates and a numerical illustration to support the use of such elements.

Modélisation et analyse de systèmes dynamiques inspirés de l'épidémiologie mathématique et déployés sur réseaux complexes

Doctorant·e
MIKIELA NDZOUMBOU Irmand Leblond
Direction de thèse
AZIZ ALAOUI MOULAY AHMED (Directeur·trice de thèse)
ANDAMI OVONO ARMEL (Co-directeur·trice de thèse)
Date de la soutenance
09/11/2023 à 14:00
Lieu de la soutenance
Amphi Lesueur - bâtiment des Sciences et Techniques
Rapporteurs de la thèse
MIRANVILLE ALAIN PROFESSEUR DES UNIVERSITES Université Poitiers
RADOUANE YAFIA PROFESSOR UNIVERSITE IBN TOFAIL
Membres du jurys
ANDAMI OVONO ARMEL, PROFESSOR, ECOLE NORMALE SUPERIEURE DE LIBREVILLE
AUGER PIERRE, DIRECTEUR DE RECHERCHE EMERITE, INST DE RECH POUR LE DEVELOPPEMENT (IRD)
AZIZ ALAOUI MOULAY AHMED, PROFESSEUR DES UNIVERSITES, Université Le Havre Normandie
DUCROT ARNAUD, PROFESSEUR DES UNIVERSITES, Université Le Havre Normandie
JOAO SOARES DA SILVA CRISTIANA, MAÎTRE DE CONFERENCES (HDR), INSTITUT UNIVERSITAIRE DE LISBONNE
LANZA VALENTINA, MAÎTRE DE CONFERENCES, Université Le Havre Normandie
MIRANVILLE ALAIN, PROFESSEUR DES UNIVERSITES, Université Poitiers
RADOUANE YAFIA, PROFESSOR, UNIVERSITE IBN TOFAIL
Résumé
Ma thèse présente des résultats novateurs concernant les modèles à compartiments, des outils fréquemment employés en épidémiologie et dynamique de populations. J'ai exploré des systèmes de réaction-diffusion à compartiments avec diffusion non locale, ainsi que des réseaux d'équations aux dérivées partielles (EDP) sur des domaines disjoints couplés de manière non locale. Dans le premier chapitre, j'ai abordé un système d'EDP de type réaction-diffusion qui modélise la dynamique spatio-temporelle de la densité de plusieurs populations. J'ai considéré des coefficients de diffusion variables, fonction de la densité totale ou d'une population spécifique, ce qui est adapté pour représenter des espèces migrantes ou réagissant à la densité locale. J'ai étudié l'existence locale et globale des solutions, leur positivité et régularité, en prenant comme cas d'étude le modèle PCR (Panic-Reflexe-Contrôle), qui décrit l'évolution des comportements humains en cas de catastrophes. J'ai exploré différentes formes de coefficients de diffusion non locale et comparé les simulations numériques avec celles de la diffusion locale. Dans la deuxième partie, j'ai étendu l'étude à des populations évoluant dans des domaines disjoints, avec diffusion locale à l'intérieur de chaque domaine et migration entre eux. J'ai développé un réseau de systèmes de réaction-diffusion couplés par des termes non locaux, offrant une approche plus générale que les modèles présents dans la littérature. Dans le troisième chapitre, j'ai établi des résultats théoriques sur ce réseau d'EDP couplées et démontré l'existence locale et globale des solutions pour le cas de modèles SIS couplés non localement. J'ai également réalisé des simulations numériques pour analyser l'influence de la topologie du réseau. Dans le dernier chapitre, j'ai abordé un problème de contrôle optimal pour un modèle à compartiments représentant le comportement humain, en collaboration avec le projet ANR Com2SiCa. Nous avons proposé trois stratégies de contrôle visant à réduire la panique et les pertes humaines lors de catastrophes. J'ai formulé et prouvé l'existence d'un contrôle optimal, caractérisé à l'aide du principe du maximum de Pontryagin. Des résultats numériques ont illustré la meilleure stratégie à adopter dans le scénario d'un tsunami méditerranéen à Nice (France). Ces travaux de thèse ont conduit à la publication de deux articles dans des revues internationales, mettant en lumière l'importance des modèles et des stratégies de contrôle proposées pour la compréhension et la gestion des comportements humains en situation de catastrophe.
Abstract
My thesis presents innovative results concerning compartment models, tools frequently used in epidemiology and population dynamics. I explored compartmental reaction-diffusion systems with nonlocal diffusion, as well as networks of partial differential equations (PDEs) over nonlocally coupled disjoint domains. In the first chapter, I discussed a reaction-diffusion type PDE system which models the spatio-temporal dynamics of the density of several populations. I considered variable diffusion coefficients, depending on the total density or a specific population, which is suitable to represent migrating species or reacting to local density. I studied the local and global existence of solutions, their positivity and regularity, taking as a case study the PCR (Panic-Reflex-Control) model, which describes the evolution of human behavior in the event of disasters. I explored different forms of non-local diffusion coefficients and compared the numerical simulations with those of local diffusion. In the second part, I extended the study to populations evolving in disjoint domains, with local diffusion within each domain and migration between them. I developed a network of reaction-diffusion systems coupled by non-local terms, offering a more general approach than the models present in the literature. In the third chapter, I established theoretical results on this network of coupled PDEs and demonstrated the local and global existence of solutions for the case of non-locally coupled SIS models. I also carried out numerical simulations to analyze the influence of network topology. In the last chapter, I addressed an optimal control problem for a compartment model representing human behavior, in collaboration with the ANR Com2SiCa project. We proposed three control strategies aimed at reducing panic and human losses during disasters. I formulated and proved the existence of optimal control, characterized using Pontryagin's maximum principle. Numerical results illustrated the best strategy to adopt in the scenario of a Mediterranean tsunami in Nice (France). This thesis work led to the publication of two articles in international journals, highlighting the importance of the models and control strategies proposed for the understanding and management of human behavior in disaster situations.

Robustesse des réseaux de neurones profonds classifieurs d'images aux exemples adversaires pertinents. Robustness of neural network image classifiers to meaningful adversarial examples.

Doctorant·e
ANQUETIL LUCAS
Direction de thèse
CANU STEPHANE (Directeur·trice de thèse)
Date de la soutenance
07/11/2023 à 10:30
Lieu de la soutenance
INSA Rouen
Bâtiment Bougainville, rez-de-chaussée, salle BO-A-RC-02
685 avenue de l'université
76801 Saint-Etienne-du-Rouvray
Rapporteurs de la thèse
HERBIN STÉPHANE CHERCHEUR HDR Office National d'Études et de Recherches Aérospatiales de Paris
OBER ILEANA PROFESSEUR DES UNIVERSITÉS Université Paul Sabatier, Toulouse
Membres du jurys
AINOUZ SAMIA, PROFESSEUR DES UNIVERSITÉS, INSA de Rouen Normandie
CANU STEPHANE, PROFESSEUR DES UNIVERSITÉS, INSA de Rouen Normandie
HABRARD AMAURY, PROFESSEUR DES UNIVERSITÉS, Université Jean Monnet, Saint-Etienne
HERBIN STÉPHANE, CHERCHEUR HDR, Office National d'Études et de Recherches Aérospatiales de Paris
OBER ILEANA, PROFESSEUR DES UNIVERSITÉS, Université Paul Sabatier, Toulouse
Résumé
L'apprentissage automatique révolutionne le monde de nombreuses manières en permettant la création de systèmes intelligents capables d'effectuer des tâches complexes. En médecine, les systèmes d'apprentissage automatique sont utilisés pour analyser des données médicales et identifier des motifs qui peuvent aider les médecins à diagnostiquer les maladies de manière plus précise. Dans le domaine du commerce, les systèmes d'apprentissage automatique sont largement utilisés pour personnaliser l'expérience d'achat des clients en recommandant des produits en fonction de leur historique et de leur comportement de navigation. Dans le secteur du transport, l'apprentissage automatique est au cœur du développement des voitures autonomes, des véhicules qui seraient capable de circuler sans intervention humaine pour lequels une évaluation de la robustesse est primordiale. Le problème abordé dans cette thèse est celui de l'évaluation de la robustesse des réseaux de neurones profonds en tant que classifieur d'images à l'aide d'exemples adversaires, c'est-à-dire des exemples originaux auquels est ajouté une perturbation, imperceptible à l'œil nu, changeant la sortie des classifieurs. Plus précisément, nous proposons une methode de calcul de ces perturbations adversaires à l'aide d'un dictionnaire, un ensemble d'images apprises à partir d'un classifieur et d'un jeu de données. Nous remettons également en question la qualité des métriques utilisées pour calculer les distances entre deux images, afin d'estimer de manière fiable une mesure de robustesse pertinente des classifieurs d'images. Dans une première contribution, nous proposons une nouvelle manière de tromper les classifieurs. Tout en étant compétitive avec les méthodes de l'état de l'art, cette approche permet d'apprendre un dictionnaire d'images dont une certaine combinaison linéaire produit une telle perturbation adversaire. Ce dictionnaire permet de construire des perturbations adversaires universelles, indépendantes des exemples originaux, et transferables, efficaces pour tromper d'autres classifieurs. Le dictionnaire appris, permet aussi de visualiser les formes élémentaires à la base des perturbations adversaires. Dans une deuxième contribution, nous proposons d'apprendre une mesure de similarité entre images en optimisant la matrice de coût de la distance de Wasserstein entre leurs representations issues d'un réseau de neurones. Utiliser les représentations des images permet de calculer des similarités plus pertinentes et réalistes qu'en utilisant leurs pixels. En effet, les distances d'images basées sur les pixels ne considèrent pas la sémantique. Notre proposition permet d'explorer la richesse des representations apprises, afin de construire une distance de Wasserstein pertinente. Disposer d'une telle mesure de similarité pertinente entre images peut s'avérer utile lorsque l'on travaille sur des applications de vision par ordinateur pour lesquelles des vies sont en jeu.
Abstract
Machine learning is revolutionizing the world in many ways, enabling the creation of artificial systems capable of performing complex tasks. In medicine, machine learning systems are used to analyze medical data and identify patterns helping doctors to diagnose diseases more accurately. In retail, machine learning systems are widely used to personalize customers' shopping experience by recommending products based on their browsing history and behavior. In the transportation sector, machine learning is at the heart of the development of autonomous cars, vehicles that would be capable of driving without human intervention, for which a robustness assessment is of paramount importance. The problem addressed in this thesis is the robustness evaluation of deep neural networks as image classifiers using adversarial examples, which are original examples to which a perturbation, imperceptible to the human eye, is added changing the classifiers' output. More precisely, we propose a method to compute these adversarial perturbations using a dictionary, a set of images learned from a classifier, and a dataset. We also question the quality of the metrics used to compute distances between two images, leading to reliable estimation of a relevant robustness measure of image classifiers. In a first contribution, we propose a new way to fool classifiers. While competitive with state-of-the-art methods, this approach learns a dictionary of images for which a certain linear combination produces such an adversarial perturbation. This dictionary makes it possible to construct universal adversarial perturbations, independent of the original examples, and transferable, effective for fooling other classifiers. The learned dictionary also makes it possible to visualize the elementary shapes underlying the creation of adversarial perturbations. In a second contribution, we propose to learn a similarity measure between images by optimizing the cost matrix of the Wasserstein distance between their representations derived from a neural network. Using image representations enables to compute more relevant and realistic similarities than using their pixels. Pixel-based image distances don't take semantics into account. Our proposal makes it possible to explore the richness of learned representations, to construct a relevant Wasserstein distance. Having such a relevant similarity measure between images may reveal useful when working on life-at-risk computer vision applications.

A Bayesian Approach for Uplift Modeling: Application on Biased Data

Doctorant·e
RAFLA Mina
Direction de thèse
CREMILLEUX Bruno (Directeur·trice de thèse)
Date de la soutenance
06/11/2023 à 14:00
Lieu de la soutenance
S3-102 UFR des Sciences - Campus 2 - Université de Caen Normandie
Rapporteurs de la thèse
AMER-YAHIA SIHEM Directeur de recherche Universite Grenoble Alpes
JAROSZEWICZ SZYMON Professeur Institute of Computer Science
Membres du jurys
AMER-YAHIA SIHEM, Directeur de recherche, Universite Grenoble Alpes
CREMILLEUX Bruno, Professeur des universités, Université de Caen Normandie
GUNS TIAS, Professeur , LEUVEN - KATHOLIEKE UNIVERSITEIT
JAROSZEWICZ SZYMON, Professeur , Institute of Computer Science
LERAY PHILIPPE, Professeur des universités, Université Nantes
LESOT MARIE-JEANNE, Professeur des universités, Sorbonne Université
VOISINE Nicolas, Ingénieur de recherche, ORANGE INNOVATION
Résumé
La modélisation de l'uplift vise à estimer l'impact incrémental d'un traitement, tel qu'une campagne marketing ou un médicament, sur le comportement d'un individu. Ces approches sont très utiles dans de nombreuses applications, comme la médecine personnalisée et la publicité, car elles permettent de cibler la proportion spécifique d'une population sur laquelle le traitement aura le plus grand impact. La modélisation de l'uplift est une tâche ardue car les données sont partiellement connues (pour un individu, les réponses aux traitements alternatifs ne peuvent pas être observées). Cette thèse est une contribution au domaine de la modélisation de l'uplift. Elle a été réalisée en collaboration avec la société française de télécommunications \textit{Orange}. Plus précisément, ce travail traite de trois défis majeurs : 1- La paramétrisation des algorithmes existants de modélisation de l'uplift. 2- Le biais des données de l'uplift. 3- La haute dimensionalité des données de l'uplift. Nous surmontons ces défis en proposant une approche bayésienne sans paramètre pouvant être appliquée à une variété d'algorithmes d'uplift. Grâce à cette méthode, nous introduisons d'abord une approche de discrétisation bayésienne de l'uplift utilisable pour le prétraitement des données. Nous l'étendons ensuite à la sélection des variables. Nous démontrons que les méthodes de transformation de variables et de sélection de variables que nous proposons sont efficaces pour la modélisation de l'uplift. Par la suite, nous présentons un nouvel arbre de décision bayésien sans paramètre utilisateur, que nous appelons UB-DT. UB-DT transforme le problème d'apprentissage de l'arbre de décision en un problème d'optimisation, avec pour objectif de trouver l'arbre de décision le plus probable étant donné les données. De plus, nous étendons UB-DT aux forêts aléatoires et démontrons sa performance par des évaluations expérimentales. Pour traiter le défi du biais de sélection, nous avons élaboré une étude de simulation pour générer délibérément un biais de non-affectation aléatoire dans les jeux de données d'uplift. Ceci nous a permis de tester rigoureusement nos méthodes ainsi que les solutions existantes de pointe face à ce type de biais. Finalement, nous avons réalisé des évaluations approfondies de nos techniques proposées en utilisant des jeux de données télécom réels. Chaque méthode a été évaluée individuellement et en combinaison.
Abstract
Uplift modeling aims to estimate the incremental impact of a treatment, such as a marketing campaign or a drug, on an individual's behavior. These approaches are very useful in several applications such as personalized medicine and advertising, as it allows targeting the specific proportion of a population on which the treatment will have the greatest impact. Uplift modeling is a challenging task because data are partially known (for an individual, responses to alternative treatments cannot be observed). This thesis is a contribution to the field of uplift modelling. It was carried out in collaboration with the French telecommunications company \textit{Orange}. In particular, this work addresses three main challenges: 1- The parameterization problem for existing uplift modeling algorithms. 2- Data bias in uplift modeling. 3- The high dimensionality problem in uplift modeling. We achieve this by proposing a parameter-free Bayesian approach that can be applied to a variety of uplift algorithms. Using this approach we first propose a Bayesian uplift discretization approach that can be used as a data preprocessing approach. We then extend it to the case of feature selection. We show that both the variable transformation and feature selection approaches we propose are powerful and important for the case of uplift modelling. We then propose a new user-parameter-free Bayesian decision tree, baptized UB-DT. UB-DT transforms the decision tree learning problem into an optimization problem, where the goal is to find the decision tree that is most likely given the data. In addition, we extend UB-DT to the case of random forests and demonstrate its performance through experimental evaluations. To address the challenge of selection bias, we designed a simulation study to intentionally generate non-random assignment bias in uplift datasets. This allowed us to rigorously test both our methods and existing state-of-the-art solutions against this type of bias. Finally, we conducted comprehensive evaluations of our proposed techniques using real-world telecom datasets. Each method was evaluated both in isolation and in combination.

Commande avancée et optimisation de l'interaction entres sources d'énergie renouvelables et réseaux électriques

Doctorant·e
MANSOURI Adil
Direction de thèse
GIRI Fouad (Directeur·trice de thèse)
Date de la soutenance
03/11/2023 à 10:30
Lieu de la soutenance
Université Hassan II de Casablanca - Faculté des Sciences et Techniques de Mohammedi - Maroc
Rapporteurs de la thèse
OUADI HAMID Professeur Université Mohammed V Rabat
RACHID AHMED Professeur des universités UNIVERSITE AMIENS PICARDIE JULES VERNE
Membres du jurys
BOUATTANE OMAR, Professeur , Université Hassan II de Casablanca
CHAOUI FATIMA-ZAHRA, Professeur , Université Mohammed V Rabat
EL MAGRI ABDELMOUNIME, Professeur , Université Hassan II de Casablanca
GIRI Fouad, Professeur des universités, Université de Caen Normandie
MANIER MARIE-ANGE, Professeur des universités, UNIV TECHN BELFORT MONTBELIARD UTBM SEVENANS
OUADI HAMID, Professeur , Université Mohammed V Rabat
RACHID AHMED, Professeur des universités, UNIVERSITE AMIENS PICARDIE JULES VERNE
SAEZ Sebastien, Professeur des universités, Université de Caen Normandie
Résumé
Les énergies renouvelables jouent un rôle de plus en plus important dans la production mondiale d'énergie électrique. Elles sont devenues une solution essentielle pour faire face aux effets du changement climatique et à l'épuisement des combustibles fossiles. Les centrales d'énergies renouvelables prennent désormais le relais en fournissant une source d'énergie propre et durable. Ces centrales peuvent utiliser différentes sources d'énergies renouvelables, qu'elles soient de même nature ou de nature différente, créant ainsi des systèmes hybrides. Cette approche tire parti des avantages de chaque source d'énergie et permet d'obtenir des rendements supérieurs à ceux obtenus avec une seule source d'énergie. Le contrôle et l'optimisation de ces sources hybrides constituent un domaine de recherche prometteur en raison des défis posés par l'interaction entre ces sources de natures différentes, qui dépendent de grandeurs intermittentes et imprévisibles. Contrôler et équilibrer le flux d'énergie produit afin de maintenir la stabilité du réseau est un vrai défi, car les charges se situent généralement loin des centrales de production. À cette fin, deux modes de fonctionnement sont envisagés. Le premier mode de fonctionnement est appliqué lorsque la puissance produite disponible est inférieure à la demande de puissance de la charge. Dans le second mode de fonctionnement, la puissance produite disponible est supérieure à la demande de puissance. La conception d'un contrôle nonlinéaire multi-objectifs nécessite l'élaboration d'un modèle nonlinéaire décrivant l'interaction entre les différentes grandeurs régissant le système de conversion d'énergie. À partir du modèle élaboré et des objectifs fixés au préalable, on peut utiliser différentes commandes nonlinéaires telles que le contrôle par mode glissant, backstepping, la commande adaptative ou autre pour contrôler les convertisseurs statiques. Un bon contrôle des convertisseurs statiques tels que les redresseurs commandés, les hacheurs ou les onduleurs permet non seulement de satisfaire les objectifs souhaités, mais aussi d'améliorer la qualité des signaux électriques, de réduire les pertes au niveau des interrupteurs de puissance, des machines et des lignes de transmission électrique. La conception des contrôleurs repose généralement sur la mesure des différents états et variables du système à contrôler. Cependant, certains de ces paramètres sont difficiles, voire impossibles à mesurer, et nécessitent l'utilisation de technologies coûteuses. De plus, ces paramètres peuvent varier dans le temps, ce qui compromet les performances du contrôleur. Pour remédier à ce problème, une solution envisageable consiste à recourir à la synthèse de commandes adaptatives et robustes. De plus, les observateurs d'état permettent d'estimer la valeur des grandeurs non mesurées, ce qui présente l'avantage de réduire à la fois l'encombrement du système et le coût de la source d'énergie.
Abstract
Renewable energies are playing an increasingly important role in global energy production. They have become an essential solution to address the effects of climate change and the depletion of fossil fuels. Renewable energy power plants are now taking the lead by providing a clean and sustainable energy source. These power plants can utilize different types of renewable energy, whether of the same or different nature, thus creating hybrid systems. This approach capitalizes on the advantages of each energy source and enables higher efficiencies compared to relying on a single energy source. The control and optimization of these hybrid sources constitute a promising research field due to the challenges posed by the interaction between these diverse sources, which depend on intermittent and unpredictable variables. Controlling and balancing the flow of generated energy to maintain grid stability is a significant challenge as loads are typically located far from the production plants. To this end, two operating modes are considered. The first operating mode is applied when the available generated power is lower than the power demand from the load. In the second operating mode, the available generated power exceeds the power demand. The design of a multi-objective nonlinear control requires the development of a nonlinear model that describes the interaction between different variables governing the energy conversion system. Based on the developed model and predefined objectives, various nonlinear control techniques such as sliding mode control, backstepping, adaptive control, or others can be employed to control static converters. Effective control of static converters such as controlled rectifiers, choppers, or inverters not only enables the achievement of desired objectives but also enhances the quality of electrical signals, reduces losses at power switches, machinery, and transmission lines. The design of controllers typically relies on measuring various states and variables of the system to be controlled. However, some of these parameters are difficult, if not impossible, to measure and require the use of expensive technologies. Additionally, these parameters can vary over time, compromising the controller's performance. To address this issue, a feasible solution is to employ adaptive and robust control synthesis. Furthermore, state observers allow for the estimation of unmeasured quantities, offering the advantage of reducing system complexity and energy source costs.

Etude et conception d'antennes réseaux intelligente 5G pour les "small cells"

Doctorant·e
DRISSI Meriem
Direction de thèse
DESCAMPS Philippe (Directeur·trice de thèse)
GHARSALLAH ALI (Co-directeur·trice de thèse)
Date de la soutenance
28/10/2023 à 10:00
Lieu de la soutenance
Université de Tunis El Manar - salle Elkhawarezmi - Tunisie
Rapporteurs de la thèse
CORDEAU DAVID Maître de conférences HDR IUT ANGOULEME UNIVERSITE POITIERS
LATRACH LASSAAD Professeur Université de la Manouba Tunis - Tunisie
Membres du jurys
BARRAK RIM, Maître de conférences, Université de Carthage
CORDEAU DAVID, Maître de conférences HDR, IUT ANGOULEME UNIVERSITE POITIERS
DESCAMPS Philippe, Professeur des universités, ENSICAEN
GHARSALLAH ALI, Professeur , Université de Tunis - Tunisie
LATRACH LASSAAD, Professeur , Université de la Manouba Tunis - Tunisie
TRABELSI HICHEM, Professeur , Ecole Nationale d'Ingénieurs de Carthage
Résumé
Les antennes intelligentes offrent des performances supérieures en termes de consommation d'énergie, de capacité utilisateur et de rejet de bruit par rapport aux antennes existantes. De plus, elles peuvent orienter le faisceau principal vers l'utilisateur utile. De cette manière, la puissance maximale est rayonnée vers la cible, ce qui entraîne un gain très élevé dans cette direction. Une antenne intelligente est également utilisée pour augmenter la capacité du réseau, atténuer les interférences, réutiliser la bande passante et réduire le coût global de l'infrastructure. L'idée fondamentale est d'approcher au maximum les nœuds d'accès des utilisateurs finaux. Cette solution prometteuse est obtenue grâce au déploiement intensif de petites cellules appelées "Small Cells" dans des zones à fort trafic, en appliquant la technique de formation de faisceau. Les "Small Cells" doivent être conçues de manière à améliorer au maximum la réception du signal tout en concentrant la transmission du signal dans les directions utiles, cela se fait en utilisant des réseaux d'antennes adaptatives. Cette approche permet d'éviter l'utilisation inutile de toute la puissance disponible pour transmettre « à l’aveugle » en espérant atteindre le terminal. Les travaux entrepris dans le cadre de cette thèse sont alignés avec cette problématique. L'objectif principal consiste donc à concevoir et mettre en place un petit réseau d'antennes, ou "Small Cells", opérant dans la bande C, et capable de modifier la direction du faisceau en fonction des besoins des utilisateurs. Pour ce faire, une technique de formation de faisceau numérique a été développée et appliquée à un réseau d'antennes planaires en utilisant une approche basée sur la SDR (Radio Définie par Logiciel).
Abstract
Smart antennas offer superior performance in terms of power consumption, user capacity, and noise rejection compared to existing antennas. Moreover, they can direct the main beam towards the actual user. In this way, the maximum power is radiated towards the target, resulting in very good gain in that direction . A smart antenna can also be used to increase network capacity, mitigate interference, reuse spectrum, and reduce the overall cost of the infrastructure. The fundamental idea is to bring access nodes as close as possible to end-users. This promising solution is achieved through the intensive deployment of small cells in high-traffic areas, using beamforming techniques. These small cells must be designed to maximize signal reception while concentrating signal transmission in useful directions. This is accomplished through the use of adaptive antenna arrays. This approach avoids the unnecessary use of all available power to transmit blindly in the hope of reaching the terminal. The research conducted within the scope of this thesis aligns with this challenge. The primary objective is to design and implement a small antenna network, or "Small Cells," operating in the C band and capable of adjusting the beam direction based on user needs. To achieve this, a digital beamforming technique has been developed and applied to a planar antenna array using a Software-Defined Radio (SDR)-based approach.

Réseaux de neurones génératifs pour la résolution du problème de pré-image

Doctorant·e
GLEDEL Clement
Direction de thèse
HONEINE PAUL (Directeur·trice de thèse)
Date de la soutenance
13/10/2023 à 14:00
Lieu de la soutenance
76800 St Etienne Du Rouvray
Rapporteurs de la thèse
KADRI HACHEM Maître de Conférences HDR Aix-Marseille université
RAVEAUX ROMAIN Maître de Conférences HDR Universite de Tours
Membres du jurys
BRUN LUC, Professeur des Universités, ENSICAEN
CAPPONI CÉCILE, Professeur des Universités, Aix-Marseille université
GAUZERE BENOÎT, Maître de Conférences, INSA de Rouen Normandie
HONEINE PAUL, Professeur des Universités, Université de Rouen Normandie
KADRI HACHEM, Maître de Conférences HDR, Aix-Marseille université
RAVEAUX ROMAIN, Maître de Conférences HDR, Universite de Tours
Résumé
Que ce soit en reconnaissance des formes ou en apprentissage machine, il est courant de définir un espace de caractéristiques dans lequel les représentations des données sont obtenues en appliquant une transformation non-linéaire ou implicite. Cependant, cette transformation manque souvent d'interprétabilité en raison de l'accès limité à l'espace de caractéristiques. Par conséquent, il peut être fortement souhaitable de représenter, dans l'espace des observations, des éléments de l'espace de caractéristiques. Néanmoins, l'obtention de la transformation inverse est une tâche difficile qui implique la résolution du problème de pré-image. Cette tâche devient d'autant plus difficile lorsqu'il s'agit de données structurées telles que les graphes, qui sont complexes et discrets par nature. Dans cette thèse, nous proposons plusieurs approches cherchant à résoudre le problème de pré-image grâce à l'application de modèle génératif profond. Pour ce faire, nous commençons par introduire les concepts essentiels qui constituent nos contributions. Ces concepts comprennent le problème de pré-image et les méthodes d'apprentissage machine, en particulier les noyaux, les modèles d'apprentissage profond, ainsi que les différentes approches génératives basées sur les réseaux de neurones. À partir de cette analyse, nous proposons l'utilisation de modèle génératif profond appelé Normalizing Flows (NF), qui se révèle particulièrement adapté à notre problématique. Ce choix est motivé par la propriété d'inversibilité exacte offerte par les NF. De cela, nous introduisons une première approche qui a pour objectif de résoudre le problème de pré-image rencontré lors de l'utilisation de noyau. Cette méthode repose sur l'alignement de l'espace de caractéristiques implicitement généré par le noyau avec l'espace latent généré par un NF. Ce modèle étant inversible par nature, le problème de pré-image associé au noyau peut être considéré résolu par sa transposition vers l'espace généré par le NF. Notre contribution suivante vise à proposer un formalisme général permettant la définition de méthodes d'apprentissage machine exemptes du problème de pré-image. Pour ce faire, nous proposons d'adapter l'apprentissage d'un NF, de manière non supervisée, qui, à partir d'une distribution de données complexe, permet la génération d'un espace de représentation dans lequel les données suivent une distribution prédéfinie. Combiné aux notions de projection par analyse en composantes principales, nous définissons deux méthodes de débruitage travaillant dans l'espace généré. De plus, l'inversibilité de chaque transformation permet la génération de nouvelles données à partir de points d'intérêt de l'espace latent, ce qui permet de résoudre le problème de pré-image. Ainsi, basé sur ce formalisme insensible au problème de pré-image, nous présentons deux spécifications traitant deux tâches différentes. Pour chacune de ces tâches de prédiction, à savoir classification et régression, nous proposons une méthode d’apprentissage supervisée permettant la définition d'un modèle prédictif incluant la fonction de calcul de la pré-image de tout point de l’espace de caractéristiques généré. Un chapitre présente l'application de ses approches sur des données vectorielles et d'images. Enfin, nous nous intéressons à leurs applications sur des données structurées de type graphe. Ces données complexes et discrètes sont présentes dans de nombreux domaines permettant la modélisation de relation entre entités. Par exemple, les graphes sont utilisés en bio-informatique pour représenter des molécules composées de liaisons entre atomes. Ainsi, nous proposons d'étendre nos approches supervisées à ce type de données par l'utilisation de NF de graphe. Ceci permettant la génération d'un espace de représentation continu de graphe dans lequel des opérations et méthodes d'apprentissage machine peuvent être appliquées tout en permettant le calcul de graphe pré-image grâce à l'inversibilité de notre modèle.
Abstract
Whether in pattern recognition or machine learning, it is a common practice to define a feature space in which data representations are obtained by applying a nonlinear or implicit transformation. However, this transformation often lacks interpretability due to limited access to the feature space. Consequently, it may be highly desirable to represent elements of the feature space in the observation space. Nevertheless, obtaining the inverse transformation is a difficult task, which involves solving the pre-image problem. This task becomes even more difficult when dealing with structured data such as graphs, which are complex and discrete by nature. In this thesis, we propose several approaches to solve the pre-image problem through the application of deep generative models. To this end, we begin by introducing the essential concepts that constitute our contributions. These concepts include the pre-image problem and machine learning methods, in particular kernels, deep learning models, as well as the various generative approaches based on neural networks. Based on this analysis, we propose the use of deep generative models called "Normalizing Flows" (NFs), which is particularly well-suited to our problem. This choice is motivated by the property of exact invertibility offered by NFs. Next, we introduce a first approach which aims at solving the pre-image problem encountered when using kernels for nonlinear embeddings. This method is based on aligning the feature space implicitly generated by the kernel with the latent space generated by a NF. As this model is invertible by nature, the pre-image problem associated with the kernel can be considered solved by transposing it to the space generated by the NF. Our next contribution aims at proposing a general framework that allows the definition of machine learning methods free of the pre-image problem. To this end, we propose to adapt the learning of an NF, in an unsupervised way, which, starting from a complex data distribution, allows the generation of a representation space in which the data follow a predefined distribution. Combined with the notions of principal component analysis, we define two denoising methods operating in the generated space. In addition, the invertibility of each transformation allows new data to be generated from points of interest in latent space, thus solving the pre-image problem. Thus, based on this framework insensitive to the pre-image problem, we introduce two specifications dealing with two different tasks. For each of these prediction tasks, namely classification and regression, we propose a learning method allowing the definition of a predictive model including the inverse transformation used to compute the pre-image of any point in the generated feature space. A chapter introduces the application of these approaches to vector and image data. Finally, we look at their application to structured graph data. These complex and discrete data are present in many fields, allowing the representation of relationships between entities. For example, graphs are used in bioinformatics to represent molecules composed of bonds between atoms. We propose to extend our supervised approaches to this type of data by using graph NF. This allows the generation of a continuous graph representation space in which operations and machine learning methods can be applied, while also allowing the computation of graphs pre-images thanks to the invertibility of our model.

Modélisation, approche polyédrale et approche arborescente pour des problèmes de comparaison de graphes

Doctorant·e
MACE DE GASTINES ETIENNE
Direction de thèse
PORTIER BRUNO (Directeur·trice de thèse)
KNIPPEL ARNAUD (Co-encadrant·e de thèse)
Date de la soutenance
09/10/2023 à 13:00
Lieu de la soutenance
INSA Rouen Normandie
Bâtiment Bougainville Salle BO-A-RC-02
685 avenue de l'université
76801 Saint Etienne du Rouvray
 
Rapporteurs de la thèse
MAHJOUB ALI RIDHA PROFESSEUR DES UNIVERSITES EMERITE Université Paris Dauphine
PICOULEAU CHRISTOPHE PROFESSEUR DES UNIVERSITÉS CNAM, Paris
SOLNON CHRISTINE PROFESSEUR DES UNIVERSITÉS Institut National des Sciences Appliquees de Lyon
Membres du jurys
DIDI BIHA MOHAMED, PROFESSEUR DES UNIVERSITÉS, Université de Caen Normandie
KNIPPEL ARNAUD, MAÎTRE DE CONFÉRENCES, INSA de Rouen Normandie
LABBE MARTINE, PROFESSEUR DES UNIVERSITES EMERITE, Université Libre de Bruxelles
MAHJOUB ALI RIDHA, PROFESSEUR DES UNIVERSITES EMERITE, Université Paris Dauphine
PICOULEAU CHRISTOPHE, PROFESSEUR DES UNIVERSITÉS, CNAM, Paris
PORTIER BRUNO, PROFESSEUR DES UNIVERSITÉS, INSA de Rouen Normandie
SOLNON CHRISTINE, PROFESSEUR DES UNIVERSITÉS, Institut National des Sciences Appliquees de Lyon
T KINDT VINCENT, PROFESSEUR DES UNIVERSITÉS, Université de Tours
Résumé
Le problème de comparaison de graphes (graph matching en anglais) est une branche de la théorie des graphes qui vise à étudier la ressemblance structurelle entre des graphes. Ce domaine possède de nombreuses applications dans les domaines de la visualisation informatique, de l’analyse de données et de la biologie. Les problèmes en jeu sont intrinsèquement difficiles et leur résolution exacte a été l’objet de recherches approfondies, notamment via les techniques de recherche arborescente et de programmation par contraintes. En revanche, l’approche polyédrale n’a reçu qu’un intérêt limité dans ce domaine, et il est intéressant d’étudier l’apport des techniques de programmation linéaire en nombres entiers sur ce type de problèmes. Nous présentons dans un premier chapitre le domaine de la comparaison de graphes, en introduisant les domaines d’applications principaux, en définissant formellement les principales variantes de problèmes de comparaison de graphes et en rappelant les principaux résultats théoriques qui s’y rattachent et les relient. Nous présentons ensuite un état de l’art des techniques exactes utilisées pour résoudre ces problèmes, et présentons les différents outils pour les résoudre de manière approchée. Dans le second chapitre, nous nous intéressons au problème d’isomorphisme de sous- graphes non induit. Nous y présentons les principaux résultats polyédraux obtenus sur le sujet, et nous introduisons de nouvelles formulations linéaires en nombres entiers modélisant le problème. Nous comparons ces formulations entre elles, tant du point de vue théorique que du point de vue numérique. Nous présentons certaines familles de coupes. Nous comparons aussi les performances de l’approche polyédrale avec le solveur Glasgow, basé sur la programmation par contraintes. Les résultats mettent en avant que la programmation par contraintes s’avère la plus efficace, mais qu’il reste des pistes d’exploration pour l’approche polyédrale. Constatant que l’approche polyédrale serait sans doute un meilleur choix sur des problèmes plus numériques, nous étudions dans les troisième et quatrième chapitres le problème de plus grand graphe partiel commun. Le troisième chapitre est focalisé sur les résultats polyédraux. Nous présentons les précédentes formulations PLNE proposées dans la littérature, puis nous proposons plusieurs nouvelles formulations. Nous étudions les résultats d’équivalences et d’inclusion entre ces formulations, puis nous les comparons numériquement. Nous mettons en évidence que les résultats dépendent beaucoup de la structure du problème, mais que l’une de nos formulations est globalement plus performante que les autres. Dans le quatrième chapitre, nous nous intéressons aux approches de programmation par contraintes, et nous proposons un algorithme de branch&bound, en fournissant de nouvelles bornes. Nous étudions comment briser des dominances, et nous cherchons à décomposer le problème lorsqu’il possède un séparateur de taille faible. Nous mettons en évidence que l’approche polyédrale surclasse la programmation par contraintes sur ce problème.
Abstract
The graph matching problem is a field of graph theory which aims to study the structural similarity between graphs. This field has many applications in computer visualization, data analysis and biology. The underlying problems are intrinsically difficult, and their exact resolution have been the object of intense research, especially via the techniques of tree search and constraint programming. However, the polyhedral approach hasn’t received much attention in this domain, and it is interesting to study the contribution of mixed integer linear programming on these type of problems. We present in the first chapter the field of graph matching, by introducing the main domains of applications, by defining formally the main variants of graph matching problems and by recalling the main theoretical results that apply to these problems. We then present a state of the art of the exact resolution techniques for these problems, and the main tools for solving these approximately. In the second chapter, we are interested in the non-induced subgraph isomorphism problem. We present the main polyhedral results obtained on the subject, and we introduce new integer linear formulations on this problem. We compare these formulations, both on a theoretical and on a numerical point of view. We present some families of cuts. We compare the performance of the polyhedral approach against the Glasgow solver, which is based on constraint programming. The results show that constraint programming outperforms the polyhedral approach, but that it remains some avenues for exploration. Noticing that the polyhedral approach would probably be a better choice on more numerical problems, we study in the third and fourth chapters the problem of maximum common (non-induced) subgraph. The third chapter is focalized on the polyhedral results. We present the older MILP formulations proposed in the literature, then we propose multiple new formulations. We study the equivalence and inclusion results between these formulation, then we compare these numerically. We put into perspective that the results depends a lot on the structure of the graphs, but that one of our formulations stands out as globally more performant than the others. In the third chapter, we investigate the constraint programming approach, and we propose a branch&bound algorithm with a new bounding function. We study how to break dominance, and we try to decompose the problem whenever it has a separator of modest size. We put into perspective that the polyhedral approach outperforms constraint programming on this problem.

Programmation différentiable à grande échelle pour les données relationnelles

Doctorant·e
PESEUX Paul
Direction de thèse
PAQUET THIERRY (Directeur·trice de thèse)
Date de la soutenance
26/09/2023 à 10:00
Lieu de la soutenance
Amphithéâtre Sophie Germain, UFR des sciences et techniques, campus du Madrillet, Saint Etienne du Rouvray
Rapporteurs de la thèse
ARTIERES THIERRY Professeur des Universités Ecole Centrale de Marseille
RAVEAUX ROMAIN Maître de Conférences HDR Universite de Tours
Membres du jurys
ARTIERES THIERRY, Professeur des Universités, Ecole Centrale de Marseille
BERAR MAXIME, Maître de Conférences, Université de Rouen Normandie
NICOLLET VICTOR, ,
PAQUET THIERRY, Professeur des Universités, Université de Rouen Normandie
RAVEAUX ROMAIN, Maître de Conférences, Universite de Tours
WENDLING LAURENT, Professeur des Universités, Université Paris Cité
ZANNI-MERK CECILIA, Professeur des Universités, INSA de Rouen Normandie
Résumé
Cette thèse de doctorat présente trois contributions dans le domaine de la programmation différentiable axée sur les données relationnelles. Les données relationnelles sont courantes dans des secteurs tels que la santé et la logistique, où les données sont souvent organisées en tableaux structurés ou bases de données. Les approches traditionnelles de l’apprentissage automatique ont du mal à s’appliquer sur de telles données, tandis que les modèles d’apprentissage automatique de type boîte blanche sont plus adaptés mais également plus difficiles à développer. La programmation différentiable offre une solution en traitant les requêtes sur les bases de données relationnelles comme des programmes différentiables, permettant ainsi le développement de modèles d’apprentissage automatique de type boîte blanche qui peuvent travailler directement sur les données relationnelles. L’objectif principal de cette recherche est d’explorer l’application de l’apprentissage automatique aux données relationnelles en utilisant des techniques de programmation différentiable. La première contribution de la thèse introduit une couche différentiable dans les langages de programmation relationnelle, autant d’un point de vue théorique que d’un point de vue pratique. Le langage de programmation Adsl a été créé pour effectuer la différentiation et transcrire les opérations relationnelles d’une requête. Le langage Envision a été enrichi d’une couche de programmation différentiable, permettant le développement de modèles exploitant les données relationnelles dans un environnement de langage de programmation relationnelle natif. La deuxième contribution développe un estimateur de gradient appelé GCE, conçu pour les caractéristiques catégorielles surreprésentées dans les données relationnelles. GCE est démontré comme étant utile sur divers ensembles de données catégorielles et modèles, et a été implémenté pour les modèles d’apprentissage profond. GCE est intégré en tant qu’estimateur de gradient natif dans la couche de programmation différentiable d’Envision, facilité par la première contribution de cette thèse. La troisième contribution développe un estimateur de gradient généralisé appelé Stochastic Path Automatic Differentiation (SPAD), qui tire sa stochasticité de la décomposition du code. SPAD introduit l’idée de rétro-propager une fraction du gradient pour réduire la consommation de mémoire lors des mises à jour des paramètres. La mise en œuvre de cette approche d’estimation de gradient est rendue possible par les décisions de conception lors de la différentiation d’Adsl. Cette recherche a des implications significatives pour les industries reposant sur les données relationnelles, en débloquant de nouvelles perspectives et en améliorant la prise de décision en appliquant des modèles d’apprentissage automatique de type boîte blanche aux données relationnelles en utilisant des techniques de programmation différentiable.
Abstract
This PhD thesis presents three contributions to the field of differentiable programming with a focus on relational data. Relational data is prevalent in industries such as healthcare and supply chain, where data is often organized in structured tables or databases. Traditional machine learning approaches struggle with handling relational data, while white box machine learning models are better suited but challenging to develop. Differentiable programming offers a potential solution by treating queries on relational databases as differentiable programs, enabling the development of white box machine learning models that can directly reason about relational data. This research’s primary objective is to explore the application of machine learning to relational data using differentiable programming techniques. The first contribution of the thesis introduces a differentiable layer into relational programming languages, both theoretically and practically. The Adsl programming language was created to perform differentiation and transcribe relational operations of a query. The domain-specific language Envision has been augmented with differentiable programming capabilities, allowing the development of models that leverage relational data in a native relational programming language environment. The second contribution develops a novel gradient estimator called GCE, designed for categorical features over represented in relational data. GCE is demonstrated to be useful on various categorical datasets and models and has been implemented for deep learning models. GCE is also integrated as the native gradient estimator in the differentiable programming layer of Envision, facilitated by the first contribution of this thesis. The third contribution develops a generalized gradient estimator called Stochastic Path Automatic Differentiation (SPAD), which derives its stochasticity from code decomposition. SPAD introduces the idea of backpropagating a fraction of the gradient to reduce memory consumption during parameter updates. The implementation of this gradient estimation approach is made possible by the design decisions during the differentiation of Adsl. This research has significant implications for industries relying on relational data, unlocking new insights and improving decision-making by applying white box machine learning models to relational data using differentiable programming techniques.

Interactions multimodales multi-parties en communautés mixtes

Doctorant·e
RASENDRASOA Sandratra
Direction de thèse
PAUCHET ALEXANDRE (Directeur·trice de thèse)
ADAM SÉBASTIEN (Co-directeur·trice de thèse)
Date de la soutenance
15/09/2023 à 14:00
Lieu de la soutenance
Université de Rouen
Rapporteurs de la thèse
BAILLY GÉRARD Directeur de Recherche INP DE GRENOBLE
BUCHE CEDRIC Professeur des Universités Ecole nationale d'ingénieurs de Brest
Membres du jurys
ADAM SÉBASTIEN, Professeur des Universités, Université de Rouen Normandie
BAILLY GÉRARD, Directeur de Recherche, INP DE GRENOBLE
BUCHE CEDRIC, Professeur des Universités, Ecole nationale d'ingénieurs de Brest
OCHS MAGALIE, Maître de Conférences HDR, Aix-Marseille université
PAUCHET ALEXANDRE, Maître de Conférences, INSA de Rouen Normandie
PELACHAUD CATHERINE, Directeur de Recherche, UNIVERSITE PARIS 6 PIERRE ET MARIE CURIE
SAUNIER JULIEN, Maître de Conférences, INSA de Rouen Normandie
YGER FLORIAN, Maître de Conférences, UNIVERSITE PARIS 9
Résumé
Ces dernières années, le développement d'interfaces intuitives homme-machine a permis la démocratisation de systèmes intégrant à la fois des utilisateurs humains et des compagnons artificiels (robots et/ou personnages virtuels) dans une interaction sociale. Le travail principal de cette thèse concerne les interactions dialogiques qui ont lieu dans un contexte multiparti, c'est-à-dire impliquant plusieurs utilisateurs ainsi que plusieurs robots ou agents virtuels. L'objectif de cette thèse est donc d'étudier les moyens théoriques et pratiques permettant une interaction multiparti entre plusieurs agents virtuels, des robots et des humains. Elle se concentrera sur le choix d'actions dialogiques, en particulier avec une composante émotionnelle des compagnons artificiels. L'intégration de cette composante émotionnelle permet d'augmenter l'engagement des utilisateurs dans l'interaction ainsi que la crédibilité des agents. Exprimer un comportement le plus naturel possible, au sens d'être similaire à celui d'un utilisateur humain, nécessite l'utilisation de plusieurs modalités (énoncé, voix, geste, etc.). Le comportement des agents dépendra à la fois du dialogue en cours et de l'état inféré des utilisateurs humains. Pendant l'interaction dialogique, un agent suit un cycle simplifié composé d'une phase de perception, de décision et d'action. Cette thèse intervient principalement dans les phases de perception et d'action, où deux problèmes scientifiques ont été identifiés : Pendant la phase de perception, un mécanisme d'interprétation des actions, attitudes, énoncés dialogiques et émotions des utilisateurs humains est nécessaire. Cela implique d'extraire la sémantique des observations brutes à partir de données multimodales (texte, son, vidéo, etc.). Dans cette thèse, l'accent principal est mis sur la reconnaissance des émotions affichées dans une conversation multiparti, via l'extraction de plusieurs modalités (énoncé, voix, visage). Pendant la phase d'action, l'émotion à exprimer par l'agent est générée en fonction de ce qu'il a perçu et décidé. Dans le contexte d'un groupe de discussion où un agent joue le rôle de facilitateur, une stratégie de facilitation basée sur l'intelligence émotionnelle du groupe est proposée pour évaluer l'engagement des participants dans la conversation. Nous visons à répondre à la question de recherche suivante : Comment améliorer un agent conversationnel agissant en tant que facilitateur de groupe lors d'une discussion de groupe ? Nous avons étudié cette question sous plusieurs aspects : l'intelligence émotionnelle perçue de l'agent, l'engagement des utilisateurs, la confiance qu'ils partagent avec l'agent, leur sentiment de relation avec celui-ci et l'acceptabilité du système. Une étude expérimentale a été réalisée dans un scénario multiparti où trois participants humains interagissent avec un robot. Nous avons constaté que les participants étaient plus impliqués dans le scénario grâce aux interventions individuelles et de groupe basées sur les émotions prédites par notre modèle de Reconnaissance des Émotions en Conversation (ERC).
Abstract
In recent years, the development of intuitive human-machine interfaces has enable the democratization of systems integrating both human users and artificial companions (robots and/or virtual characters) in a social interaction. The main work in this thesis concerns dialogical interactions that take place in a multi-party context, i.e., including several users and several robots or virtual agents. The objective of this thesis is therefore to study the theoretical and practical means to allow multi-party interaction between several virtual agents, robots and humans. It will focus on the choice of dialogical actions, in particular with an emotional component of artificial companions. Integrating this emotional component enables to increase the engagement in interaction from the users and the credibility of the agents. Expressing the most natural behavior possible, in the sense of being similar to that of a human user, requires the use of several modalities (utterance, voice, gesture, etc.). The behavior of the agents will depend on both the dialog and the inferred state of the human users. During dialogic interaction, an agent follows a simplified cycle composed of a perception, decision and action phase. This thesis intervenes mainly in the perception and action phases, where two scientific deadlocks have been identified: During the perception phase, a mechanism for interpreting the actions, attitudes, dialogical statements and emotions of human users is necessary. This involves extracting the semantics of raw observations from multimodal data (text, sound, video, etc.). In this thesis, the main focus is on the recognition of emotions displayed in a multiparty conversation, via the extraction of several modalities (utterance, voice, face). During the action phase, the emotion to be played by the agent is generated according to what it has perceived and what it has decided. In the context of a focus group where an agent has the role of facilitator, a facilitation strategy, based on group emotional intelligence, is proposed to evaluate the participants' engagement in the conversation. We aim to answer the following research question: How do we improve a conversational agent acting as a group facilitator in a focus group discussion? We have studied the question through multiple aspects: the agent's perceived emotional intelligence, the user engagement , the trust they share with the agent, their sense of rapport with it and the system acceptability. An experimental study was realized, in a multi-party scenario where three human participants are interacting with a robot. We found the participants to be more involved in the scenario through the individual and group interventions based on the predicted emotions by our Emotion Recognition in Conversation (ERC) model.