Actualités Offres de thèses Soutenances actuelles

Soutenances autorisées pour l'ED « École Doctorale Mathématiques, Information, Ingénierie des Systèmes » (ED 590 MIIS)

Liste des soutenances actuelles 58

Μulti-dοmain translatiοn in a semi-supervised setting

Doctorant·e
MAYET TSIRY
Direction de thèse
CHATELAIN CLEMENT (Directeur·trice de thèse)
HERAULT Romain (Co-directeur·trice de thèse)
BERNARD SIMON (Co-encadrant·e de thèse)
Date de la soutenance
19/12/2024 à 09:30
Lieu de la soutenance
INSA de Rouen au campus du Madrillet
Rapporteurs de la thèse
KURTZ CAMILLE Université Paris Cité
TALBOT HUGUES CentraleSupélec
Membres du jurys
BERNARD SIMON, , Université de Rouen Normandie (URN)
CHATELAIN CLEMENT, , INSA de Rouen Normandie
GALASSI FRANCESCA, , ESIR Rennes
HERAULT Romain, , Université de Caen Normandie
KURTZ CAMILLE, , Université Paris Cité
MOUCHERE HAROLD, , Université de Nantes
TALBOT HUGUES, , CentraleSupélec
Résumé
Cette thèse explore la génération multi-modale dans un contexte d'apprentissage semi-supervisé, en abordant deux défis cruciaux: la prise en charge de configurations flexibles d'entrées et de sorties à travers plusieurs domaines, et le développement d'une stratégie d'entraînement efficace des données semi-supervisées. Alors que les systèmes d'intelligence artificielle progressent, il existe un besoin croissant de modèles capables d'intégrer et de générer de manière flexible plusieurs modalités, reflétant les capacités cognitives humaines. Les systèmes d'apprentissage profond conventionnels peinent souvent lorsqu'ils s'écartent de leur configuration d'entraînement, notamment lorsque certaines modalités sont indisponibles dans les applications réelles. Par exemple, dans le domaine médical, les patients pourraient ne pas faire tous les examens possibles pour un système d'analyse complet. Obtenir un contrôle plus fin sur les modalités générées est crucial pour améliorer les capacités de génération et fournir des informations contextuelles plus riches. De plus, l'augmentation du nombre de domaines rend plus difficile l'obtention d'une supervision simultanée. Nous nous concentrons sur la translation multi-domaine dans un contexte semi-supervisé, étendant le paradigme classique de translation de domaine. Plutôt que de considérer une direction de translation spécifique ou de les limiter entre paires de domaines, nous développons des méthodes facilitant les translations entre toutes les configurations possibles de domaines. L'aspect semi-supervisé reflète des scénarios réels où une annotation complète des données est souvent infaisable ou prohibitivement coûteuse. Notre travail présente trois contributions: (1) l'étude des fonctions de régularisation pour l'espace latent avec une supervision limitée, (2) l'étude de la mise à l'échelle et de la flexibilité des modèles de translation basés sur les modèles de diffusion, et (3) l'amélioration de la vitesse de génération des modèles d'inpainting par diffusion. Premièrement, nous proposons LSM, un modèle de translation semi-supervisé exploitant des données d'entrée supplémentaires et des données de sortie structurées pour régulariser les dépendances inter-domaines et intra-domaines. Deuxièmement, nous développons MDD, un modèle semi-supervisé de translation multi-domaine basé sur la diffusion. MDD transforme la fonction de perte classique des modèles de diffusion d'une fonction de reconstruction vers une fonction de translations en modélisant différents niveaux de bruit par domaine. Le modèle exploite les domaines moins bruités pour reconstruire les domaines plus bruités, permettant de modéliser les données manquantes comme du bruit pur et d'obtenir une configuration flexible des domaines condition et cible. Enfin, nous introduisons TD-Paint, un modèle d'inpainting basé sur la diffusion améliorant la vitesse de génération et à réduire la charge de calcul associée à la génération. Notre étude révèle que les modèles d'inpainting par diffusion souffrent d'une désynchronisation entre génération et conditionnement. Les solutions existantes, reposant sur le rééchantillonnage ou des régularisations supplémentaires, augmentent la complexité computationnelle. TD-Paint résout ce problème en modélisant des niveaux de bruit variables au niveau des pixels, permettant une utilisation efficace de la condition dès le début du processus.
Abstract
This thesis explores multi-modal generation and semi-supervised learning, addressing two critical challenges: supporting flexible configurations of input and output across multiple domains, and developing efficient training strategies for semi-supervised data settings. As artificial intelligence systems advance, there is growing need for models that can flexibly integrate and generate multiple modalities, mirroring human cognitive abilities. Conventional deep learning systems often struggle when deviating from their training configuration, which occurs when certain modalities are unavailable in real-world applications. For instance, in medical settings, patients might not undergo all possible scans for a comprehensive analysis system. Additionally, obtaining finer control over generated modalities is crucial for enhancing generation capabilities and providing richer contextual information. As the number of domains increases, obtaining simultaneous supervision across all domains becomes increasingly challenging. We focus on multi-domain translation in a semi-supervised setting, extending the classical domain translation paradigm. Rather than addressing specific translation directions or limiting translations to domain pairs, we develop methods facilitating translations between any possible domain configurations, determined at test time. The semi-supervised aspect reflects real-world scenarios where complete data annotation is often infeasible or prohibitively expensive. Our work explores three main areas: (1) studying latent space regularization functions to enhance domain translation learning with limited supervision, (2) examining the scalability and flexibility of diffusion-based translation models, and (3) improving the generation speed of diffusion-based inpainting models. First, we propose LSM, a semi-supervised translation framework leveraging additional input and structured output data to regularize inter-domain and intra-domain dependencies. Second, we develop MDD, a novel diffusion-based multi-domain translation semi-supervised framework. MDD shifts the classical reconstruction loss of diffusion models to a translation loss by modeling different noise levels per domain. The model leverages less noisy domains to reconstruct noisier ones, modeling missing data from the semi-supervised setting as pure noise and enabling flexible configuration of condition and target domains. Finally, we introduce TD-Paint, a novel diffusion-based inpainting model improving generation speed and reducing computational burden. Through investigation of the generation sampling process, we observe that diffusion-based inpainting models suffer from unsynchronized generation and conditioning. Existing models often rely on resampling steps or additional regularization losses to realign condition and generation, increasing time and computational complexity. TD-Paint addresses this by modeling variable noise levels at the pixel level, enabling efficient use of the condition from the generation onset.

Οptimizatiοn οf Synchrοmοdal Cοntainer Τranspοrtatiοn

Doctorant·e
VAIKKATHE Ananthakrishnan
Direction de thèse
BOUKACHOUR JAOUAD (Directeur·trice de thèse)
BENAINI ABDELHAMID (Co-directeur·trice de thèse)
Date de la soutenance
19/12/2024 à 15:00
Lieu de la soutenance
PIL
Rapporteurs de la thèse
FONLUPT CYRIL ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
ZARGAYOUNA MAHDI Université Marne La Vallée
Membres du jurys
BENAINI ABDELHAMID, , Université Le Havre Normandie (ULHN)
BOUDEBOUS DALILA, , Université Le Havre Normandie (ULHN)
BOUKACHOUR JAOUAD, , Université Le Havre Normandie (ULHN)
FONLUPT CYRIL, , ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
SALLEZ YVES, , UNIVERSITE POLYTECHNIQUE HAUTS DE FRANCE
ZARGAYOUNA MAHDI, , Université Marne La Vallée
Résumé
Cette thèse explore la mise en œuvre de la synchromodalité dans le transport de conteneurs en arrière-pays. La synchromodalité, une forme avancée de transport multimodal, offre une flexibilité et une résilience accrues pour le transport de fret conteneurisé. Bien que le transport routier ait traditionnellement dominé ce secteur, la synchromodalité vise à promouvoir un transfert modal stratégique vers des modes de transport plus durables, tels que le rail et les voies navigables intérieures. Le principal défi opérationnel réside dans la détermination de l’itinéraire optimal pour le transport des marchandises entre les terminaux d’origine et de destination. Dans la première partie de cette thèse, un modèle mathématique est développé pour identifier les meilleurs itinéraires de transport, en minimisant à la fois les émissions de carbone et la durée de transit. Compte tenu de la complexité NP-difficile de ce problème de chemin le plus court capacitaire, un algorithme génétique est proposé pour résoudre des instances de grande taille. Ces instances sont basées sur le corridor de fret de l’Axe Seine en France. Les résultats montrent qu’un transfert modal du camion vers le rail et les voies navigables intérieures peut permettre de réduire les émissions de carbone jusqu’à 80 %. La deuxième partie étend le modèle mathématique en intégrant des impacts environnementaux supplémentaires, appelés coûts externes. Un cadre d’optimisation multi-objectifs basé sur la métaheuristique NSGA-II est mis en œuvre pour résoudre efficacement le problème à grande échelle. Dans la troisième partie, le modèle prend en compte les incertitudes liées aux temps de trajet et de transport. Pour y faire face, une approche d’optimisation robuste basée sur une formulation min-max est employée, permettant de résoudre le problème de transport multimodal dans des conditions incertaines.
Abstract
This thesis explores the implementation of synchromodality in hinterland container transportation. Synchromodality, an advanced form of multimodal transportation, offers enhanced flexibility and resilience for containerized freight movement. While road transport has traditionally dominated this sector, synchromodality aims to promote a strategic modal shift toward more sustainable modes of transportation, such as rail and inland waterways. The primary operational challenge lies in determining the optimal route for transporting shipments between origin and destination terminals. In the first part of this thesis, a mathematical model is developed to identify the best transportation routes, minimizing both carbon emissions and transit duration. Given the NP-hard complexity of this capacitated shortest path problem, a genetic algorithm is proposed to solve large-scale problem instances. These instances are based on the Seine Axis freight corridor in France. The results demonstrate that a modal shift from truck to rail and inland waterways can achieve up to an 80% reduction in carbon emissions. The second part extends the mathematical model to incorporate additional environmental impacts, known as external costs. A multi-objective optimization framework using the NSGA-II metaheuristic is implemented to solve the problem for large-scale scenarios effectively. In the third part, the model accounts for uncertainties in travel and transportation times. To address this, a robust optimization approach based on a min-max formulation is employed, enabling the solution of the multimodal transportation problem under uncertain conditions.

Μοdèles affines généralisées et symétries d'équatiοns aux dérivés partielles

Doctorant·e
OUKNINE Anas
Direction de thèse
LESCOT PAUL (Directeur·trice de thèse)
Date de la soutenance
19/12/2024 à 14:00
Lieu de la soutenance
UFR sciences et techniques salle des séminaires
Rapporteurs de la thèse
LORINCZI JOZSEF Institut de Mathématiques Alfred Renyi
THIEULLEN MICHELE UNIVERSITE PARIS 6 PIERRE ET MARIE CURIE
Membres du jurys
CALKA PIERRE, , Université de Rouen Normandie (URN)
CIOTIR IOANA, , INSA de Rouen Normandie
LEONARD CHRISTIAN, , Universite Paris 10 Paris-Nanterre
LESCOT PAUL, , Université de Rouen Normandie (URN)
LORINCZI JOZSEF, , Institut de Mathématiques Alfred Renyi
THIEULLEN MICHELE, , UNIVERSITE PARIS 6 PIERRE ET MARIE CURIE
Résumé
Cette thèse se consacre à étudier les symétries de Lie d'une classe particulière d'équations différentielles partielles (EDP), désignée sous le nom d'équation de Kolmogorov rétrograde. Cette équation joue un rôle essentiel dans le cadre des modèles financiers, notamment en lien avec le modèle de Longstaff-Schwartz, qui est largement utilisé pour la valorisation des options et des produits dérivés. Dans un contexte plus générale, notre étude s'oriente vers l'analyse des symétries de Lie de l'équation de Kolmogorov rétrograde, en introduisant un terme non linéaire. Cette généralisation est significative, car l'équation ainsi modifiée est liée à une équation différentielle stochastique rétrograde et progressive (EDSRP) via la formule de Feynman-Kac généralisée (non linéaire). Nous nous intéressons également à l'exploration des symétries de cette équation stochastique, ainsi qu'à la manière dont les symétries de l'EDP sont connectées à celles de l'EDSRP. Enfin, nous proposons un recalcul des symétries de l'équation différentielle stochastique rétrograde (EDSR) et de l'EDSRP, en adoptant une nouvelle approche. Cette approche se distingue par le fait que le groupe de symétries qui opère sur le temps dépend lui-même du processus $Y$, qui constitue la solution de l'EDSR. Cette dépendance ouvre de nouvelles perspectives sur l'interaction entre les symétries temporelles et les solutions des équations.
Abstract
This thesis is dedicated to studying the Lie symmetries of a particular class of partial differential equations (PDEs), known as the backward Kolmogorov equation. This equa- tion plays a crucial role in financial modeling, particularly in relation to the Longstaff- Schwartz model, which is widely used for pricing options and derivatives. In a broader context, our study focuses on analyzing the Lie symmetries of the backward Kolmogorov equation by introducing a nonlinear term. This generalization is significant, as the modified equation is linked to a forward backward stochastic differ- ential equation (FBSDE) through the generalized (nonlinear) Feynman-Kac formula. We also examine the symmetries of this stochastic equation and how the symmetries of the PDE are connected to those of the BSDE. Finally, we propose a recalculation of the symmetries of the BSDE and FBSDE, adopting a new approach. This approach is distinguished by the fact that the symme- try group acting on time itself depends also on the process Y , which is the solution of the BSDE. This dependence opens up new perspectives on the interaction between temporal symmetries and the solutions of the equations.

Synthèse d’algοrithmes d’estimatiοn intelligents en vue du cοntrôle de trajectοire d’une flοtte de véhicules autοnοmes en platοοning (cοnvοi)

Doctorant·e
ABDL GHANI Hasan
Direction de thèse
CRAYE ETIENNE (Directeur·trice de thèse)
AHMED ALI SOFIANE (Co-directeur·trice de thèse)
Date de la soutenance
19/12/2024 à 14:00
Lieu de la soutenance
IRSEEM, ESIGELEC, Technopôle du Madrillet, Av. Galilée, 76800 Saint-Étienne-du-Rouvray
Rapporteurs de la thèse
BASSET MICHEL Ens Ingenieurs Sud Alsace Universite Mulhouse
NEJJARI-AKHI-ELARAB FATIHA Univ. Polytechnique de Barcelone (ESP)
Membres du jurys
AHMED ALI SOFIANE, , Université d'Evry Paris-Saclay
AINOUZ SAMIA, , INSA de Rouen Normandie
BASSET MICHEL, , Ens Ingenieurs Sud Alsace Universite Mulhouse
CRAYE ETIENNE, , ESIGELEC ROUEN
NEJJARI-AKHI-ELARAB FATIHA, , Univ. Polytechnique de Barcelone (ESP)
TELJ REINE, , UNIV TECHNOLOGIE COMPIEGNE UTC COMPIEGNE
TRAN NGUYEN ANH-TU, , UNIVERSITE VALENCIENNES UVHC
Résumé
Cette thèse présente une exploration complète de la conception d’observateurs avancés pour les systèmes de véhicules terrestres, en mettant particulièrement l’accent sur l’intégration de techniques de réseaux neuronaux pour relever les défis liés à la dynamique non linéaireet aux complexités de mesure. La recherche est systématiquement divisée en trois parties distinctes, chacune se concentrant sur un aspect spécifique de la conception d’observateurset de leur application pratique aux véhicules terrestres. La première partie introduit une conception d’observateur novatrice utilisant un réseau neuronal multicouche pour les véhicules terrestres autonomes. Ce segment de l’étude propose un observateur en réseau neuronal continu-discret (NSNNO), particulièrement adapté aux systèmes caractérisés par une non-linéarité significative et sans nécessité de connaissances préalables sur la dynamique du système. L’observateur, conçu comme un réseau neuronal feedforward à trois couches, est méticuleusement entraîné en utilisant l’algorithme d’apprentissage par rétropropagation de l’erreur, amélioré par un terme de modification e pour la robustesse. Cette partie aborde efficacement les défis associés à la mesure en temps discret dans les systèmes de véhicules. La deuxième partie se penche sur l’amélioration de l’estimation de l’état dans la dynamique des véhicules terrestres grâce à l’application de réseaux neuronaux à fonction de base radiale (RBF). Cette section est articulée à travers trois articles pivots, chacun apportant une perspective et une solution uniques. Ces articles abordent collectivement divers défis en matière de mesure et de modélisation, démontrant la polyvalence et l’efficacité des réseaux RBF dans l’estimation de la dynamique complexe des véhicules. La troisième partie s’appuie sur la conception réussie d’observateurs basés sur des réseaux neuronaux pour des véhicules terrestres individuels et étend leur application au contexte du pelotonnage de véhicules sous des mesures retardées. Cette partie de la recherche se concentre sur les défis uniques inhérents à l’environnement de pelotonnage, en particulier l’impact des retards de communication entre les véhicules. Elle montre comment les conceptions d’observateurs avancés peuvent être adaptées à l’environnement interconnecté et dynamique des pelotons de véhicules, garantissant la stabilité et la précision de la formation, même en présence de retards de communication. Dans l’ensemble, cette thèse apporte une contribution significative au domaine des systèmes de contrôle de véhicules terrestres, offrant des perspectives précieuses et des solutions pratiques pour le développement de systèmes d’observateurs avancés et fiables capables de naviguer dans les complexités de la dynamique véhiculaire moderne.
Abstract
This thesis explores advanced observer designs to improve state estimation and system performance in vehicle dynamic environments. The research is divided into three parts, where each part focuses on a specific aspect of observer design and its practical application to ground vehicles. Part One introduces a novel observer design using a multi-layer neural network for autonomous ground vehicles. This part of the study proposes a continuous-discrete time neural network observer, that is designed for systems that have significant non-linearity and without the necessity for prior knowledge of system dynamics. The observer, which is designed as a three-layer feedforward neural network, trained using the error backpropagation learning algorithm, and enhanced with an e-modification term for robustness. A closed-loop output predictor is added to the design of the neural network observer to solve the challenge of discrete time measurement in vehicle systems. Part two of this thesis introduces a novel approach using radial basis function neural networks, which is used to enhance observer designs for nonlinear dynamic systems. In this part, we propose a new weight updating function that improves the performance of RBF networks, which was designed for systems with both partially or completely unknown dynamics. The proposed observers are also designed to manage the discrete-time measurements with delay measurements to ensure accurate state estimation and improved performance of the system under these conditions. Part Three focuses on robust platooning in multi-agent systems to address the challenges that are posed by internal and communication delays, measurements uncertainties, and the system heterogeneity. A consensus-based high-gain observer and a novel-based observer are presented to enhance the stability and coordination of platoons under different conditions. These methods here are validated by extensive simulations that shows the efficiency of the observers to maintain synchronization and robustness under challenging scenarios. Overall, this thesis contributes in the field of ground vehicle control systems that offers valuable understanding and practical solutions for developing advanced observer systems that are capable of solving the complexities of modern vehicle dynamics

Ιntelligent apprοach fοr trafic cοngestiοn predictiοn

Doctorant·e
AMOR Yasmine
Direction de thèse
HOBLOS GHALEB (Directeur·trice de thèse)
BEN SAID LAMJED (Co-directeur·trice de thèse)
Date de la soutenance
18/12/2024 à 14:30
Lieu de la soutenance
ESIGELEC
Rapporteurs de la thèse
AYACHI GANNOUCHI SONIA Université de Sousse
GUESSOUM ZAHIA Université de Reims Champagne Ardenne
Membres du jurys
AYACHI GANNOUCHI SONIA, , Université de Sousse
BEN SAID LAMJED, , Université de Tunis (Tunisie)
ELOUEDI ZIED, , Université de Tunis (Tunisie)
GUESSOUM ZAHIA, , Université de Reims Champagne Ardenne
HOBLOS GHALEB, , ESIGELEC ROUEN
REJEB LILIA, , Université de Tunis (Tunisie)
SAHLI NABIL, , German University of Technology
TROJET WASSIM, , Higher Colleges of Technology
Résumé
La congestion routière constitue un défi majeur pour les zones urbaines, car le volume de véhicules continue de croître plus rapidement que la capacité globale du réseau routier. Cette croissance a des répercussions sur l'activité économique, la durabilité environnementale et la qualité de vie. Bien que des stratégies visant à atténuer la congestion routière ont connu des améliorations au cours des dernières décennies, de nombreux pays ont encore du mal à la gérer efficacement. Divers modèles ont été développés pour aborder ce problème. Cependant, les approches existantes peinent souvent à fournir des prédictions en temps réel et localisées qui peuvent s'adapter à des conditions de trafic complexes et dynamiques. La plupart de ces approches s'appuient sur des horizons de prédiction fixes et manquent de l'infrastructure intelligente nécessaire à la flexibilité. Cette thèse comble ces lacunes en proposant une approche intelligente, décentralisée et basée sur l'infrastructure pour l'estimation et la prédiction de la congestion routière. Nous commençons par étudier l'Estimation du Trafic. Nous examinons les mesures de congestion possibles et les sources de données requises pour différents contextes pouvant être étudiés. Nous établissons une relation tridimensionnelle entre ces axes. Un système de recommandation basé sur des règles est développé pour aider les chercheurs et les opérateurs du trafic à choisir les mesures de congestion les plus appropriées en fonction du contexte étudié. Nous passons ensuite à la Prédiction du Trafic, où nous introduisons notre approche DECOTRIVMS. Cette dernière utilise des panneaux intelligents à messages variables pour collecter des données de trafic en temps réel et fournir des prédictions à court terme avec des horizons de prédiction variables. Nous avons utilisé des Réseaux de Graphes avec Attention en raison de leur capacité à capturer des relations complexes et à gérer des données structurées en graphes. Ils sont bien adaptés pour modéliser les interactions entre différents segments routiers étudiés. Nous avons aussi employé des méthodes d'apprentissage en ligne, spécifiquement la Descente de Gradient Stochastique et la Descente de Gradient Adaptative. Bien que ces méthodes ont été utilisées avec succès dans divers autres domaines, leur application à la prédiction de la congestion routière reste sous-explorée. Dans notre thèse, nous visons à combler cette lacune en explorant leur efficacité dans le contexte de la prédiction de la congestion routière en temps réel. Enfin, nous validons l'efficacité de notre approche à travers deux études de cas réalisées à Mascate, Oman, et à Rouen, France. Une analyse comparative est effectuée, évaluant divers modèles de prédiction, y compris les Réseaux de Graphes avec Attention, les Réseaux de Graphes Convolutionnels et des méthodes d'apprentissage en ligne. Les résultats obtenus soulignent le potentiel de DECOTRIVMS, démontrant son efficacité pour une prédiction précise et efficace de la congestion routière dans divers contextes urbains.
Abstract
Traffic congestion presents a critical challenge to urban areas, as the volume of vehicles continues to grow faster than the system’s overall capacity. This growth impacts economic activity, environmental sustainability, and overall quality of life. Although strategies for mitigating traffic congestion have seen improvements over the past few decades, many cities still struggle to manage it effectively. While various models have been developed to tackle this issue, existing approaches often fall short in providing real-time, localized predictions that can adapt to complex and dynamic traffic conditions. Most rely on fixed prediction horizons and lack the intelligent infrastructure needed for flexibility. This thesis addresses these gaps by proposing an intelligent, decentralized, infrastructure-based approach for traffic congestion estimation and prediction. We start by studying Traffic Estimation. We examine the possible congestion measures and data sources required for different contexts that may be studied. We establish a three-dimensional relationship between these axes. A rule-based system is developed to assist researchers and traffic operators in recommending the most appropriate congestion measures based on the specific context under study. We then proceed to Traffic Prediction, introducing our DECentralized COngestion esTimation and pRediction model using Intelligent Variable Message Signs (DECOTRIVMS). This infrastructure-based model employs intelligent Variable Message Signs (VMSs) to collect real-time traffic data and provide short-term congestion predictions with variable prediction horizons. We use Graph Attention Networks (GATs) due to their ability to capture complex relationships and handle graph-structured data. They are well-suited for modeling interactions between different road segments. In addition to GATs, we employ online learning methods, specifically, Stochastic Gradient Descent (SGD) and ADAptive GRAdient Descent (ADAGRAD). While these methods have been successfully used in various other domains, their application in traffic congestion prediction remains under-explored. In our thesis, we aim to bridge that gap by exploring their effectiveness within the context of real-time traffic congestion forecasting. Finally, we validate our model’s effectiveness through two case studies conducted in Muscat, Oman, and Rouen, France. A comprehensive comparative analysis is performed, evaluating various prediction techniques, including GATs, Graph Convolutional Networks (GCNs), SGD and ADAGRAD. The achieved results underscore the potential of DECOTRIVMS, demonstrating its potential for accurate and effective traffic congestion prediction across diverse urban contexts.

Τraitement d'image pοur la valοrisatiοn et l'accessibilité des οeuvres muséales

Doctorant·e
REDON Marjorie
Direction de thèse
EL MOATAZ BILLAH Abderrahim (Directeur·trice de thèse)
Date de la soutenance
17/12/2024 à 09:00
Lieu de la soutenance
Caen
Rapporteurs de la thèse
GOUET-BRUNET VALÉRIE Directeur de recherche IGN
TREUILLET SYLVIE Maître de conférences HDR Université d'Orléans
Membres du jurys
EL MOATAZ BILLAH Abderrahim, , Université de Caen Normandie (UCN)
GOUET-BRUNET VALÉRIE, Directeur de recherche, IGN
JOUFFRAIS CHRISTOPHE, Directeur de recherche, Institut de Recherche en Informatique de Toulouse
LECOMTE CHRISTELE, Maître de conférences, Université de Rouen Normandie (URN)
MARZANI FRANCK, , Universite de Bourgogne
QUEAU Yvain, Chargé de recherche, Université de Caen Normandie (UCN)
TREUILLET SYLVIE, Maître de conférences HDR, Université d'Orléans
Résumé
La question de l’accessibilité des œuvres muséales aux personnes présentant une incapacité visuelle (PPIVs) est régulièrement soulevée par les associations et les musées. De par leur nature, certaines œuvres, telles que les tapisseries médiévales, ne peuvent être touchées et ne sont que peu souvent accessibles via l’audio-description. Aussi, la création manuelle de représentations tactiles est coûteuse et complexe, limitant leur disponibilité dans les musées. La Tapisserie de l’Apocalypse et la Tapisserie de Bayeux sont deux exemples emblématiques. Ces deux œuvres d’art de grande envergure mesurant 104 m sur 4,5 m pour la première et 70 m sur 50 cm pour la deuxième, sont devenues au fil du temps les objets de nombreuses études. Bien que le Château d’Angers propose des visites guidées adaptées aux personnes aveugles et malvoyantes, celles-ci restent limitées et nécessitent la participation de plusieurs personnes. Au musée de la Tapisserie de Bayeux, un espace de découverte tactile est proposé mais seules trois des 58 scènes peuvent être explorées. Cette thèse aborde les problématiques d'inclusion dans les musées. Ce travail a été mené dans une volonté de rendre la perception des tapisseries médiévales accessible à un plus grand nombre de personnes. Ce travail propose ainsi une méthodologie innovante de création semi-automatique d’objets 3D à partir d’une simple photographie. Nous nous intéressons dans ce manuscrit aux possibilités offertes par les outils d’intelligence artificielle pour la création de bas-reliefs imprimés en 3D, rapidement et à moindre coût. Pour cela, nous étudions des algorithmes de segmentation tels que les Mask R-CNN ; et d'autres réseaux de neurones permettant de générer des images, comme les réseaux génératifs antagonistes (GANs). En plus de la possible génération d'impressions 3D permettant une exploration tactile des œuvres, nous devons nous intéresser à la pertinence de telles représentations. Afin de nous assurer que la solution proposée permette une meilleure autonomie dans l’appréciation de l’art, nous menons également une campagne d'évaluation auprès de PPIVs. Au final, nous visons à améliorer l'expérience muséale des personnes aveugles et partiellement aveugles par une augmentation de leur autonomie dans ces lieux de culture et renforcer leur satisfaction et leur motivation à découvrir ces trésors culturels.
Abstract
The issue of accessibility to artworks in museums for visually impaired people (VIP) is frequently raised by associations and museums. Some works, such as medieval tapestries, by their very nature, cannot be touched and are often not accessible through audio-description. Moreover, the manual creation of tactile representations is costly and complex, limiting their availability in museums. The Apocalypse Tapestry and the Bayeux Tapestry are two iconic examples. These large-scale artefacts, measuring 104 m by 4.5 cm meters for the former and 70 m by 50 cm for the latter, have been the focus of numerous studies over the years. Although the Château d'Angers offers guided tours adapted for blind and partially sighted visitors, these remain limited and require the involvement of several people. At the Bayeux Tapestry Museum, there is a tactile discovery area, but only three of the 58 scenes have been adapted into tactile mock copies. This work is motivated by the challenges of inclusion in museums and aims to make the perception of medieval tapestries accessible to as many people as possible. We propose an innovative methodology for the semi-automatic creation of 3D objects from simple photographs. In this manuscript, we explore the possibilities offered by artificial intelligence tools to quickly and affordably create 3D-printed bas-reliefs. Specifically, we study segmentation algorithms like Mask R-CNN and image-generating neural networks such as generative adversarial networks (GANs). In addition to generating 3D prints that enable tactile exploration of artefacts, we also evaluate the relevance of these representations through experimentation with VIPs. Overall, our goal is to improve the museum experience for blind and partially sighted visitors by enhancing their autonomy in cultural spaces and increasing their satisfaction and motivation to discover these cultural treasures.

Ιndécidabilité des invariants géοmétriques dans les pavages

Doctorant·e
PAVIET SALOMON Leo
Direction de thèse
VANIER Pascal (Directeur·trice de thèse)
Date de la soutenance
17/12/2024 à 14:30
Lieu de la soutenance
Bâtiment Sciences 3 - salle des thèses
Rapporteurs de la thèse
BEAL MARIE-PIERRE Université Gustave Eiffel
ROJAS CRISTOBAL Pontificia Universidad Católica de Chile
Membres du jurys
BEAL MARIE-PIERRE, , Université Gustave Eiffel
CERVELLE JULIEN, , UNIVERSITE PARIS 12 VAL DE MARNE
HOYRUP MATHIEU, , Université de Lorraine
OLLINGER NICOLAS, , Université d'Orléans
PETITE SAMUEL, , UNIVERSITE AMIENS PICARDIE JULES VERNE
VANIER Pascal, , Université de Caen Normandie (UCN)
Résumé
Cette thèse est consacrée à l'étude des sous-décalages, et en particulier leurs propriétés calculatoires. De façon générale, un sous-décalage est défini par un ensemble fini de symboles, un ensemble de règles spécifiant les agencements valides et invalides de ces symboles, et un espace ambiant que l'on cherche à paver: une configuration valide consiste alors en un agencement de ces symboles couvrant l'espace entier et respectant toutes les contraintes. Le sous-décalage est alors défini comme l'ensemble de toutes les configurations valides. Dans le cas le plus simple, ces règles interdisent simplement à certains symboles d'être placés côte-à-côte, et sont donc en nombre fini. Cependant, même dans ce cas restreint, les pavages de Z^d pour d > 1 sont étonnament complexes, cette complexité se manifestant sous plusieurs aspects étudiés dans cette thèse. Cette thèse est divisée en trois chapitres essentiellement indépendants, précédés d'une introduction générale aux différents objets étudiés. Dans un premier temps, nous étudierons l'entropie d'extension des pavages de Z^d, un nombre réel associé à un sous-décalage qui quantifie le nombre de motifs qui peuvent être librement interchangés dans n'importe quelle configuration valide. Nous montrerons que les entropies d'extension possibles sont caractérisées par des restrictions calculatoires, et correspondent exactement à des niveaux de la hiérarchie arithmétique, le niveau exact dépendant de la classe de sous-décalages considérée. Dans un second chapitre, nous nous intéresserons au Groupe Fondamental Projectif des pavages du plan Z^2. Il s'agit d'un groupe associé à certains sous-décalages, qui permet de classifier les obstructions possibles qu'ont certaines configurations partielles ne pouvant être étendues en configurations valides sur tout l'espace. Nous montrerons là aussi que des classes simples de pavages, notamment les sous-décalages de type fini, peuvent exhiber un comportement complexe, et en particulier peuvent avoir comme groupe fondamental n'importe quel groupe finiment présenté. Enfin, nous étudierons dans un troisième chapitre les sous-décalages substitutifs, dans le contexte particulier des graphes. Nous proposerons une définition de graphe substitutif, et de sous-décalage substitutif défini sur ces graphes, et montrerons qu'une large classe de ces sous-décalages peuvent être obtenus à l'aide d'un nombre fini de règles locales. Ce résultat généralise partiellement un résultat classique de Mozes, dans un cadre plus combinatoire et moins géométrique.
Abstract
This thesis is devoted to the study of subshifts, and in particular their computational properties. A subshift is defined by a finite set of symbols, a set of rules specifying authorized and forbidden arrangements of these symbols, and an ambient space that we try to tile: a valid configuration is then an arrangement of these symbols, covering the entire space and respecting all the rules. A subshift is then defined as the set of all the valid configurations. In the simplest case, the rules are adjacency rules, which prevent some symbols from being placed next to one another. However, even in this restricted setting, tilings of Z^d for d > 1 can be surprinsingly complicated, in several ways studied in this thesis. The thesis is divided in three independent chapters, with a preliminary chapter introducing all the relevant background knowledge for the various objects being considered. In a first chapter, we study the extender entropy of Z^d subshifts, a real number which quantifies for any subshift the number of patterns that can freely be exchanged in all the valid configurations. We show that the possible values of extender entropies are fully characterized by computability restrictions, more precisely, they correspond exactly to levels in the arithmetical hierarchy of real numbers, the precise level depending on the specific class of subshifts being considered. In a second chapter, we study the Projective Fundamental Group of Z^2-subshifts, a group which aims at classifying the various kinds of obstructions encountered when trying to extend a partial configuration to a complete, valid configuration of the subshift. We show that even subshifts of finite type can have as fundamental group any finitely presented group. Finally, we study in a third chapter a kind of substitutive subshift defined on graphs. We propose a definition of substitutive graph, as well as substitutive graph subshift, and show that an important class of these subshifts can be obtained using only finitely many local rules. This partially generalizes a classical result from Mozes, in a more combinatorial but less geometrical setting.

Dévelοppement de détecteurs de rayοnnement ΤΗz nοn refrοidis à base de La0.7Sr0.3ΜnΟ3

Doctorant·e
QUINTEN Thomas
Direction de thèse
GUILLET Bruno (Directeur·trice de thèse)
Date de la soutenance
16/12/2024 à 14:00
Lieu de la soutenance
Campus 2, Caen
Rapporteurs de la thèse
BOUSSAHA FAOUZI OBSERVATOIRE DE PARIS
LECOEUR Philippe Université Paris Saclay
Membres du jurys
BOUSSAHA FAOUZI, , OBSERVATOIRE DE PARIS
GUILLET Bruno, , Université de Caen Normandie (UCN)
LAMPIN JEAN-FRANÇOIS, , IEMN - Inst. d'Elec, de MIcro et de Nano
LECOEUR Philippe, , Université Paris Saclay
LOCQUET JEAN-PIERRE, , LEUVEN - KATHOLIEKE UNIVERSITEIT
ROY PASCALE, , Synchrotron SOLEIL
Résumé
Les propriétés des ondes térahertz (THz) offrent des perspectives pour relever les défis sociétaux du XXIᵉ siècle dans les domaines de la santé, de la sécurité et de l'énergie. Cette thèse examine l'utilisation de couches minces de La0.7Sr0.3MnO3 (LSMO) déposées sur silicium pour réaliser des détecteurs THz à température ambiante, en exploitant la variation de leur résistance électrique. Les détecteurs sont associés à des antennes planaires, exigeant une adaptation d’impédance optimale entre l’antenne et la couche mince. Dans ce but, les couches LSMO et leurs contacts électriques (Au/LSMO) ont été caractérisés en courant continu et dans le domaine radiofréquence (10 MHz à 325 GHz). En courant continu, l'étude révèle que de fortes résistances électriques de contact introduisent des comportements non-linéaires qui dégradent la lecture des détecteurs. Un recuit thermique associé à une géométrie adaptée du détecteur a permis de ramener les résistances de contact à un niveau négligeable, avec une résistance spécifique de 10⁻⁵ Ω·cm². L’analyse radiofréquence effectuée sur des lignes coplanaires chargées par du LSMO a montré que l’impédance du LSMO est réelle et que les résistances électriques de contact sont négligeables à ces fréquences. Ces résultats ont permis de concevoir des détecteurs couplés à une lentille diélectrique et de les tester à 640 GHz et 2.52 THz. Les performances mesurées se montrent prometteuses comparées à l’état de l’art, avec un NEP électrique de quelques pW/√Hz (limité par le bruit de phonons) et un temps de réponse de 0.1 ms. Le NEP optique, avoisinant 600 pW/√Hz dans la bande passante, pourrait être optimisé par une meilleure absorption du rayonnement.
Abstract
The properties of terahertz (THz) waves offer promising perspectives for addressing 21st-century societal challenges in the fields of health, security, and energy. This thesis investigates the use of La0.7Sr0.3MnO3 (LSMO) thin films deposited on silicon for the development of THz detectors operating at room temperature, by exploiting the variation in their electrical resistance. The films are coupled with planar antennas, requiring optimal impedance matching between the antenna and the thin film. In this context, the LSMO layers and their electrical contacts (Au/LSMO) were characterized in direct current and in the radiofrequency domain (10 MHz to 325 GHz). In direct current, the study reveals that high contact resistances introduce nonlinear behaviors that degrade detector reading. Thermal annealing combined with an optimized detector geometry allowed for contact resistances to be reduced to a negligible level, achieving a specific contact resistance of 10⁻⁵ Ω·cm². The radiofrequency analysis performed on coplanar lines loaded with LSMO showed that the LSMO impedance is real with no contact resistances. These findings enabled the design of detectors coupled with a dielectric lens, which were tested at 640 GHz and 2.52 THz. The performances are promising compared to the state of the art, with an electrical NEP of a few pW/√Hz (limited by phonons noise) and a response time of 0.1 ms. The optical NEP, around 600 pW/√Hz in the bandwidth, could be optimized through enhanced radiation absorption.

Smart Rοad Signs based trust management mοdels fοr cοοperative Ιntellgent Τranspοrtatiοn Systems

Doctorant·e
ABIDI Rihab
Direction de thèse
HOBLOS GHALEB (Directeur·trice de thèse)
BEN AZZOUNA NADIA (Co-directeur·trice de thèse)
Date de la soutenance
16/12/2024 à 14:00
Lieu de la soutenance
ESIGELEC
Rapporteurs de la thèse
BONNIN JEAN-MARIE IRISA RENNES
SIALA CHAOUACHI JOUHAINA Université de Carthage
Membres du jurys
BEN AZZOUNA NADIA, , Université de Tunis (Tunisie)
BONNIN JEAN-MARIE, , IRISA RENNES
EL MAHJOUB SONIA, , Ecole Nationale Vétérinaire Nantes (ONIRIS)
HOBLOS GHALEB, , ESIGELEC ROUEN
KRICHEN SAOUSSEN, , Université de Tunis (Tunisie)
SAHLI NABIL, , German University of Technology
SIALA CHAOUACHI JOUHAINA, , Université de Carthage
TROJET WASSIM, , Higher Colleges of Technology
Résumé
L'augmentation de la complexité des systèmes de circulation urbaine a rendu la congestion un défi majeur, entraînant des impacts économiques, environnementaux et sociaux considérables. Les Systèmes de Transport Intelligents (STIs) sont apparus comme une solution prometteuse pour atténuer ces défis en permettant une gestion dynamique du trafic. Cependant, la fiabilité des données au sein des STIs représente un enjeu de plus en plus important. L'introduction de données erronées par des capteurs défectueux ou malveillants peut entraîner des dysfonctionnements ou des perturbations intentionnelles du système. Dans ce contexte, les modèles de gestion de la confiance revêtent une importance cruciale. La plupart des modèles de confiance existants proposent des approches centrées sur les véhicules. Cependant, la forte mobilité et la nature dynamique des environnements des STIs affectent la stabilité et la scalabilité de ces systèmes. En conséquence, la proposition de nouveaux modèles de confiance conçus spécifiquement pour les STIs, afin d'améliorer la précision, la sécurité, la scalabilité et la stabilité de la diffusion des informations sur le trafic, constitue l'objectif global de cette thèse. Tout d'abord, nous avons proposé une architecture générique pour un cadre de modèle de gestion de la confiance, exploitant les Smart Road Signs (SRSs). La conception de cette architecture repose sur une étude approfondie de l'état de l'art. Cette architecture a ensuite été développée pour proposer deux nouveaux modèles de confiance. Le premier modèle, considère les informations contextuelles et l'agrégation. De plus, ce modèle prend en compte les informations contextuelles et l'agrégation des données provenant de multi-sources pour évaluer la fiabilité des événements de trafic signalés aux SRSs et des différents nœuds du réseau. De plus, le modèle applique une évaluation de confiance à deux niveaux en combinant l'inférence Bayésienne et une approche de somme pondérée dynamique. En outre, une inférence bayésienne basée sur la prédiction a été proposée pour améliorer la précision de l'évaluation de la confiance. Par la suite, un modèle de confiance en communication a été proposé, pour compléter la contribution précédente, en utilisant des métriques de Quality of Service (QoS) pour évaluer le comportement des SRSs. Ce modèle introduit un modèle de confiance auto-organisé pour suivre les comportements des SRSs et établir des environnements stables en utilisant Dempster Shafer Theory (DST) basée sur la logique floue. En effet, nous considérons un scénario plus réaliste où tous les nœuds sont vulnérables aux attaques et aux pannes. Ainsi, l'objectif principal de ce modèle est de garantir que le système reste opérationnel même dans des environnements hostiles, en atténuant la vulnérabilité des architectures de réseau centralisées, qui est le point de défaillance unique. Les modèles proposés ont été validés par des simulations, démontrant leur efficacité dans l'identification des nœuds malveillants et la réduction des rapports de trafic erronés. Les résultats montrent que la prise en compte de l'agrégation de données provenant de multi-sources et des informations contextuelles augmente la précision de l'évaluation de la confiance. De plus, l'adoption d'un modèle basé sur l'infrastructure, exploitant une architecture décentralisée et hiérarchique, améliore l'évolutivité et la stabilité des modèles de confiance, ce qui est adapté à un tel environnement.
Abstract
The increasing complexity of urban traffic systems has made congestion a significant challenge, leading to severe economic, environmental, and social impacts. Intelligent Transportation Systems (ITSs) have emerged as a promising solution to mitigate these challenges by enabling dynamic traffic management. However, the reliability of data within ITSs represents an increasingly significant challenge. The introduction of erroneous data by defective or malicious sensors can lead to malfunctions or intentional disruptions of the system. In this context, trust management models assume a crucial importance. Most of the existing trust models propose vehicle-centric approaches. However, the high mobility and dynamic nature of the ITS environments affects the stability and scalabity of such systems. Accordingly, proposing novel trust models designed specifically for ITSs to enhance the accuracy, security, scalability and stabilty of traffic information dissemination constitutes the overall goal of this thesis. First, we proposed a generic architecture for a trust framework, leveraging Smart Road Signs (SRSs). The conception of this architecture was built upon the output of a deep investigation of the state of the art. This framework has been, then, developed to propose two novel trust models. The first model, considers the contextual information and multi-source data aggregation to assess the trustworthiness of reported traffic events and the different nodes of the network. Additionally, the model applies a bi-level trust evaluation combining Bayesian Inference and a dynamic weighted sum approach. Furthermore, a predictive-based Baysian Inference was proposed to enhance the accuracy of trust evaluation. Thereafter, a communication trust model was proposed, to complement the previous contribution, using Quality of Service (QoS) metrics to evaluate the SRSs behaviour. This model introduces a self-organizing trust model to track the SRSs' behaviours and establishes stable environments using a fuzzy-based Dempster Shafer Theory (DST). In fact, we consider a more realistic scenario where all the nodes are vulnerable to attacks and failure. Thus, the main objective of this model is to ensure that the system remains operational even in hostile environments, by mitigating the inherent single point of failure vulnerability characteristic of centralized network architectures.\\ The proposed models were validated through simulations, showing their effectiveness in identifying malicious nodes and mitigating erroneous traffic reports. The results demonstrate that considering multi-source data aggregation and context-aware information increases the accuracy of trust evaluation. Furthermore, the adoption of an infrastructure-based framework leveraging a decentralized and hierarchical architecture enhances the scalability and stability of the trust models, which is suitable for such environment.

Ρarametric estimatiοn fοr a class οf multidimensiοnal affine prοcesses

Doctorant·e
DAHBI Houssem
Direction de thèse
BEN ALAYA MOHAMED (Directeur·trice de thèse)
KHENISSI MOEZ (Co-directeur·trice de thèse)
Date de la soutenance
13/12/2024 à 14:00
Lieu de la soutenance
Rouen
Rapporteurs de la thèse
ALFONSI AURELIEN
CLEMENT EMMANUELLE Universite Gustave Eiffel
MASMOUDI AFIF Université de SFAX (Tunisie)
Membres du jurys
ALFONSI AURELIEN, ,
BEN ALAYA MOHAMED, , Université de Rouen Normandie (URN)
CLEMENT EMMANUELLE, , Universite Gustave Eiffel
FATHALLAH HAMDI, , Université de Sousse
KHENISSI MOEZ, , Université de Sousse
LOUHICHI SANA, , Universite Grenoble Alpes
MASMOUDI AFIF, , Université de SFAX (Tunisie)
PERGAMENCHTCHIKOV SERGUEI, , Université de Rouen Normandie (URN)
Résumé
Cette thèse traite l'inférence statistique de quelques processus de diffusion affine dans \( \R^m_+ \times \R^n \), avec $m,n\in\N$. Cette sous-classe de diffusions, notée par $\textit{AD}(m,n)$, est appliquée à la tarification des options sur obligations et des actions, ce qui est illustré pour les modèles de Vasicek, Cox-Ingersoll-Ross (CIR) et Heston. Dans cette thèse, nous considérons deux différents modèles: le premier lorsque \( m = 1 \) et \( n \in \mathbb{N} \) et le deuxième lorsque \( m = 2 \) et \( n = 1 \). Pour le modèle $\mathit{AD}(1, n)$, nous introduisons, au Chapitre 2, un résultat de classification où nous distinguons trois cas différents : sous-critique, critique et surcritique. Ensuite, nous étudions la stationnarité et l'ergodicité de sa solution sous certaines hypothèses sur les paramètres du drift. Pour le problème d'estimation paramétrique, nous utilisons deux méthodes différentes : l'estimation par maximum de vraisemblance (MLE) et l'estimation des moindres carrés conditionnels (CLSE). Au Chapitre 2, nous présentons l'estimateur obtenu par la méthode MLE basée sur des observations en temps continu et nous étudions sa consistance et son comportement asymptotique dans des cas ergodiques et non-ergodiques particuliers. Au Chapitre 3, nous présentons l'estimateur obtenu par la méthode CLSE basée sur des observations en temps continu puis discret avec haute fréquence et horizon infini et nous étudions sa consistance et son comportement asymptotique dans des cas ergodiques et non-ergodiques particuliers. Il est à noter ici que nous obtenons les mêmes résultats asymptotiques que dans le cas continu sous des hypothèses supplémentaires sur le pas de discrétisation \( \Delta_N \). Au Chapitre 4, nous étudions le modèle $\mathit{AD}(2, 1)$, également appelé modèle de double Heston. Dans un premier temps, nous introduisons sa classification suivant les cas sous-critique, critique et surcritique. Dans un second temps, nous établissons les théorèmes de stationnarité et d'ergodicité y associés. Dans la partie statistique de ce chapitre, nous étudions les éstimateurs par la méthode MLE et la méthode CLSE du modèle de double Heston en se basant sur des observations en temps continu dans le cas ergodique et nous introduisons les théorèmes de consistance et de normalité asymptotique pour chaque estimateur obtenu.
Abstract
This thesis deals with statistical inference of some particular affine diffusion processes in the state space $\R_+^m\times\R^n$, where $m,n\in\N$. Such subclass of diffusions, denoted by $\mathit{AD}(m,n)$, is applied to the pricing of bond and stock options, which is illustrated for the Vasicek, Cox-Ingersoll-Ross (CIR) and Heston models. In this thesis, we consider two different cases : the first one is when $m=1$ and $n\in\N$ and the second one is when $m=2$ and $n=1$. For the $\mathit{AD}(1,n)$ model, we introduce, in Chapter 2, a classification result where we distinguish three different cases : subcritical, critical and supercritical. Then, we study the stationarity and the ergodicity of its solution under some assumptions on the drift parameters. For the parameter estimation problem, we use two different methods: the maximum likelihood estimation (MLE) and the conditional least squares estimation (CLSE). In Chapter 2, we present the estimator obtained by the MLE method based on continuous time observations and we study its consistency and its asymptotic behavior in ergodic and particular non-ergodic cases. In Chapter 3, we present the estimator obtained by the CLSE method based on continuous then discrete time observations with high frequency and infinite horizon and we study its consistency and its asymptotic behavior in ergodic and particular non-ergodic cases. It is worth to note here that we obtain the same asymptotic results in both discrete and continuous sets under additional assumptions on the discretization step $\Delta_N$. In Chapter 4, we study the $\mathit{AD}(2,1)$ model, called also double Heston model, we introduce first its classification with respect to subcritical, critical and supercritical case and we establish the relative stationarity and ergodicity theorems. In the statistical part of this chapter, we study the MLE and the CLSE of the ergodic double Heston model based on continuous time observations and we introduce its consistency and asymtotic normality theorems for each estimation method.

Ηybrid mοdels cοmbining deep neural representatiοns and nοn-parametric patch-based methοds fοr phοtοrealistic image generatiοn

Doctorant·e
SAMUTH Benjamin
Direction de thèse
TSCHUMPERLE DAVID (Directeur·trice de thèse)
RABIN Julien (Co-directeur·trice de thèse)
Date de la soutenance
13/12/2024 à 14:30
Lieu de la soutenance
Salle des thèses, UFR Sciences, Campus 2, Caen
Rapporteurs de la thèse
CHAINAIS PIERRE ECOLE CENTRALE LILLE
GOUSSEAU YANN Telecom Paris
Membres du jurys
CHAINAIS PIERRE, , ECOLE CENTRALE LILLE
GOUSSEAU YANN, , Telecom Paris
JURIE Frederic, , Université de Caen Normandie (UCN)
PAPADAKIS NICOLAS, , CNRS
RAAD LARA, Maître de conférences, Université publique - Montevideo
RABIN Julien, Maître de conférences HDR, ENSICAEN
TSCHUMPERLE DAVID, , CNRS
Résumé
Le domaine de la génération d'images a récemment connu de fortes avancées grâce aux rapides évolutions des modèles neuronaux profonds. Leur succès ayant atteint une portée au-delà de la sphère scientifique, de multiples inquiétudes et questionnements se sont légitimement soulevées quant à leur fonctionnement et notamment l'usage de leurs données d'entraînement. En effet, ces modèles sont si volumineux en paramètres et coûteux en énergie qu'il en devient difficile d'offrir des garanties et des explications concrètes. À l'inverse, des modèles légers et explicables seraient souhaitables pour répondre à ces nouvelles problématiques, mais au coût d'une qualité et flexibilité de génération moindre. Cette thèse explore l'idée de construire des « modèles hybrides », qui combineraient intelligemment les qualités des méthodes légères ou frugales avec les performances des réseaux profonds. Nous étudions d'abord le cas du transfert de style artistique à l'aide d'une méthode contrainte, multi-échelle, et à patchs. Nous déterminons alors qualitativement l'intérêt d'une métrique perceptuelle dans cette opération. Par ailleurs, nous développons deux méthodes hybrides de génération de visages photoréalistes, à l'aide d'un auto-encodeur pré-entraîné. Le premier s'attaque à la génération de visages avec peu d'échantillons à l'aide de patchs latents, montrant une notable robustesse et des résultats convaincants avec un simple algorithme séquentiel à patchs. Le second offre une solution à la généralisation de la tâche à une plus grande variétés de visages grâce à des modèles de mixtures de gaussiennes. En particulier, nous montrons que ces modèles offrent des performances similaires à d'autres modèles neuronaux, tout en s'affranchissant d'une quantité importante de paramètres et d'étapes de calculs.
Abstract
Image generation has encountered great progress thanks to the quick evolution of deep neural models. Their reach went beyond the scientific domain and thus multiple legitimate concerns and questions have been raised, in particular about how the training data are treated. On the opposite, lightweight and explainable models would be a fitting answer to these emerging problematics, but their quality and range of applications are limited. This thesis strives to build “hybrid models”. They would efficiently combine the qualities of lightweight or frugal methods with the performance of deep networks. We first study the case of artistic style transfer with a multiscale and constrained patch-based method. We qualitatively find out the potential of perceptual metrics in the process. Besides, we develop two hybrid models for photorealistic face generation, each built around a pretrained auto-encoder. The first model tackles the problem of few-shot face generation with the help of latent patches. Results shows a notable robustness and convincing synthesis with a simple patch-based sequential algorithm. The second model uses Gaussian mixtures models as a way to generalize the previous method to wider varieties of faces. In particular, we show that these models perform similarly to other neural methods, while removing a non-negligible number of parameters and computing steps at the same time.

Οbservatοire de la tactique en (e-)spοrt cοllectif

Doctorant·e
MORTELIER Alexis
Direction de thèse
RIOULT Francois (Directeur·trice de thèse)
Date de la soutenance
13/12/2024 à 14:00
Lieu de la soutenance
Salle des thèses
Rapporteurs de la thèse
DEVOGELE THOMAS Universite de Tours
IODICE PIERPAOLO UNIVERSITE LE MANS
KAYTOUE MEHDI Maître de conférences HDR INSA Lyon
Membres du jurys
BEN YAHIA SADOK, Maître de conférences, Université de Tunis - Tunisie
DEVOGELE THOMAS, , Universite de Tours
GUIGNARD BRICE, Maître de conférences, Université Claude Bernard - Lyon 1
IODICE PIERPAOLO, , UNIVERSITE LE MANS
KAYTOUE MEHDI, Maître de conférences HDR, INSA Lyon
LE BER FLORENCE, Directeur de recherche, ENGEES STRASBOURG
RIOULT Francois, Maître de conférences, Université de Caen Normandie (UCN)
Résumé
Cette thèse explore les dynamiques de jeu et les performances collectives en alternant entre les analyses de sports traditionnels, comme le handball, et des e-sports, tels que DotA2 et OverWatch. L'objectif est de segmenter le processus de traitement des données en plusieurs étapes, chacune apportant une compréhension spécifique. En adoptant une approche comparative entre sport et e-sport, ce travail non seulement distingue les différentes étapes de traitement des données, mais propose également une vue d'ensemble de l'analyse du (e-)sport. La première contribution réside dans le développement de techniques de représentation des matchs de handball à l’aide de graphes dynamiques, ainsi que dans la simplification des trajectoires dans DotA2 grâce à des indices géométriques. Ces méthodes permettent une meilleure visualisation et compréhension des mouvements collectifs.La deuxième contribution se concentre sur la définition et le calcul de métriques de performance, essentielles pour l'apprentissage automatique. Des modèles d’expected goal (xG) pour le handball et des facteurs d’engagement dans OverWatch ont été élaborés pour servir de cibles aux algorithmes. La troisième contribution est la création d’un observatoire tactique dédié au handball, et l'étude des configurations géométriques dans DotA2 qui mènent à des événements clés. Ces analyses approfondissent la compréhension des tactiques qui influencent le déroulement des matchs.
Abstract
This thesis explores game dynamics and collective performance by alternating between analyses of traditional sports, such as handball, and e-sports, such as DotA2 and OverWatch. The aim is to segment the data processing process into several stages, each providing a specific understanding. By adopting a comparative approach between sport and e-sport, this work not only distinguishes the different stages of data processing, but also offers an overview of (e-)sport analysis. The first contribution is the development of techniques for representing handball matches using dynamic graphs, and the simplification of trajectories in DotA2 using geometric indices. The second contribution focuses on the definition and calculation of performance metrics, essential for machine learning. Expected goal (xG) models for handball and commitment factors in OverWatch have been developed as targets for algorithms. The third contribution is the creation of a tactical observatory dedicated to handball, and the study of geometric configurations in DotA2 that lead to key events. These analyses deepen our understanding of the tactics that influence the course of matches.

Cοncrete security οf sοme lattice-based cryptοgraphic cοnstructiοns

Doctorant·e
NGUYEN Thi Thu Quyen
Direction de thèse
ROUX-LANGLOIS Adeline (Directeur·trice de thèse)
GIRAUD CHRISTOPHE (Co-directeur·trice de thèse)
WALLET ALEXANDRE (Co-encadrant·e de thèse)
Date de la soutenance
12/12/2024 à 14:00
Lieu de la soutenance
Campus 2, Université Caen
Rapporteurs de la thèse
EL MRABET Nadia ENSM ST ETIENNE
LAGUILLAUMIE Fabien Université de Montpellier
Membres du jurys
COUVREUR ALAIN, , INRIA Paris
EL MRABET Nadia, , ENSM ST ETIENNE
GIRAUD CHRISTOPHE, , IDEMIA
LAGUILLAUMIE Fabien, , Université de Montpellier
PELLET-MARY ALICE, Chargé de recherche, CNRS
ROUX-LANGLOIS Adeline, Directeur de recherche, Université de Caen Normandie (UCN)
WALLET ALEXANDRE, Chargé de recherche, IRISA/INRIA Rennes
Résumé
Cette thèse est préparée entre 2021 et 2024, période qui marque le début de la transition postquantique de la cryptographie à clé publique. De manière générale, la transition post-quantique se réfère à la migration de la cryptographie à clé publique classique vers une cryptographie résistante aux attaques quantiques. Cette thèse aborde certains sujets spécifiques dans la cryptographie fondées sur les réseaux Euclidiens, en particulier, la sécurité concrète de certaines constructions cryptographiques basées sur les réseaux: la signature Mitaka and le KEM Kyber. Dans l’ordre chronologique, nous avons examiné la possibilité d’améliorer la qualité de sécurité des trappes NTRU pour l’échantillonneur hybride (ce dernier étant l’échantillonneur Gaussien discret utilisé dans la signature Mitaka – une variante élégamment simplifiée du futur standard Falcon). Cela a conduit au nouveau algorithme de génération de trappes Antrag qui fournit à l’échantillonneur hybride de meilleures trappes, améliorant ainsi la sécurité des signatures produites par cet échantillonneur. La deuxième contribution concerne l’investigation de la possibilité de casser Kyber à partir d’une trace unique de puissance d’une fonction non protégée pendant le processus de génération de clés. Cela se conclut par une réponse positive pour le cas de Kyber-512.
Abstract
This thesis is prepared between 2021 and 2024 which is a period that witnesses the beginning of the post-quantum transition of the public-key cryptography. Generally speaking, post-quantum transition refers to the migration from classical public-key cryptography to a quantum-resistant one. This thesis addresses some specific topics in lattice-based cryptography, in particular, the concrete security of some lattice-based cryptographic constructions: the signature Mitaka and and the KEM Kyber. In chronological order, we investigated the possibility of improving the security quality of NTRU trapdoors for hybrid sampler (the later is the discrete Gaussian sampler used in the signature Mitaka – an elegantly simplified variant of the future standard Falcon). This led to the new trapdoor generation algorithm Antrag that provides hybrid samplers with better trapdoors, improving the security of the signatures outputted from hybrid samplers. The second contribution involves the investigation of the possibility of breaking Kyber from a single power trace. More precisely, we analysed the power trace of an unprotected function in Kyber’s key generation. The investigation is concluded with a positive answer for the case of Kyber-512.

Cοοrdinatiοn d'une flοtte hétérοgène de rοbοts pοur la récοlte d'infοrmatiοn dans un envirοnnement incοnnu

Doctorant·e
GANDOIS Alvin
Direction de thèse
MOUADDIB Abdel-Illah (Directeur·trice de thèse)
AL FALOU Ayman (Co-directeur·trice de thèse)
Date de la soutenance
11/12/2024 à 10:30
Lieu de la soutenance
Université de Caen Normandie
Rapporteurs de la thèse
BEYNIER AURÉLIE Maître de conférences UNIVERSITE PARIS 6 PIERRE ET MARIE CURIE
CHARPILLET FRANCOIS UNIVERSITE NANCY 1 HENRI POINCARE
Membres du jurys
AL FALOU Ayman, Directeur de recherche, INST SUP D'ELECTRONIQUE, DU NUMERIQUE
BEYNIER AURÉLIE, Maître de conférences, UNIVERSITE PARIS 6 PIERRE ET MARIE CURIE
CHARPILLET FRANCOIS, , UNIVERSITE NANCY 1 HENRI POINCARE
LE GLOANNEC SIMON, , INST SUP D'ELECTRONIQUE, DU NUMERIQUE
MOUADDIB Abdel-Illah, , Université de Caen Normandie (UCN)
SABBADIN REGIS, , INRA DE TOULOUSE
Résumé
Dans cette thèse, nous étudions le problème de la récolte d'information dans un environnement inconnu et partiellement observable avec des agents hétérogènes. Nous considérons un environnement composé de différents points d'intérêt, avec pour objectif de coordonner des agents hétérogènes dans le but de récolter de l'information sur ces points d'intérêt. L'hétérogénéité des agents peut apparaître sous différentes formes : plusieurs agents ayant des capacités d'observation différentes, des capacités d'embarquement différentes, des ressources différentes, ou bien un seul agent embarquant plusieurs capteurs hétérogènes. Dans un premier temps, nous avons proposé un modèle de récolte d'information avec plusieurs agents hétérogènes dans un environnement partiellement observable mais topologiquement connu. Ce modèle, que nous avons nommé Meta-MDP, est basé sur les processus décisionnels de Markov, et fonctionne en deux parties : premièrement, pour chaque agent et chaque point d'intérêt, nous calculons une politique pour récolter de l'information sur ce point. Ensuite, nous calculons une politique d'allocation des points d'intérêts aux agents de manière à optimiser la récolte d'information sur le long terme. Nous avons ensuite étendu ce modèle au cas où nous avons un agent embarquant plusieurs capteurs hétérogènes (typiquement un capteur laser et une caméra) dans un environnement inconnu dans le but de construire une carte de l'environnement tout en récoltant de l'information sur les éventuels points d'intérêt.
Abstract
In this thesis, we study the problem of information gathering in an unknown and partially observable environment with heterogeneous agents. We consider an environment containing a set of interest points, with the objective of coordinating heterogeneous agents in order to gather information on these points. The heterogeneity of the agents can manifest in various ways: multiple agents with different observation capacities, different transport capabilities, varying resources, or a single agent equipped with multiple heterogeneous sensors. We started by proposing a model to gather information with multiple heterogeneous agents in a partially observable yet topologically known environment. This model, which we have named Meta-MDP, is based on Markov decision processes and operates in two stages: first, for each agent and each interest point, we calculate a policy to gather information on that particular point. Then, we compute a policy for allocating interest points to agents in a way that optimizes long-term information gathering. Then, we extended this model to the case where a single agent, equipped with multiple heterogeneous sensors (typically a laser sensor and a camera), operates in an unknown environment with the goal of building a map of the environment while simultaneously gathering information on potential interest points.

Annοtatiοn autοmatique du sοmmeil par classifieurs définis sur la variété des matrices SDΡ

Doctorant·e
SERAPHIM Mathieu
Direction de thèse
BRUN Luc (Directeur·trice de thèse)
ETARD Olivier (Co-directeur·trice de thèse)
Date de la soutenance
11/12/2024 à 09:00
Lieu de la soutenance
Bât Science 3, salle des thèses 1er étage. Boulevard du Maréchal Juin CS 14032 14032 Caen Cedex 5
Rapporteurs de la thèse
ACHARD SOPHIE Universite Grenoble Alpes
CHEVALLIER SYLVAIN Université Paris Saclay
Membres du jurys
ACHARD SOPHIE, , Universite Grenoble Alpes
BRUN Luc, , ENSICAEN
CHEVALLIER SYLVAIN, , Université Paris Saclay
DUPÉ FRANÇOIS-XAVIER, Maître de conférences, Aix-Marseille université
ETARD Olivier, , Université de Caen Normandie (UCN)
LECHERVY Alexis, Maître de conférences, Université de Caen Normandie (UCN)
Résumé
L'annotation de l'état de sommeil d'un sujet à partir de signaux électroencéphalographiques (EEG) est un processus coûteux. Par conséquent, de nombreuses approches d'automatisation ont été proposées, notamment en apprentissage profond. Néanmoins, celles-ci n'ont pas encore atteint un niveau de performance suffisant pour voir une utilisation clinique, notamment au vu des différences entre enregistrements EEG, et des difficultés à classifier des enregistrements issus d'un environnement différent. Dans cette thèse, nous nous attaquons à ce problème sous un nouvel angle, en représentant chaque subdivision temporelle (ou « époque ») des signaux EEG par une série de matrices de covariance. Ces matrices, pourtant utilisées en analyse EEG pour les interfaces cerveau-machine (ICM), sont absentes en annotation du sommeil. Elles sont généralement symétriques définies positives (SDP), avec l'ensemble des matrices SDP formant un variété riemannienne non-euclidienne. De fait, analyser cet ensemble à l'aide d'opérations euclidiennes introduit des artefacts de calcul~; d'où la nécessité d'employer des opérations riemanniennes respectant la courbure de cet espace. Pour ce faire, nous construisons un modèle profond de type Transformer, modifié pour permettre l'analyse de séquences de matrices SDP tout en respectant la structure de la variété. Nous démontrons que cette approche est non seulement performante, mais résulte également en un modèle résilient au changement de base de données.
Abstract
The scoring of a subject's sleep stages from electroencephalographic (EEG) signals is a costly process. As such, many approaches to its automation have been proposed, including ones based on Deep Learning. However, said approaches have yet to attain a level of performance good enough for use in clinical settings, in part due to the high variability between EEG recordings, and the challenges inherent to the classification of signals recorded in different environments. In this thesis, we tackle this issue through a novel angle, by representing each epoch within our EEG signals as a timeseries of covariance matrices. Said matrices, although a common tool for EEG analysis in Brain-Computer Interfaces (BCI), are not typically utilized in sleep stage scoring. Covariance matrices tend to be symmetric positive definite (SPD), with the set of SPD matrices forming a non-Euclidean Riemannian manifold. As such, a Euclidean analysis of SPD matrices leads to computational artifacts, hence the need to utilize Riemannian operations instead, i.e. operations that respect the curvature of the manifold. To do so, we develop a Transformer-style deep neural network, modified to allow for the analysis of sequences of SPD matrices while still conforming to the structure of the manifold. From there, we demonstrate both the high level of performance of this approach, and its resilience to dataset changes.

A visiοn-based mixed-reality framewοrk fοr testing autοnοmοus driving systems

Doctorant·e
ARGUI IMANE
Direction de thèse
AINOUZ SAMIA (Directeur·trice de thèse)
GUERIAU MAXIME (Co-encadrant·e de thèse)
Date de la soutenance
10/12/2024 à 10:00
Lieu de la soutenance
INSA Rouen Normandie
Rapporteurs de la thèse
FREMONT VINCENT Ecole Centrale Nantes
STRAUSS OLIVIER Université de Montpellier
Membres du jurys
AINOUZ SAMIA, , INSA de Rouen Normandie
FREMONT VINCENT, , Ecole Centrale Nantes
GUERIAU MAXIME, , INSA de Rouen Normandie
HACHEMI HIND, , INSA de Rouen Normandie
SPALANZANI ANNE, , Université Grenoble Alpes
STRAUSS OLIVIER, , Université de Montpellier
Résumé
Cette thèse explore le développement et la validation des systèmes de navigation autonome dans un environement de réalité mixte (RM), avec pour objectif de combler l’écart entre la simulation virtuelle et les tests en conditions réelles. Les travaux mettent l’accent sur le potentiel des environnements en réalité mixte pour tester les systèmes autonomes de manière sûre, efficace et économique. La thèse est structurée en plusieurs parties, et commence par une revue des technologies de pointe dans la navigation autonome et les applications en réalité mixte. En utilisant des modèles à base de règles et des modèles d’apprentissage, des expérimentations visent à évaluer les performances des robots autonomes dans des environnements simulés, réels et de RM. Un des objectifs principaux est de réduire le « reality gap »—c’est-à-dire la différence entre les comportements observés en simulation et ceux observés dans des applications réelles—en intégrant des éléments réels avec des composants virtuels dans des envi- ronnements de RM. Cette approche permet des tests et une validation plus proche des contraintes réelles sans les risques associés aux essais physiques. Une partie importante du travail est consacrée à la mise en œuvre et au test d’une stratégie d’augmentation hors ligne visant à améliorer les capacités de perception des systèmes autonomes à l’aide des informations de profondeur. De plus, l’apprentissage par renforcement est appliqué pour évaluer son potentiel dans les environnements de RM. La thèse démontre que ces modèles peuvent apprendre effi- cacement à naviguer et à éviter les obstacles dans des simulations virtuelles et obtenir des résultats similaires lorsqu’ils sont transférés dans des environnements de RM, soulignant la flexibilité du cadre pour différents modèles de systèmes autonomes. À travers ces expériences, la thèse montre le potentiel des environnements de réalité mixte comme une plateforme polyvalente et robuste pour faciliter le développement des technologies de navigation autonome, offrant une approche plus sûre et plus évolutive pour la validation des modèles avant leur déploiement dans le monde réel.
Abstract
This thesis explores the development and validation of autonomous navigation systems within a mixed-reality (MR) framework, aiming to bridge the gap between virtual simulation and real-world testing. The research emphasizes the potential of MR environments for safely, efficiently, and cost-effectively testing autonomous systems. The thesis is structured around several chapters, beginning with a review of state-of-the-art technologies in autonomous navigation and mixed-reality applications. Through both rule-based and learning-based models, the research investigates the performance of autonomous robots within simulated, real, and MR environments. One of the core objectives is to reduce the "reality gap"—the discrepancy between behaviors observed in simulations versus real-world applications—by integrating real- world elements with virtual components in MR environments. This approach allows for more accurate testing and validation of algorithms without the risks associated with physical trials. A significant part of the work is dedicated to implementing and testing an offline augmentation strategy aimed at enhancing the perception capabilities of autonomous systems using depth information. Furthermore, reinforcement learning (RL) is applied to evaluate its potential within MR environments. The thesis demonstrates that RL models can effectively learn to navigate and avoid obstacles in virtual simulations and perform similarly well when transferred to MR environments, highlighting the framework’s flexibility for different autonomous system models. Through these experiments, the thesis establishes MR environments as a versatile and robust platform for advancing autonomous navigation technologies, offering a safer, more scalable approach to model validation before real-world deployment.

Cοde-Based Cryptοgraphy: Ηard Ιnstances fοr Decοding Ρrοblems

Doctorant·e
BURLE Etienne
Direction de thèse
OTMANI AYOUB (Directeur·trice de thèse)
Date de la soutenance
10/12/2024 à 14:00
Lieu de la soutenance
UFR Sciences et Techniques (Madrillet) - Université de Rouen Normandie
Rapporteurs de la thèse
LOIDREAU PIERRE UNIVERSITE RENNES 1
SENDRIER NICOLAS
Membres du jurys
BARDET MAGALI, , Université de Rouen Normandie (URN)
DEBRIS ALAZARD THOMAS, , Centre Regional de l'Inria Saclay Ile de France
GABORIT PHILIPPE, , Université de Limoges
LOIDREAU PIERRE, , UNIVERSITE RENNES 1
OTMANI AYOUB, , Université de Rouen Normandie (URN)
SENDRIER NICOLAS, ,
TILLICH JEAN-PIERRE, ,
ZEMOR GILLES, , Universite de Bordeaux
Résumé
La sécurité des schémas cryptographiques à clef publique couramment utilisés repose sur la difficulté de problèmes de théorie des nombres. Mais depuis la découverte de l'algorithme quantique de Shor en 1994, on sait qu'un ordinateur quantique pourrait résoudre ces problèmes en temps polynomial. De là la nécessité de construire des primitives cryptographiques dont la sécurité repose sur des problèmes qui résistent à l'ordinateur quantique. Un des principaux candidats est le problème de décodage, qui est à la base de la cryptographie basée sur les codes correcteurs d'erreur. Cette thèse est une contribution pour améliorer la confiance que l'on peut avoir en la difficulté de ce problème et en ses applications cryptographiques. En premier lieu, grâce à une réduction pire cas-cas moyen, nous démontrons qu'à partir d'un code arbitraire quelconque il est possible de générer des distributions pseudoaléatoires de codes aussi dures à décoder que le code arbitraire préalablement choisi. Nous prouvons ce résultat pour la métrique de Hamming, puis nous l'adaptons au problème de décodage en métrique rang. Dans les deux cas le principal outil pour obtenir la réduction est la construction de codes pseudoaléatoires dont la distance minimale est linéaire. En second lieu, nous construisons un schéma de chiffrement à clef publique en métrique rang dont la sécurité repose uniquement sur des hypothèses de sécurité classiques et qui possède la particularité d'avoir une clef publique statistiquement indistinguable de l'uniforme pour certaines zones de paramètres. Cette construction se base sur une généralisation des codes LRPC (Low Rank Parity Check) et sur l'approche multidimensionnelle qui consiste à décoder simultanément plusieurs mots de codes paratageant le même support. Nous améliorons également la borne supérieur théorique de la probabilité d'erreur lors du décodage des codes LRPC.
Abstract
The security of public key cryptographic schemes that are currently used rely on the hardness of number theory problems. However, we know that a quantum computer could solve these problems in polynomial time since the discovery of Shor's algorithm in 1994. That is why we need to construct cryptographic primitives whose security relies on problems which resist to quantum computers. For that purpose, one of the main candidate is the decoding problem which is at the basis of code-based cryptography. This thesis is a contribution to strengthen the trust we can have in the hardness of this problem and in its cryptographic applications. Firstly, we show that from any arbitrary code it is possible to construct a distribution of pseudorandom codes that are at least as hard to decode as the priorly chosen arbitrary code thanks to a worst-case to average-case reduction. We prove this result in Hamming metric before adapting it in the rank metric context. In both cases, the main tool for getting the reduction is the construction of pseudorandom codes whose minimum distance is linear. Secondly, we build a rank-based public key encryption scheme whose security relies only on classical security assumptions. This scheme also has the particularity to get public keys which are statistically indistinguishable from the uniform for some zones of parameters. Its construction is based on a generalisation of LRPC (Low Rank Parity Check) codes and on the multidimensional approach which consists in decoding simultaneously several codewords sharing the same support. We also improve the theoretical upper bound of the probability of failure when decoding LRPC codes.

Οptimisatiοn des stratégies d'anticipatiοn lοrs des cοups de pieds arrêtés en fοοtball

Doctorant·e
LIBREAU Clement
Direction de thèse
BENGUIGUI Nicolas (Directeur·trice de thèse)
Date de la soutenance
10/12/2024 à 14:00
Lieu de la soutenance
Université Caen Normandie
Rapporteurs de la thèse
CRAIG CATHY COLERAINE - UNIVERSITY OF ULSTER
MONTAGNE GILLES Aix-Marseille université
Membres du jurys
BENGUIGUI Nicolas, , Université de Caen Normandie (UCN)
BUEKERS MARTINUS, , LEUVEN - KATHOLIEKE UNIVERSITEIT
CRAIG CATHY, , COLERAINE - UNIVERSITY OF ULSTER
MONTAGNE GILLES, , Aix-Marseille université
RIOULT Francois, Maître de conférences, Université de Caen Normandie (UCN)
ZOUDJI BACHIR, , Université polytechnique Hauts de France
Résumé
Dans le sport moderne, l’analyse scientifique des performances s’est largement développée. Dans le football, ces analyses apportent de plus en plus de données à haut potentiel pour l’optimisation des performances. C’est le cas notamment pour l’analyse des performances sur coups de pieds arrêtés et particulièrement des corners, ce qui permet aujourd’hui de disposer de nombreuses données sur ces phases de jeu pour mieux les comprendre et potentiellement les améliorer à l’entrainement. Il faut noter que la plupart des études portent sur le football masculin et qu’il y a un vrai manque pour le football féminin. De plus, il existe très peu d’études qui ont abordé les possibilités d’amélioration des performances à partir de ces bases de données. Dans le cadre de cette thèse CIFRE, réalisée en collaboration entre l'Université de Caen-Normandie et le club de football du Montpellier Hérault Sport Club (MHSC), où je suis rattaché à l'équipe professionnelle féminine, nous avons structuré notre démarche empirique en nous appuyant sur la démarche d’analyse de la performance experte proposée par Williams et Ericsson (2005). Cette approche repose sur trois étapes : la capture de la performance experte, l’identification des mécanismes sous-jacents qui expliquent cette performance, et l'examen des processus d’entrainement qui contribuent au développement de cette expertise. Dans ce cadre, nous avons mené une première étude visant à analyser les différents corners tirés lors des matchs de championnat afin d'identifier les variables permettant de maximiser la performance en termes de tirs et de buts. Les meilleures performances sont réalisées quand le corner est tiré avec un effet rentrant (c’est-à-dire avec une courbe qui se rapproche du but) dans les zones du premier poteau et du point de penalty. Ces résultats ont ensuite été exploités dans le but d’améliorer la performance en mettant en place deux phases d’entraînement distinctes. La première phase consistait en un protocole d’entraînement global sur le terrain avec l'équipe féminine du MHSC, visant à optimiser leur performance lors des corners pendant les matchs de championnat. La seconde phase reposait sur un entraînement spécifique basé sur l’utilisation de la vidéo. Durant cette phase, les joueuses ont été entrainées avec des vidéos de corners filmées à la première personne dans lesquelles elles devaient de prédire la zone d'arrivée du ballon après occultation de la dernière partie de la trajectoire. L'objectif de ces deux phases d’entraînement était d'améliorer leur performance à travers l’optimisation de leurs capacités perceptivo-décisionnelles et motrices. Cela a non seulement permis d’améliorer les performances des joueuses lors des corners à l’entraînement, aussi dans les performances en matchs officiels. Ces résultats confirment le potentiel de ces protocoles d'entraînement et contribuent à une meilleure compréhension des stratégies d'anticipation, notamment en ce qui concerne la coordination avec la joueuse qui tire le corner et la prédiction des trajectoires de ballon.
Abstract
In modern sport, the scientific analysis of performance has developed considerably. In football, these analyses are providing more and more data with high potential for optimising performance. This is particularly the case for the analysis of set-piece performance, and corner kicks in particular, which means that we now have a wealth of data on these phases of the game, enabling us to understand them better and potentially improve them in training. It should be noted that most studies focus on men's football and that there is a real lack of data on women's football. In addition, there are very few studies that have looked at the potential for improving performance using these databases. As part of this CIFRE thesis, carried out in collaboration between the University of Caen-Normandie and the Montpellier Hérault Sport Club (MHSC) football club, where I am attached to the women's professional team, we structured our empirical approach based on the expert performance analysis approach proposed by Williams and Ericsson (2005). This approach is based on three stages: capturing expert performance, identifying the underlying mechanisms that explain this performance, and examining the training processes that contribute to the development of this expertise. Within this framework, we conducted an initial study aimed at analysing the various corners taken during league matches in order to identify the variables that maximise performance in terms of shots and goals. The best performances were achieved when the corner was taken with an inward curve (i.e. with a curve approaching the goal) in the areas of the near post and the penalty spot. These results were then used to improve performance by implementing two separate training phases. The first phase consisted of a comprehensive on-field training protocol with the MHSC women's team, aimed at optimising their performance during penalty corners in league matches. The second phase involved specific training based on the use of video. During this phase, the players were trained with videos of corners filmed in the first person to predict the ball’s arrival zone after the final part of the trajectory has been occluded. The aim of these two training phases was to improve their performance by optimising their perceptual-decisional and motor skills. This not only improved the players' performance in training corners, but also their performance in official matches. These results confirm the potential of these training protocols and contribute to a better understanding of anticipation strategies, particularly in terms of coordination with the player taking the corner and predicting ball trajectories.

Cοntributiοns tο Advanced Dynamic Graph Νeural Νetwοrks

Doctorant·e
YANG Leshanshui
Direction de thèse
ADAM SÉBASTIEN (Directeur·trice de thèse)
CHATELAIN CLEMENT (Co-directeur·trice de thèse)
Date de la soutenance
06/12/2024 à 13:30
Lieu de la soutenance
UFR Sciences et Techniques, Amphithéâtre D, Av. de l'Université 76800 Saint-Étienne-du-Rouvray
Rapporteurs de la thèse
RAGOT NICOLAS Universite de Tours
RAMEL JEAN-YVES Université Savoie Mont Blanc
Membres du jurys
ADAM SÉBASTIEN, , Université de Rouen Normandie (URN)
BRUN LUC, , ENSICAEN
CHATELAIN CLEMENT, , INSA de Rouen Normandie
RAGOT NICOLAS, , Universite de Tours
RAMEL JEAN-YVES, , Université Savoie Mont Blanc
VERNET MATHILDE, , Universite Avignon Pays du Vaucluse
Résumé
Ce manuscrit présente les recherches menées dans le cadre d'une thèse CIFRE réalisée en partenariat entre le LITIS et Saagie. Les représentations à base de Graphes Dynamiques (DG), qui intègrent à la fois des informations topologiques et temporelles, sont de plus en plus utilisées pour modéliser des systèmes dynamiques tels que les réseaux sociaux, les systèmes de recommandation et les réseaux de transactions. Les réseaux de neurones sur graphes dynamiques (DGNN) sont récemment devenus l'approche à l'état de l’art dans ce domaine, avec une multitude de modèles proposés. Cependant, l'hétérogénéité et la complexité des DGs présentent des défis significatifs dans la formulation des tâches prédictives et la catégorisation des architectures DGNNs. Dans cette thèse, nous abordons d'abord le manque d'un cadre global pour définir et catégoriser les tâches prédictives sur les graphes dynamiques. Nous proposons une taxonomie qui prend en compte des facteurs tels que le graphe dynamique soit en temps discret ou en temps continu, la nature transductive ou inductive de la tâche, et la granularité de la sortie. Cette taxonomie clarifie les distinctions entre les différents contextes d'apprentissage sur les graphes dynamiques et les aligne avec les applications et jeux de données pertinents. En nous appuyant sur cette base, nous explorons la conception de modèles statistiques capables d'extraire les informations clés des graphes dynamiques. Nous introduisons une taxonomie des modèles DGNNs basée sur la manière dont ils intègrent l'information temporelle et examinons leur compatibilité avec différents contextes d'apprentissage, fournissant ainsi des pistes pour la conception et l'optimisation des DGNNs. Malgré les avancées dans la conception des DGNNs, de nombreux encodeurs de graphes ont une expressivité limitée. Les convolutions de graphes conçues spectralement, connues pour offrir une plus grande expressivité sur les graphes statiques en filtrant les valeurs propres du Laplacien pour calculer les noyaux de convolution, restent largement inexplorées sur les graphes dynamiques en temps discret (DTDG). Pour améliorer l'expressivité des DGNNs, nous introduisons le Dynamic Spectral-Parsing Graph Neural Network (DspGNN), un nouveau modèle qui optimise la convolution de graphes statiques conçue spectralement sur les DTDGs et qui répond aux défis computationnels de la décomposition spectrale sur de grands DTDGs. Les résultats expérimentaux montrent que DspGNN surpasse les modèles de référence sur les tâches de régression d'attributs d'arêtes et atteint des performances à l'état de l'art sur les tâches de prédiction de liens. Enfin, nous abordons la problématique de l'encodage des nouveaux nœuds émergents dans les graphes dynamiques sans attributs, une situation courante dans les tâches de détection d'anomalies. Nous proposons le Dual-Contextual Inductive Dynamic Graph Transformer (DCIDGT), qui capture à la fois les contextes global et local pour la détection d'anomalies. Au cœur de cette approche se trouve notre mécanisme d'Accumulative Causal Walk Alignment (ACWA), assurant l'alignement sémantique des embeddings de nœuds à travers les instantanés en résolvant le problème d'Orthogonal Procrustes. Les résultats expérimentaux montrent que DCIDGT surpasse significativement les modèles de référence dans la tâche de détection d'anomalies sur les arêtes, ouvrant de nouvelles perspectives pour gérer les nouveaux nœuds émergents ou les attributs incomplets dans les graphes dynamiques.
Abstract
This manuscript presents the research carried out within the framework of the CIFRE thesis conducted in partnership between LITIS and Saagie. Dynamic graph representations, integrating both topological and temporal information, are increasingly used to model dynamic systems such as social networks, recommender systems, and transaction networks. Dynamic Graph Neural Networks (DGNN) have become the state-of-the-art approach in this area, and a plethora of models have recently been proposed. However, the heterogeneity and complexity of dynamic graphs present significant challenges in formulating predictive tasks and categorising DGNN architectures. In this thesis, we first address the lack of a comprehensive framework for defining and categorising predictive tasks on dynamic graphs by proposing a taxonomy that considers factors including whether the graph is in discrete or continuous time, whether the task is transductive or inductive, and the output granularity. This taxonomy clarifies distinctions between dynamic graph learning settings and aligns them with relevant applications and datasets. Building upon this foundation, we explore the design of statistical models that learn key information from dynamic graphs. We introduce a taxonomy of DGNN models based on how they incorporate temporal information and examine their compatibility with different learning settings, providing guidelines for designing and optimising DGNNs. Despite advances in the design of DGNNs, many graph encoders have limited expressive power. Spectral-designed graph convolutions, known to provide greater expressiveness on static graphs by filtering the Laplacian eigenvalues to compute convolutional kernels, remain largely unexplored on Discrete Time Dynamic Graphs (DTDG). To improve the expressiveness of DGNNs, we introduce the Dynamic Spectral-Parsing Graph Neural Network (DspGNN), a novel model that optimises spectral-designed static graph convolution on DTDGs and addresses the computational challenges of eigendecomposition on large DTDGs. Experimental results show that DspGNN outperforms baseline models on edge attribute regression tasks and achieves state-of-the-art performance on link prediction tasks. Finally, we tackle unseen node encoding in unattributed dynamic graphs, which is a common problem in anomaly detection tasks. We propose the Dual-Contextual Inductive Dynamic Graph Transformer (DCIDGT), which effectively captures both global and local contexts for anomaly detection. Central to this approach is our proposed Accumulative Causal Walk Alignment (ACWA) mechanism, ensuring semantic alignment of random walk-based node embeddings across snapshots by solving the Orthogonal Procruste problem. Experimental results show that DCIDGT significantly outperforms existing baselines on the edge anomaly detection task, opening new avenues for handling newly emerging nodes or incomplete node attributes in dynamic graphs.

Enrichissement et alignement sémantique d'οntοlοgies biοmédicales par mοdèles de langue

Doctorant·e
MENAD Safaa
Direction de thèse
SOUALMIA FATIMA (Directeur·trice de thèse)
Date de la soutenance
06/12/2024 à 14:30
Lieu de la soutenance
UFR ST - Amphi Curib - MSA
Rapporteurs de la thèse
TANNIER XAVIER Sorbonne Universite
TROJAHN CASSIA Université Toulouse 2 Jean Jaurès
Membres du jurys
ABDEDDAIM SAID, , Université de Rouen Normandie (URN)
ABROUK LYLIA, , Universite de Bourgogne
LECROQ THIERRY, , Université de Rouen Normandie (URN)
SOUALMIA FATIMA, , Université de Rouen Normandie (URN)
TANNIER XAVIER, , Sorbonne Universite
TROJAHN CASSIA, , Université Toulouse 2 Jean Jaurès
Résumé
La première partie de cette thèse traite de la conception de modèles neuronaux siamois entraînés pour la similarité sémantique entre textes biomédicaux et de leur application à des tâches de TAL sur des documents biomédicaux. L’entraînement de ces modèles a été réalisé en plongeant les titres et résumés du corpus PubMed avec le thésaurus MeSH dans un même espace de représentation. Dans la seconde partie nous utilisons ces modèles pour aligner et enrichir les terminologies de l’UMLS (Unified Medical Language System) et automatiser l’intégration de nouvelles relations entre concepts similaires provenant notamment de maladies (DOID), de médicaments (DRON) et de symptômes. Ces relations enrichies permettent d’améliorer l’exploitation de ces ontologies, facilitant ainsi leur utilisation dans diverses applications cliniques et scientifiques. Nous proposons de plus des approches de validation à l’aide des ressources telles que les LLMs, l’OpenFDA, le Métathésaurus et le réseau sémantique de l’UMLS que nous complétons par la validation manuelle d’experts du domaine.
Abstract
The first part of this thesis addresses the design of siamese neural models trained for semantic similarity between biomedical texts and their application to NLP tasks on biomedical documents. The training of these models was performed by embedding the titles and abstracts from the PubMed corpus along with the MeSH thesaurus into a common space. In the second part, we use these models to align and enrich the terminologies of UMLS (Unified Medical Language System) and automate the integration of new relationships between similar concepts, particularly from diseases (DOID), drugs (DRON), and symptoms. These enriched relationships enhance the usability of these ontologies, thereby facilitating their application in various clinical and scientific domains. Additionally, we propose validation approaches using resources such as LLMs, OpenFDA, the UMLS Metathesaurus, and the UMLS semantic network, supplemented by manual validation from domain experts.

Generatiοn and Analysis οf Dynamic Graphs

Doctorant·e
BRIDONNEAU Vincent
Direction de thèse
GUINAND FREDERIC (Directeur·trice de thèse)
PIGNE YOANN (Co-directeur·trice de thèse)
PIGNE YOANN (Co-encadrant·e de thèse)
Date de la soutenance
03/12/2024 à 10:00
Lieu de la soutenance
Université Le Havre Normandie
Rapporteurs de la thèse
BUI-XUAN BINH-MINH Sorbonne Universite
INTERDONATO ROBERTO CIRAD MONTPELLIER
Membres du jurys
BUI-XUAN BINH-MINH, , Sorbonne Universite
GAITO SABRINA, , UNIVERSITE DE MILAN
GUINAND FREDERIC, , Université Le Havre Normandie (ULHN)
INTERDONATO ROBERTO, , CIRAD MONTPELLIER
PIGNE YOANN, , Université Le Havre Normandie (ULHN)
Résumé
La nature et les sociétés humaines offrent de nombreux exemples de systèmes composés d'entités qui interagissent, communiquent ou sont simplement connectées les unes aux autres. La théorie des graphes offre un excellent formalisme pour modéliser ces systèmes complexes, allant des réseaux sociaux aux systèmes biologiques. La plupart des phénomènes observés dans ces réseaux peuvent s'exprimer sous forme de propriétés sur les graphes. On peut notamment citer le phénomène du « petit monde » ou les réseaux dits « sans échelle ». Comprendre les mécanismes sous-jacents à leur évolution est essentiel pour saisir les dynamiques de ces réseaux. Différents mécanismes existent pour reproduire les propriétés observées. Parmi eux, on peut citer l'attachement préférentiel, utilisé notamment par le modèle de Barabasi-Albert (BA), qui permet de produire des séquences de graphes croissants sans échelle. Dans une direction parallèle, on peut également étendre le concept de graphe en y ajoutant une dimension temporelle. Dans ce cas, les propriétés statiques des graphes sont retravaillées pour tenir compte de l'évolution des graphes dans le temps. Par exemple, on peut citer la notion de trajet qui, semblable à celle de chemin, traduit la possibilité de se déplacer d'un sommet à un autre en respectant des contraintes temporelles. De même que dans le cas des réseaux complexes, la capacité à générer des graphes temporels est étudiée afin de produire des graphes aux propriétés spécifiques. On peut par exemple évoquer le modèle Edge-Markovian Graph, un processus stochastique permettant de produire des graphes et d’étudier des problèmes de communication. L'observation de ces mécanismes de génération donne naissance à la problématique de cette thèse, qui réside dans l'étude de processus itératifs de génération de graphes temporels. Lorsqu'un graphe est obtenu par itérations successives d'un tel mécanisme, on parle d'un graphe dynamique. Cette dénomination met en avant l'aspect itératif du processus pour produire une séquence ordonnée de graphes. Une question nous a particulièrement intéressés dans le cadre de ce travail : que se passe-t-il lorsqu’un générateur n'est soumis à aucune contrainte, notamment en ce qui concerne l'évolution du nombre de sommets au fil du temps ? Cette situation soulève deux problématiques : la possibilité qu'un processus conduise à des graphes périodiques au-delà d'un certain moment et la quantification des changements entre deux étapes consécutives du processus. Pour répondre à ces interrogations, nous avons introduit deux métriques. La première, que nous avons appelé sustainability, et que l'on peut traduire par pérennité, est une mesure qualitative : un générateur est dit sustainable s'il produit des graphes qui ne deviennent ni vides ni périodiques. La seconde métrique, le DynamicScore, quantifie les changements entre deux instants successifs, à la fois au niveau des sommets (V-DynamicScore) et des arêtes (E-DynamicScore). Pour démontrer la pertinence de la notion de pérennité, nous avons défini et étudié un générateur de graphes mettant en évidence les nombreux défis rencontrés lors de l'exploration de cette notion. En ce qui concerne le DynamicScore, nous l'avons testé sur divers générateurs ainsi que sur des données réelles, démontrant sa capacité à capturer la dynamique d’un réseau, qu’il soit artificiel ou réel. L’étude de ces deux concepts a ouvert la voie à de nombreuses nouvelles questions et renforcé les liens entre l’analyse des réseaux complexes et la théorie des graphes temporels.
Abstract
In this thesis, we investigate iterative processes producing a flow of graphs. These processes find applications both in complex networks and time-varying graphs. Starting from an initial configuration called a seed, these processes produce a continuous flow of graphs. A key question arises when these processes impose no constraints on the size of the generated graphs: under what conditions can we ensure that the graphs do not become empty? And how can we account for the changes between successive steps of the process? To address the first question, we introduced the concept of sustainability, which verifies whether an iterative process is likely to produce graphs with periodic behaviors. We defined and studied a graph generator that highlights the many challenges encountered when exploring this notion. Regarding the second question, we designed a metric to quantify the changes occurring between two consecutive steps of the process. This metric was tested on various generators as well as on real-world data, demonstrating its ability to capture the dynamics of a network, whether artificial or real. The study of these two concepts has opened the door to many new questions and strengthened the connections between complex network analysis and temporal graph theory.

Système de Ρréventiοn cοntre les vulnérabilités et de Détectiοn des Anοmalies dans les Réseaux Ιnfοrmatiques

Doctorant·e
KASSE Mamadou
Direction de thèse
BERRED ALEXANDRE (Directeur·trice de thèse)
BERTELLE CYRILLE (Co-directeur·trice de thèse)
CHARRIER RODOLPHE (Co-encadrant·e de thèse)
Date de la soutenance
29/11/2024 à 14:00
Lieu de la soutenance
Amphi Normand
Rapporteurs de la thèse
FONLUPT CYRIL ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
N'GUESSAN ASSI LAZARE UNIVERSITE LILLE 1 SCIENCES ET TECHNOLOGIE
Membres du jurys
BERRED ALEXANDRE, , Université Le Havre Normandie (ULHN)
BERTELLE CYRILLE, , Université Le Havre Normandie (ULHN)
CHARRIER RODOLPHE, , Université Le Havre Normandie (ULHN)
FONLUPT CYRIL, , ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
N'GUESSAN ASSI LAZARE, , UNIVERSITE LILLE 1 SCIENCES ET TECHNOLOGIE
NGATCHOU WANDJI JOSEPH, , Université de Lorraine
SELMI CARLA, , UNIVERSITE DE ROUEN NORMANDIE
ZEDDINI BESMA, , CY TECH CERGY PARIS
Résumé
Les outils de prévention des vulnérabilités et de détection des anomalies sont essentiels pour la sécurité des réseaux informatiques. Cette thèse se concentre sur l'utilisation des données du MITRE ATT&CK, des scores CVSS et de la norme ISO 27002:2022 pour automatiser et consolider l'analyse des vulnérabilités et la détection des anomalies. Les objectifs principaux sont : - Diagnostic de vulnérabilité : Identifier les sous-réseaux les plus vulnérables en combinant les données du MITRE ATT&CK, des scores CVSS et de la norme ISO 27002:2022. Pour cela, une base de données appelée Data ISO-MA a été créée. Un algorithme évalue la vulnérabilité des chemins dans le réseau, identifiant ceux les plus à risque. - Détection d’anomalies : Analyser les flux de trafic pour détecter des comportements inhabituels dans les chemins vulnérables. Une approche inspirée du modèle Path-scan de Joshua Neil et al. (2013) a été utilisée. Chaque connexion réseau est modélisée avec un modèle de Markov à 3 états et la statistique du rapport de vraisemblance généralisé (GLRT), permettant de capturer et d'identifier les comportements anormaux. Ces deux outils visent à renforcer la sécurité des réseaux informatiques en fournissant une solution intégrée pour la prévention des vulnérabilités et la détection des anomalies.
Abstract
Tools for vulnerability prevention and anomaly detection are essential for the security of computer networks. This thesis focuses on using MITRE ATT&CK data, CVSS scores, and the ISO 27002:2022 standard to automate and consolidate vulnerability analysis and anomaly detection. The main objectives are: -Vulnerability Diagnosis: Identify the most vulnerable sub-networks by combining MITRE ATT&CK data, CVSS scores, and the ISO 27002:2022 standard. To achieve this, a database called Data ISO-MA was created. An algorithm evaluates the vulnerability of network paths, identifying those most at risk. - Anomaly Detection: Analyze traffic flows to detect unusual behaviors in vulnerable paths. An approach inspired by the Path-scan model introduced by Joshua Neil et al. (2013) was used. Each network connection is modeled with a 3-state Markov model and the Generalized Likelihood Ratio Test (GLRT), allowing for the capture and identification of abnormal behaviors. These two tools aim to enhance the security of computer networks by providing an integrated solution for vulnerability prevention and anomaly detection.

Extractiοn d'infοrmatiοn dans des dοcuments histοriques à l'aide de grands mοdèles multimοdaux

Doctorant·e
CONSTUM Thomas
Direction de thèse
PAQUET THIERRY (Directeur·trice de thèse)
Date de la soutenance
28/11/2024 à 10:30
Lieu de la soutenance
Rouen
Rapporteurs de la thèse
LEMAITRE AURELIE Université Rennes 2
LIKFORMAN-SULEM LAURENCE ENST PARIS
Membres du jurys
BELLOT PATRICE, , Aix-Marseille université
BREE SANDRA, , Université Lumière Lyon 2
LEMAITRE AURELIE, , Université Rennes 2
LIKFORMAN-SULEM LAURENCE, , ENST PARIS
PAQUET THIERRY, , Université de Rouen Normandie (URN)
TRANOUEZ PIERRICK, , Université de Rouen Normandie (URN)
Résumé
Cette thèse porte sur l'extraction automatique d'informations à partir de documents manuscrits historiques, dans le cadre des projets POPP et EXO-POPP. Le projet POPP se concentre sur les tableaux de recensement manuscrits de Paris (1921-1946), tandis qu'EXO-POPP traite des actes de mariage du département de la Seine (1880-1940). L’objectif principal est de développer une architecture de bout en bout pour l’extraction d’information à partir de documents complets, évitant les étapes explicites de segmentation. Dans un premier temps, une chaîne de traitement séquentielle a été développée pour le projet POPP, permettant l’extraction automatique des informations de 9 millions d’individus sur 300 000 pages. Ensuite, une architecture de bout en bout pour l'extraction d'information a été mise en place pour EXO-POPP, s’appuyant sur un encodeur convolutif et un décodeur Transformer, avec insertion de symboles spéciaux encodant les informations à extraire. Par la suite, l’intégration de grands modèles de langue basés sur l’architecture Transformer a conduit à la création du modèle DANIEL, qui a atteint un nouvel état de l’art sur plusieurs jeux de données publics (RIMES 2009 et M-POPP pour la reconnaissance d'écriture, IAM NER pour l'extraction d'information) tout en présentant une vitesse d'inférence supérieure aux approches existantes. Enfin, deux jeux de données publics issus des projets POPP et EXO-POPP ont été mis à disposition, ainsi que le code et les poids du modèle DANIEL.
Abstract
This thesis focuses on automatic information extraction from historical handwritten documents, within the framework of the POPP and EXO-POPP projects. The POPP project focuses on handwritten census tables from Paris (1921-1946), while EXO-POPP deals with marriage records from the Seine department (1880-1940). The main objective is to develop an end-to-end architecture for information extraction from complete documents, avoiding explicit segmentation steps. Initially, a sequential processing pipeline was developed for the POPP project, enabling the automatic extraction of information for 9 million individuals across 300,000 pages. Then, an end-to-end architecture for information extraction was implemented for EXO-POPP, based on a convolutional encoder and a Transformer decoder, with the insertion of special symbols encoding the information to be extracted. Subsequently, the integration of large language models based on the Transformer architecture led to the creation of the DANIEL model, which achieved a new state-of-the-art on several public datasets (RIMES 2009 and M-POPP for handwriting recognition, IAM NER for information extraction), while offering faster inference compared to existing approaches. Finally, two public datasets from the POPP and EXO-POPP projects were made available, along with the code and weights of the DANIEL model.

Calculs de mοdes électrοmagnétiques guidés dans des guides d'οndes tοrsadés et οuverts

Doctorant·e
LECLERC AUGUSTIN
Direction de thèse
GOUT CHRISTIAN (Directeur·trice de thèse)
BARUCQ HELENE (Co-directeur·trice de thèse)
TONNOIR ANTOINE (Co-encadrant·e de thèse)
Date de la soutenance
27/11/2024 à 14:30
Lieu de la soutenance
INSA Rouen
Rapporteurs de la thèse
BONNET-BEN DHIA ANNE-SOPHIE ENSTA Paris
LAFITTE OLIVIER Université Sorbonne Paris Nord
Membres du jurys
BARUCQ HELENE, , Inria Bordeaux Sud Ouest - Pau
BONNET-BEN DHIA ANNE-SOPHIE, , ENSTA Paris
DURUFLE MARC, , Université de Bordeaux
GOUT CHRISTIAN, , INSA de Rouen Normandie
LAFITTE OLIVIER, , Université Sorbonne Paris Nord
LE GUYADER CAROLE, , INSA de Rouen Normandie
TERRASSE ISABELLE, , Airbus Central Research & Technology
TONNOIR ANTOINE, , INSA de Rouen Normandie
Résumé
Cette thèse explore la modélisation et le calcul des modes électromagnétiques (EM) dans des guides d'ondes de géométries complexes, notamment dans des câbles électriques torsadés en milieux ouverts. L'objectif est de développer des méthodes numériques pour résoudre les équations de Maxwell afin de mieux comprendre la propagation des champs électromagnétiques dans des configurations réalistes. Cette étude est motivée par les enjeux liés à la réduction du rayonnement électromagnétique et à l'amélioration des performances des câbles en termes de confinement des champs. Nous traitons deux principales configurations : les guides d’ondes droits et les guides d'ondes torsadés. Pour les guides droits, des méthodes semi-analytiques sont mises en œuvre, notamment pour les câbles coaxiaux, permettant de tester les modèles numériques. Nous étendons ces méthodes aux guides d'ondes ouverts, où des conditions aux limites absorbantes (CLA) sont introduites pour modéliser un environnement infini en limitant les réflexions parasites. Dans les câbles torsadés, une géométrie hélicoïdale est exploitée afin de reformuler les équations de propagation des ondes EM dans un cadre numérique adapté, permettant d'obtenir des simulations en basse fréquence. Un travail sur la construction de CLA dans ce cadre a également été initié. Les résultats obtenus fournissent une meilleure compréhension des phénomènes électromagnétiques à basse fréquence et ouvrent des perspectives pour la conception de dispositifs plus performants et l'étude des systèmes électromagnétiques dans des environnements hétérogènes réels.
Abstract
This thesis explores the modelling and calculation of electromagnetic (EM) modes in waveguides with complex geometries, particularly in twisted electric cables in open environments. The aim is to develop numerical methods for solving Maxwell's equations in order to better understand the propagation of electromagnetic fields in realistic configurations. This study is motivated by the challenges of reducing electromagnetic radiation and improving cable performance in terms of field containment. We deal with two main configurations: straight waveguides and twisted waveguides. For straight waveguides, semi-analytical methods are used, particularly for coaxial cables, to test numerical models by comparison with precise solutions. We extend these methods to open waveguides, where absorbing boundary conditions (ABC) are introduced to model an infinite environment while limiting spurious reflections. In twisted cables, a helical geometry is exploited to reformulate the EM wave propagation equations in a suitable numerical framework, enabling low-frequency simulations to be obtained. Work on the construction of ABCs within this framework has also been initiated. The results that we obtain provide a better understanding of low-frequency electromagnetic phenomena and open up prospects for the design of more efficient devices and the study of electromagnetic systems in real heterogeneous environments.

Synthèse d'οbservateurs par intervalle pοur le diagnοstic de fautes et le cοntrôle rοbuste, avec applicatiοn aux drοnes quadricοptères

Doctorant·e
HUGO Antoine
Direction de thèse
CRAYE ETIENNE (Directeur·trice de thèse)
PIET-LAHANIER HELENE (Co-directeur·trice de thèse)
Date de la soutenance
27/11/2024 à 14:00
Lieu de la soutenance
IBISC, Evry-Corcouronnes
Rapporteurs de la thèse
BURLION LAURENT Université Rutgers
RAISSI TARIK CNAM (Paris)
Membres du jurys
BURLION LAURENT, , Université Rutgers
CRAYE ETIENNE, , ESIGELEC ROUEN
JAUBERTHIE CARINE, , Université de Toulouse 3 - Paul Sabatier
MAZENC FREDERIC, , Centre Regional de l'Inria Saclay Ile de France
NADRI-WOLF MADIHA, , Université Claude Bernard - Lyon 1
RAISSI TARIK, , CNAM (Paris)
Résumé
Cette thèse se concentre sur le développement des observateurs d’état par intervalles, qui font partie des méthodes d’estimation ensemblistes s’inscrivant dans le cadre des systèmes à erreur bornée. Ces méthodes sont particulières intéressantes dans des applications soumises à d’importantes incertitudes, comme les systèmes biologiques, ou dans des domaines où la sécurité est cruciale, comme les unités de navigation de systèmes autonomes. En effet, elles présentent l’avantage de fournir des estimations garanties, ce qui signifie que l’ensemble estimé contient avec certitude l’état réel du système. Au-delà de l’estimation d’état de systèmes incertains, les observateurs par intervalles sont également employés dans le contrôle robuste et le diagnostic de fautes pour leur capacité à gérer les incertitudes. Le principe fondamental des observateurs par intervalles, qu’ils soient basés sur une représentation sup-inf ou centre-rayon, repose sur l’hypothèse que les incertitudes du système sont bornées entre deux limites connues. La propagation de ces bornes dans le modèle dynamique de l’observateur du système permet ainsi d’obtenir un intervalle estimé de l’état. Ce dernier est garanti de contenir l’état du réel du système, sous réserve que les erreurs d’estimation soient nonnégatives. Le calcul d’un gain d’observation offrant cette propriété, en plus de celle classique de stabilité, a été un véritable défi. Pour relâcher cette condition restrictive de nonnégativité dans la conception du gain d’observation, divers changements de coordonnées ont été introduits dans la littérature. Cependant, d’autres limitations dans la conception de tels observateurs font que ce domaine reste un sujet actif de recherche. Parmi elles, trois axes ont été identifiés et seront traités dans cette étude. Le premier axe concerne les observateurs par intervalles pour les systèmes nonlinéaires. Jusqu’à récemment, il n’existait pas de méthode générique permettant de concevoir un observateur par intervalles pour n’importe quel type de système nonlinéaire, en effet diverses hypothèses restrictives étaient considérées pour simplifier la conception. Cependant, l’introduction de l’observateur Kazantzis-Kravaris-Luenberger par intervalles (IKKL) a ouvert la voie pour résoudre ce problème mais reste un vaste sujet à explorer. Dans cette étude, deux nouvelles conceptions d’observateur IKKL sup-inf sont proposées permettant d’élargir la classe de systèmes nonlinéaires initialement considérée, en incluant notamment les systèmes à temps continu et les systèmes non-autonomes. Des considérations pratiques sont également abordées pour améliorer leur implémentation. Le deuxième axe se concentre sur l’utilisation de la méthode grand-gain dans la conception du gain d’observation des observateurs par intervalles centre-rayon. Les observateurs grand-gain par intervalles (HGIOs) permettent une convergence arbitrairement rapide des erreurs d’estimation mais ils sont sensibles au bruit de mesure. Cette limitation est abordée dans cette étude par l’incorporation d’un filtre de l’erreur d’estimation, menant à la conception d’un observateur grand-gain filtré par intervalles (FHGIO). De plus, quelques autres améliorations sont apportées pour perfectionner leur conception, notamment au niveau des fonctions d’encadrement, du changement de variables et du calcul des gains. Le troisième axe aborde la conception de lois de commande par retour d’état basées sur les observateurs par intervalles et leur application à un véhicule aérien sans pilote (UAV) de type quadricoptère. La plupart des méthodes existantes reposent sur la stabilisation des dynamiques sup-inf de l’observateur par intervalles pour stabiliser le système réel. Dans cette étude, une nouvelle conception de contrôleur utilisant les dynamiques de l’observateur par intervalles centre-rayon et la technique de Régulateur Quadratique Linéaire (LQR) est présentée pour suivre de manière robuste une trajectoire spécifiée. En outre...
Abstract
This thesis focuses on the development of interval state observers, which are part of set membership estimation methods within the framework of bounded-error systems. These methods are particularly valuable in applications with significant uncertainties, such as biological systems, or in fields where safety is critical, like navigation units for autonomous systems. Indeed, they offer the advantage of providing guaranteed estimates, meaning that the estimated set certainly contains the true state of the system. Beyond state estimation, interval observers are also applied in robust control and fault diagnosis for their ability to manage uncertainties. The main principle behind interval observers, either based on sup-inf or center-radius representation, is the assumption that the system uncertainties are bounded by two known limits. By propagating these bounds through the dynamic model of the observer of the system, an estimated interval for the state is obtained. This interval is guaranteed to contain the actual state of the system, provided that the estimation errors remain nonnegative. Calculating an observer gain that ensures this property, along with the classical requirement of stability, has been a significant challenge. To relax this restrictive nonnegativity condition in the design of the observer gain, various changes of ordinates have been introduced in the literature. However, additional limitations in interval observer based designs have led this field to remain an active area of research. Among these limitations, three topics have been identified and will be addressed in this study. The first topic concerns interval observers for nonlinear systems. Until recently, there was no general method for designing an interval observer for any type of nonlinear system, as various restrictive assumptions were often made to simplify the design. However, the introduction of interval Kazantzis-Kravaris-Luenberger (IKKL) observer has paved the way to addressing this issue but remains a vast topic to explore. In this study, two new sup-inf IKKL observer designs are proposed, broadening the class of nonlinear systems initially considered, particularly by including continuous-time and non-autonomous systems. Practical considerations are also discussed to enhance their implementation. The second topic focuses on the use of the high-gain method in designing the gain for center-radius interval observers. High-Gain Interval Observers (HGIOs) provide an arbitrarily fast convergence rate of the estimation errors but they are sensitive to measurement noise. To overcome this limitation, a filter for the observation error is integrated in the structure, leading to the design of a Filtered High-Gain Interval Observer (FHGIO). Additionally, several other improvements are introduced to further enhance this design, notably including on the bounding functions, the change of coordinates and the gain computation. The third topic addresses the design of state feedback control laws based on interval observers and the application to a quadcopter Unmanned Aerial Vehicle (UAV). Most existing methods rely on stabilizing the sup-inf interval observer dynamics in order to stabilize the actual system. In this study, a new controller design using center-radius interval observer dynamics and Linear Quadratic Regulator (LQR) technique is presented to robustly track a specified trajectory. In addition, a fault diagnosis strategy is developed using interval residuals and a fault signature matrix to effectively detect and isolate actuators faults on the quadcopter. Thus, this study addresses the current limitations in the design and use of interval observers, offering new methods to improve applicability of IKKL observers to a broader class of nonlinear systems, enhance robustness and performance of HGIOs, and effectively control and monitor real-world systems through the developed center-radius interval observers. The proposed techniques contribute to...

La résοlutiοn de prοblème quadratique binaire par des méthοdes d'οptimisatiοn exactes et apprοchées

Doctorant·e
BATTIKH Rabih
Direction de thèse
YASSINE ADNAN (Directeur·trice de thèse)
Date de la soutenance
21/11/2024 à 09:00
Lieu de la soutenance
Bâtiment PIL (à coté de l'ISEL), 1er étage, salles 127-128-129.
Rapporteurs de la thèse
CAFIERI SONIA ENAC TOULOUSE
KOUKAM ABDERRAFIAA UNIV TECHN BELFORT MONTBELIARD UTBM SEVENANS
Membres du jurys
ALABBOUD HASSAN, , UNIVERSITE LIBANAISE
CAFIERI SONIA, , ENAC TOULOUSE
GUIBADJ RIM NESRINE, , ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
KOUKAM ABDERRAFIAA, , UNIV TECHN BELFORT MONTBELIARD UTBM SEVENANS
SBIHI ABDELKADER, , University of South-Eastern Norway
YASSINE ADNAN, , Université Le Havre Normandie (ULHN)
Résumé
Dans cette thèse, nous avons présenté un nouvel algorithme hybride (HA) pour la résolution du problème (UQP). Cet algorithme est basé sur la combinaison d'un bloc de cinq procédures spéciales et de la méthode du recuit simulé. Nos procédures sont très efficaces et rapides, mais malheureusement, parfois elles sont bloquées par un minimum local. Pour surmonter cet inconvénient, nous les avons combinées avec un algorithme de recuit simulé. Ensuite, nous avons répété ces procédures plusieurs fois pour obtenir la meilleure solution en utilisant notre algorithme hybride. Nous avons remarqué que l'écart entre la solution trouvée par (HA) et le logiciel CPLEX est très faible, ce résultat implique l'efficacité de notre stratégie. Par ailleurs, nous avons intégré notre méthode hybride à un problème de relaxation semi-définie du (UQP) dans le cadre d'une stratégie de branch and bound. Pour faciliter la résolution du (UQP), nous suggérons d'appliquer des critères de fixation afin de réduire la taille du problème et d'accélérer l'obtention d'une solution exacte. La qualité de la borne inférieure trouvée par notre code (QPTOSDP) est très bonne, mais le temps d'exécution augmente avec la taille du problème. Les résultats numériques prouvent l'exactitude de notre solution optimale et l'efficacité et la robustesse de notre approche. Nous avons étendu les critères de fixation pour le problème (QP), ce qui permet, dans certains cas, de réduire la dimension du problème, voire de le résoudre entièrement en appliquant une boucle de répétition fondée sur ces critères.
Abstract
In this thesis, we presented a new hybrid algorithm (HA) for solving the unconstrained quadratic programming problem (UQP). This algorithm is based on the combination of a block of five special procedures and the simulated annealing method. Our procedures are very efficient and fast, but unfortunately, they sometimes get stuck in a local minimum. To overcome this drawback, we combined them with a simulated annealing algorithm. Then, we repeated these procedures several times to obtain the best solution using our hybrid algorithm. We noticed that the gap between the solution found by (HA) and the CPLEX software is very small, which implies the efficiency of our strategy. Moreover, we integrated our hybrid method into a semi-definite relaxation problem of (UQP) within a branch and bound strategy. To facilitate the resolution of (UQP), we suggest applying fixing criteria to reduce the size of the problem and speed up the process of obtaining an exact solution. The quality of the lower bound found by our code (QPTOSDP) is very good, but the execution time increases with the size of the problem. Numerical results prove the accuracy of our optimal solution and the efficiency and robustness of our approach. We extended the fixing criteria to the quadratic programming problem (QP), which in some cases allows reducing the dimension of the problem, or even solving it entirely by applying a repetition loop based on these criteria.

Apprοches Μοnο et Bi-οbjective pοur l'Οptimisatiοn Ιntégrée des Ροstes d'Amarrage et des Grues de Quai dans les Οpératiοns de Τransbοrdement

Doctorant·e
AL SAMROUT Marwa
Direction de thèse
YASSINE ADNAN (Directeur·trice de thèse)
Date de la soutenance
21/11/2024 à 14:00
Lieu de la soutenance
Bâtiment PIL (à coté de l'ISEL), 1er étage, salles 127-128-129
Rapporteurs de la thèse
FONLUPT CYRIL ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
ZEDDINI BESMA CY TECH CERGY PARIS
Membres du jurys
ALABBOUD HASSAN, , UNIVERSITE LIBANAISE
DIDI BIHA MOHAMED, , Université de Caen Normandie (UCN)
FONLUPT CYRIL, , ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
NAJA HALA, , UNIVERSITE LIBANAISE
SBIHI ABDELKADER, , University of South-Eastern Norway
YASSINE ADNAN, , Université Le Havre Normandie (ULHN)
ZEDDINI BESMA, , CY TECH CERGY PARIS
Résumé
Le transport maritime international est vital pour le commerce mondial, représentant plus de 85 % des échanges, avec 10,5 milliards de tonnes transportées chaque année. Ce mode de transport est le plus économique et durable, contribuant seulement à 2,6 % des émissions de CO2. En France, le secteur maritime représente 1,5 % du PIB et près de 525 000 emplois. Les ports maritimes, cruciaux pour la chaîne logistique, facilitent le transbordement des marchandises et adoptent de plus en plus des solutions numériques basées sur l'intelligence artificielle pour améliorer leur efficacité. La France compte onze Grands ports maritimes, dont sept en Métropole. La thèse se concentre sur l’optimisation des terminaux à conteneurs pour améliorer l’efficacité et la performance des ports.Ce mémoire aborde la problématique de la planification des postes d’accostage et de l’activation des portiques dans les terminaux à conteneurs des ports maritimes, en réponse aux changements récents dans la logistique maritime, tels que l’arrivée de méga-navires et l’automatisation. Il souligne les lacunes dans la littérature existante et propose une analyse approfondie des défis actuels. Le document se divise en trois chapitres : Le premier chapitre explore l’histoire de la conteneurisation, les types de conteneurs, et les défis de la planification opérationnelle. Il se concentre sur le problème d’attribution des postes d’amarrage (BAP), ses méthodes de résolution et l’intégration de l’intelligence artificielle (IA) pour optimiser les processus logistiques. Le 2ème chapitre introduit le problème d'allocation dynamique avec transbordement ship-to-ship. Il propose un programme linéaire en nombres entiers mixtes (MILP) pour optimiser l’ordonnancement d’accostage et le transbordement entre navires. L’objectif est de réduire les temps de séjour des navires dans le terminal, ainsi que les pénalités dues aux retards des navires, et de décider du mode de transbordement nécessaire. La méthode combine une heuristique de type packing et un algorithme génétique amélioré, démontrant une efficacité dans la réduction des temps de séjour des navires. Nous avons effectué une analyse statistique pour identifier les paramètres de contrôle efficaces du GA, puis nous avons appliqué cet algorithme avec les paramètres de contrôle déterminés pour réaliser des expériences numériques sur des instances générées aléatoirement. De plus, nous avons réalisé une étude comparative afin d’évaluer différents opérateurs de croisement, en utilisant le test d’analyse de variance (ANOVA). Ensuite, nous avons présenté une série d’exemples basés sur des données aléatoires, résolus à l’aide du solveur CPLEX, afin de confirmer la validité du modèle proposé. La méthode proposée est capable de résoudre le problème dans un temps de calcul acceptable pour des instances de taille moyenne et grande. Le dernier chapitre présente un problème intégré d’allocation des postes d’amarrage et des grues, avec un focus sur le transbordement ship-to-ship. Trois approches sont proposées . La première approche utilise l'algorithme génétique NSGA-III, complété par une analyse statistique pour optimiser les paramètres et évaluer différents opérateurs de croisement. En analysant des données de la base AIS, des tests numériques montrent l’efficacité de cette méthode au port du Havre, avec des résultats satisfaisants et un temps de calcul raisonnable. La deuxième approche implique deux modèles de régression, Gradient Boosting Regression (GBR) et Random Forest Regression (RFR), entraînés sur des caractéristiques sélectionnées. La méthodologie inclut des étapes de prétraitement et l'optimisation des hyperparamètres. Bien que NSGA-III offre la meilleure précision, il nécessite un temps d'exécution plus long. En revanche, GBR et RFR, bien que légèrement moins précis, améliorent l’efficacité, soulignant le compromis entre précision et temps d'exécution dans les applications pratiques.
Abstract
International maritime transport is vital for global trade, representing over 85% of exchanges, with 10.5 billion tons transported each year. This mode of transport is the most economical and sustainable, contributing only 2.6% of CO2 emissions. In France, the maritime sector accounts for 1.5% of GDP and nearly 525,000 jobs. Maritime ports, crucial for the logistics chain, facilitate the transshipment of goods and increasingly adopt digital solutions based on artificial intelligence to improve their efficiency. France has eleven major seaports, seven of which are located in mainland France. The thesis focuses on optimizing container terminals to enhance the efficiency and performance of ports. It addresses the issues of berth allocation planning and crane activation in container terminals in response to recent changes in maritime logistics, such as the arrival of mega-ships and automation. It highlights gaps in the existing literature and offers an in-depth analysis of current challenges. The document is divided into three chapters: The first chapter explores the history of containerization, types of containers, and challenges in operational planning. It focuses on the berth allocation problem (BAP), its resolution methods, and the integration of artificial intelligence (AI) to optimize logistical processes. The second chapter introduces the dynamic allocation problem with ship-to-ship transshipment. It proposes a mixed-integer linear program (MILP) to optimize the berthing schedule and transshipment between vessels. The objective is to reduce vessel stay times in the terminal, as well as penalties due to vessel delays, and to determine the necessary transshipment method. The method combines a packing-type heuristic and an improved genetic algorithm, demonstrating effectiveness in reducing vessel stay times. We conducted a statistical analysis to identify effective control parameters for the GA, then applied this algorithm with the determined control parameters to perform numerical experiments on randomly generated instances. Additionally, we conducted a comparative study to evaluate different crossover operators using ANOVA. We then presented a series of examples based on random data, solved using the CPLEX solver, to confirm the validity of the proposed model. The proposed method is capable of solving the problem in an acceptable computation time for medium and large instances. The final chapter presents an integrated berth and crane allocation problem, focusing on ship-to-ship transshipment. Three approaches are proposed. The first approach uses the NSGA-III genetic algorithm, supplemented by a statistical analysis to optimize parameters and evaluate different crossover operators. By analyzing AIS database data, numerical tests demonstrate the effectiveness of this method at the port of Le Havre, yielding satisfactory results within a reasonable computation time. The second approach involves two regression models, Gradient Boosting Regression (GBR) and Random Forest Regression (RFR), trained on selected features. The methodology includes preprocessing steps and hyperparameter optimization. While NSGA-III achieves the highest accuracy, it requires a longer execution time. In contrast, although GBR and RFR are slightly less precise, they significantly improve efficiency, highlighting the trade-off between accuracy and execution time in practical applications.

Architectures multi-échelles de type encοdeur-décοdeur pοur la stéréοphοtοmétrie

Doctorant·e
HARDY Clement
Direction de thèse
TSCHUMPERLE DAVID (Directeur·trice de thèse)
Date de la soutenance
18/11/2024 à 09:30
Lieu de la soutenance
Salle des thèses, UFR Sciences, Campus 2, Caen
Rapporteurs de la thèse
ALMANSA ANDRÈS Directeur de recherche UNIVERSITE PARIS 5 UNIVERSITE PARIS DESCARTES
DUROU JEAN-DENIS Maître de conférences HDR Université de Toulouse 3 - Paul Sabatier
Membres du jurys
ALMANSA ANDRÈS, Directeur de recherche, UNIVERSITE PARIS 5 UNIVERSITE PARIS DESCARTES
BRINGIER BENJAMIN, Maître de conférences, Université de Limoges
DIGNE JULIE, , CNRS
DUROU JEAN-DENIS, Maître de conférences HDR, Université de Toulouse 3 - Paul Sabatier
QUEAU Yvain, , CNRS
TSCHUMPERLE DAVID, , CNRS
Résumé
La stéréophotométrie est une technique de reconstruction 3D de la surface d'un objet. De plus en plus de recherches s'intéressent à ce problème qui se veut prometteur dans le monde industriel. En effet, la stéréophotométrie peut être utilisée pour détecter les défauts d'usinage de pièces mécaniques ou pour de la reconnaissance faciale par exemple. Cette thèse explore les méthodes d'apprentissage profond pour la stéréophotométrie, notamment les différents aspects liés aux bases de données d'entraînement et aux architectures considérées. De manière générale, la sur-paramétrisation d'un réseau de neurones est souvent suffisante pour supporter la diversité des problèmes rencontrés. La base de données d'entraînement est alors considérée comme le point clé permettant de conditionner le réseau au problème traité. Par conséquent, pour répondre à ce besoin, nous proposons une nouvelle base de données d'entraînement synthétique. Cette base de données considère une très grande variété de géométries, de textures, de directions ou conditions lumineuses mais également d'environnements, permettant donc de générer un nombre de situation quasiment infini. Le second point décisif d'une bonne reconstruction concerne le choix de l'architecture. L'architecture d'un réseau doit assurer une bonne capacité de généralisation sur de nouvelles données pour générer de très bons résultats sur des données inédites. Et ce, quelle que soit l'application. En particulier, pour la stéréophotométrie, l'enjeu est d'être capable de reconstruire des images très haute résolution afin de ne pas perdre de détails. Nous proposons alors une architecture multi-échelles de type encodeur-décodeur afin de répondre à ce problème. Dans un premier temps, nous proposons une architecture fondée sur les réseaux convolutionnels pour répondre au problème de stéréophotométrie calibrée, i.e. quand la direction lumineuse est connue. Dans un second temps, nous proposons une version fondé sur les Transformers afin de répondre au problème de stéréophotométrie universelle. C'est-à-dire que nous sommes en capacité de gérer n'importe quel environnement, direction lumineuse, etc., sans aucune information préalable. Finalement, pour améliorer les reconstructions sur des matériaux difficiles (translucides ou brillants par exemple), nous proposons une nouvelle approche que nous appelons ``faiblement calibrée'' pour la stéréophotométrie. Dans ce contexte, nous n'avons qu'une connaissance approximative de la direction d'éclairage. L'ensemble des pistes que nous avons explorées ont conduit à des résultats convaincants, à la fois quantitatifs et visuels sur l'ensemble des bases de données de l'état-de-l'art. En effet, nous avons pu observer une amélioration notable de la précision de reconstruction des cartes de normales, contribuant ainsi à avancer l'état de l'art dans ce domaine.
Abstract
Photometric stereo is a technique for 3D surface reconstruction of objects. This field has seen a surge in research interest due to its potential applications in industry. Specifically, photometric stereo can be employed for tasks such as detecting machining defects in mechanical components or facial recognition. This thesis delves into deep learning methods for photometry stero, with a particular focus on training data and network architectures. While neural network over-parameterization is often adequate, the training dataset plays a pivotal role in task adaptation. To generate a highly diverse and extensible training set, we propose a new synthetic dataset. This dataset incorporates a broad spectrum of geometric, textural, lighting, and environmental variations, allowing for the creation of nearly infinite training instances. The second decisive point of a good reconstruction concerns the choice of architecture. The architecture of a network must ensure a good generalization capacity on new data to generate very good results on unseen data. And this, regardless of the application. In particular, for the photometric stereo problem, the challenge is to be able to reconstruct very high-resolution images in order not to lose any details. We therefore propose a multi-scale encoder-decoder architecture to address this problem. We first introduce a convolutional neural network architecture for calibrated photometric stereo, where the lighting direction is known. To handle unconstrained environments, we propose a Transformers-based approach for universal photometric stereo. Lastly, for challenging materials shiny like translucent or shiny surfaces, we introduce a ``weakly calibrated'' approach that assumes only approximate knowledge of the lighting direction. The approaches we have investigated have consistently demonstrated strong performance on standard benchmarks, as evidenced by both quantitative metrics and visual assessments. Our results, particularly the improved accuracy of reconstructed normal maps, represent a significant advancement in photometric stereo.

Grοupes de classes et de Ροlya d'extensiοns abéliennes

Doctorant·e
EMMELIN Etienne
Direction de thèse
ANGLES Bruno (Directeur·trice de thèse)
Date de la soutenance
15/11/2024 à 14:00
Lieu de la soutenance
Université de Caen, Campus 2, Bâtiment S3, Salle des Thèses
Rapporteurs de la thèse
MAIRE CHRISTIAN Université Besançon Franche Comté
PERRET MARC Université Toulouse 2 Jean Jaurès
Membres du jurys
ANGLES Bruno, , Université de Caen Normandie (UCN)
BOSSER Vincent, Maître de conférences, Université de Caen Normandie (UCN)
BOUCHER DELPHINE, Maître de conférences HDR, Université de Rennes
CHABERT JEAN-LUC, Professeur émérite, UNIVERSITE AMIENS PICARDIE JULES VERNE
MAIRE CHRISTIAN, , Université Besançon Franche Comté
PELLARIN Federico, , ROME - UNIVERSITA ROMA "LA SPIENZA"
PERRET MARC, , Université Toulouse 2 Jean Jaurès
Résumé
Pour des extensions galoisiennes $K/\mathbb{Q}$, le groupe de P\'olya de $K$ est un sous-groupe du groupe de classes d'idéaux de $K$ engendré par les idéaux ambiges. On démontre dans cette thèse l'existence d'une infinité d'extensions abéliennes $K/\mathbb{Q}$, dont le groupe de P\'olya est isomorphe à un groupe abélien fini $G$, prescrit. Pour cela on se ramène au cas des $l$-extensions cycliques et l'on utilise le théorème de structure des groupes abéliens finis. De plus, on étudie le comportement asymptotique du groupe de classes relatif d'extensions CM abéliennes $K/\mathbb{Q}$, défini comme étant le quotient du groupe de classes $Cl(K)$, par le groupe de P\'olya $Po(K)$ et l'on montre qu'il n'existe qu'un nombre fini de tels corps dont le groupe de classes relatif est trivial. Enfin, on démontre l'existence d'une infinité de corps quadratiques successifs en caractéristique strictement positive, dont le nombre de classes est divisible par un nombre premier, en montrant un analogue du théorème de Siegel pour les corps de fonctions.
Abstract
For Galois extensions $K/\mathbb{Q}$, the P\'olya group of $K$ is a subgroup of the ideal class group of $K$ generated by ambigous ideals. In this thesis, we prove the existence of infinitly many abelian extensions $K/\mathbb{Q}$, such that the P\'olya group of $K$ is isomorphic to a prescribed finite abelian group $G$. For this, we study the case of cyclic $l$-extensions and we show the existence using the theorem of finite abelian group structure. In addition, we study the asymptotic behavior of the relative class group of abelian CM extensions $K/\mathbb{Q}$, defined as the quotient of the class group $Cl(K)$ by the P\'olya group $Po(K)$ and we show that there exists a finite number of such fields whose relative class group is trivial. Finally, we prove the existence of infinitely many successive quadratic field in positive caracteristic, whose class number is divisible by a prime number, by showing an analogous of Siegel's theorem for function fields.

Unbalanced and Linear Οptimal Τranspοrt fοr Reliable Estimatiοn οf the Wasserstein Distance

Doctorant·e
MAHEY GUILLAUME
Direction de thèse
GASSO GILLES (Directeur·trice de thèse)
CHAPEL LAETITIA (Co-encadrant·e de thèse)
Date de la soutenance
13/11/2024 à 10:00
Lieu de la soutenance
INSA Rouen
Rapporteurs de la thèse
BONNEEL NICOLAS CNRS-Lyon1
DELON JULIE Université Paris Cité
Membres du jurys
BONNEEL NICOLAS, , CNRS-Lyon1
CAZELLES ELSA, , Institut de Recherche en informatique de Toulouse
CHAPEL LAETITIA, , Institut Agro Rennes-Angers
DELON JULIE, , Université Paris Cité
GASSO GILLES, , INSA de Rouen Normandie
NADJAHI KIMIA, , ENS ULM
RAKOTOMAMONJY ALAIN, , Criteo AI Lab
Résumé
Dans le contexte de l'apprentissage automatique, plusieurs problèmes peuvent se formuler comme des problèmes de comparaison entre distributions. La théorie mathématique du transport optimal permet une comparaison entre deux mesures de probabilité. Bien que très élégante en théorie, le transport optimal (TO) souffre de plusieurs inconvénients en pratique, notamment la charge de calcul, le risque de surapprentissage (overfitting) et sa sensibilité aux artefacts d'échantillonnage. Tout cela a motivé l'introduction de variantes à la fonction de perte associée au TO dans la communauté du machine learning. Dans cette thèse, nous proposons de nouvelles variantes afin, d'une part, de réduire la charge computationnelle et statistique et, d'autre part, la sensibilité aux artefacts d'échantillonnage de la perte TO. Pour ce faire, nous nous sommes appuyés sur les distributions intermédiaires introduites à la fois par les variantes de TO linéaire et de TO déséquilibré.
Abstract
In the context of machine learning, several problems can be formulated as distribution comparison problems. The mathematical theory of optimal transport allows for a comparison between two probability measures. Although very elegant in theory, optimal transport (OT) suffers from several practical drawbacks, notably the computational burden, the risk of overfitting, and its sensitivity to artifacts of sampling. All of this has motivated the introduction of variants to the loss function associated with OT in the machine learning community. In this thesis, we propose such variants in order, on one hand, to reduce the computational and statistical burden and, on the other hand, the sensitivity to sampling artifacts of the OT loss. To achieve this, we relied on intermediate distributions introduced by both the linear OT and unbalanced OT variants.

Νeural netwοrk based methοds fοr inverse prοblems: algοrithms and guarantees

Doctorant·e
BUSKULIC Nathan
Direction de thèse
FADILI Mohamed Jalal (Directeur·trice de thèse)
Date de la soutenance
12/11/2024 à 14:00
Lieu de la soutenance
Salle des thèses Sciences 3.
Rapporteurs de la thèse
AUJOL JEAN-FRANCOIS Universite de Bordeaux
DELON JULIE Université Paris Cité
Membres du jurys
AUJOL JEAN-FRANCOIS, , Universite de Bordeaux
CHOUZENOUX EMILIE, , INRIA Paris
DELON JULIE, , Université Paris Cité
FADILI Mohamed Jalal, , ENSICAEN
QUEAU Yvain, , CNRS
SCHONLIEB CAROLA-BIBIANE, , University of CAMBRIDGE
VILLA SILVIA, , GENES - UNIVERSITA DI GENOVA
Résumé
Ce manuscrit est dédié à l'analyse des réseaux de neurones lorsqu'ils sont entraînés de manière non-supervisée pour résoudre des problèmes inverses. Ces méthodes sont devenues très populaires et développées empiriquement ces dernières années, avec des résultats qualitatifs impressionnants, mais leur compréhension théorique reste encore limitée, en particulier leurs garanties de reconstruction. Dans cette thèse, nous nous attelons à ce problème. A cette fin, la clé de voûte sera d'exploiter la régularisation implicite induite par la dynamique de la méthode d'optimisation. Ainsi, nous étudions les trajectoires des paramètres de ces réseaux de neurones lorsqu'ils sont entraînés avec différentes méthodes d'optimisation, et nous montrons comment cela amène diverses garanties liées aux problèmes inverses. Nous commençons par étudier l'optimisation par flot de gradient et son équivalent discret la descente de gradient, pour des fonctions de coûts suffisamment régulières et qui vérifient l'inégalité de Kurdyka-\L{}ojasiewicz. Nous montrons que sous une condition d'initialisation non-dégénérée, le réseau va converger vers une solution de risque empirique nul à un taux qui dépend explicitement de la fonction désingularisante de la fonction coût. Nous donnons aussi une borne d'arrêt anticipé qui empêche le sur-apprentissage du bruit. Nous montrons ensuite que sous une condition d'injectivité restreinte, une borne de reconstruction de l'objet original (e.g. signal/image, etc.) peut être obtenue. Dans un second temps, nous étendons les résultats précédents lorsque le réseau de neurones est optimisé avec un risque quadratique en utilisant une dynamique inertielle combinant un amortissement visqueux et un amortissement géométrique guidé par le Hessien. Nous démontrons que des vitesses de convergence accélérées et des garanties de reconstruction peuvent être obtenues avec un choix judicieux des paramètres de la dynamique inertielle mais au prix d'une condition d'initialisation plus subtile. Un algorithme inertiel est proposé par discrétisation de la dynamique continue en temps est ses garanties sont établies. Pour toutes ces méthodes d'optimisation, nous exhibons l'architecture nécessaire avec notamment une borne de sur-paramétrisation qui assure qu'un réseau deep inverse prior à deux couches va pouvoir bénéficier de toutes ces garanties avec grande probabilité. Nous vérifions numériquement tous nos résultats sur plusieurs instances, et décrivons des applications, notamment en shape-from-shading multivues.
Abstract
This manuscript is devoted to the analysis of neural networks when trained in an unsupervised way to solve inverse problems in finite dimension. While these methods have become popular and heavily developed in the last years, leading to some qualitatively impressive results, they are lacking a thorough theoretical understanding, in particular of their recovery guarantees. In this thesis, our goal is to partly close that gap. For this, the key idea is to exploit the implicit regularization induced by the dynamic of the optimization method. Therefore, we study the trajectories of neural networks parameters under different optimization methods, and show how this leads to various inverse problem related recovery guarantees. We first study optimization through continuous gradient-flow, and its discrete counterpart gradient descent, for general sufficiently smooth loss functions that obey the Kurdyka-Lojasiewicz inequality. We show that under a non-degenerate initialization condition, the neural network will converge to a zero empirical risk solution with a rate that depends explicitly on the desingularizing function of the loss. We also provide an early-stopping bound to avoid the overfitting of the noise. We then show that with an additional restricted injectivity constraint, a recovery bound of the original object (e.g. signal/image, etc.) can be obtained. Second, we extend the above results when training with the mean square error loss using an inertial dynamic combining viscous and geometric Hessian-driven damping, and show that faster convergence and recovery guarantees can be obtained with a wise choice of dynamic parameters at the cost of more subtle initialization conditions. An inertial/momentum algorithm is then derived as a discretization of the continuous dynamic, it is then studied and its guarantees are established. For all these optimization methods, we also give an overparametrization bound under which a two-layer deep inverse prior network can benefit from the above guarantees with high probability. We numerically verify our results on a large ensemble of experiments, and we also exemplify our findings on two applications, for instance on multi-view shape-from-shading.

A Dynamical System Ρerspective οn Stοchastic and Ιnertial Μethοds fοr Οptimizatiοn

Doctorant·e
MAULEN SOTO Rodrigo
Direction de thèse
FADILI Mohamed Jalal (Directeur·trice de thèse)
Date de la soutenance
08/11/2024 à 14:00
Lieu de la soutenance
Salle des thèses, Sciences 3
Rapporteurs de la thèse
BOT RADU IOAN Université de Vienne
RONDEPIERRE AUDE Inst Nat Sc Appliq Toulouse
Membres du jurys
ADLY SAMIR, , Université de Limoges
BOT RADU IOAN, , Université de Vienne
BOYER CLAIRE, Maître de conférences, Sorbonne Université
DOSSAL CHARLES, , Inst Nat Sc Appliq Toulouse
FADILI Mohamed Jalal, , ENSICAEN
OCHS PETER, , Université des Saarlandes
RONDEPIERRE AUDE, , Inst Nat Sc Appliq Toulouse
Résumé
Motivé par l'omniprésence de l'optimisation dans de nombreux domaines de la science et de l'ingénierie, en particulier dans la science des données, ce manuscrit de thèse exploite le lien étroit entre les systèmes dynamiques dissipatifs à temps continu et les algorithmes d'optimisation pour fournir une analyse systématique du comportement global et local de plusieurs systèmes du premier et du second ordre, en se concentrant sur le cadre convexe, stochastique et en dimension infinie d'une part, et le cadre non convexe, déterministe et en dimension finie d'autre part. Pour les problèmes de minimisation convexe stochastique dans des espaces de Hilbert réels séparables de dimension infinie, notre proposition clé est de les analyser à travers le prisme des équations différentielles stochastiques (EDS) et des inclusions différentielles stochastiques (IDS), ainsi que de leurs variantes inertielles. Nous considérons d'abord les problèmes convexes différentiables lisses et les EDS du premier ordre, en démontrant une convergence faible presque sûre vers les minimiseurs sous hypothèse d'intégrabilité du bruit et en fournissant une analyse globale et locale complète de la complexité. Nous étudions également des problèmes convexes non lisses composites utilisant des IDS du premier ordre et montrons que, sous des conditions d'intégrabilité du bruit, la convergence faible presque sûre des trajectoires vers les minimiseurs, et avec la régularisation de Tikhonov la convergence forte presque sûre des trajectoires vers la solution de norme minimale. Nous développons ensuite un cadre mathématique unifié pour analyser la dynamique inertielle stochastique du second ordre via la reparamétrisation temporelle et le moyennage de la dynamique stochastique du premier ordre, ce qui permet d'obtenir une convergence faible presque sûre des trajectoires vers les minimiseurs et une convergence rapide des valeurs et des gradients. Ces résultats sont étendus à des EDS plus générales du second ordre avec un amortissement visqueux et Hessien, en utilisant une analyse de Lyapunov spécifique pour prouver la convergence et établir de nouveaux taux de convergence. Enfin, nous étudions des problèmes d'optimisation déterministes non convexes et proposons plusieurs algorithmes inertiels pour les résoudre, dérivés d'équations différentielles ordinaires (EDO) du second ordre combinant à la fois un amortissement visqueux sans vanité et un amortissement géométrique piloté par le Hessien, sous des formes explicites et implicites. Nous prouvons d'abord la convergence des trajectoires en temps continu des EDO vers un point critique pour des objectives vérifiant la propriété de Kurdyka-Lojasiewicz (KL) avec des taux explicites, et génériquement vers un minimum local si l'objective est Morse. De plus, nous proposons des schémas algorithmiques par une discrétisation appropriée de ces EDO et montrons que toutes les propriétés précédentes des trajectoires en temps continu sont toujours valables dans le cadre discret sous réserve d'un choix approprié de la taille du pas.
Abstract
Motivated by the ubiquity of optimization in many areas of science and engineering, particularly in data science, this thesis exploits the close link between continuous-time dissipative dynamical systems and optimization algorithms to provide a systematic analysis of the global and local behavior of several first- and second-order systems, focusing on convex, stochastic, and infinite-dimensional settings on the one hand, and non-convex, deterministic, and finite-dimensional settings on the other hand. For stochastic convex minimization problems in infinite-dimensional separable real Hilbert spaces, our key proposal is to analyze them through the lens of stochastic differential equations (SDEs) and inclusions (SDIs), as well as their inertial variants. We first consider smooth differentiable convex problems and first-order SDEs, demonstrating almost sure weak convergence towards minimizers under integrability of the noise and providing a comprehensive global and local complexity analysis. We also study composite non-smooth convex problems using first-order SDIs, and show under integrability conditions on the noise, almost sure weak convergence of the trajectory towards a minimizer, with Tikhonov regularization almost sure strong convergence of trajectory to the minimal norm solution. We then turn to developing a unified mathematical framework for analyzing second-order stochastic inertial dynamics via time scaling and averaging of stochastic first-order dynamics, achieving almost sure weak convergence of trajectories towards minimizers and fast convergence of values and gradients. These results are extended to more general second-order SDEs with viscous and Hessian-driven damping, utilizing a dedicated Lyapunov analysis to prove convergence and establish new convergence rates. Finally, we study deterministic non-convex optimization problems and propose several inertial algorithms to solve them derived from second-order ordinary differential equations (ODEs) combining both non-vanishing viscous damping and geometric Hessian-driven damping in explicit and implicit forms. We first prove convergence of the continuous-time trajectories of the ODEs to a critical point under the Kurdyka-Lojasiewicz (KL) property with explicit rates, and generically to a local minimum under a Morse condition. Moreover, we propose algorithmic schemes by appropriate discretization of these ODEs and show that all previous properties of the continuous-time trajectories still hold in the discrete setting under a proper choice of the stepsize.

Cοntrôle et cοοrdinatiοn d'une flοtte de drοnes

Doctorant·e
PETITPREZ Etienne
Direction de thèse
GUINAND FREDERIC (Directeur·trice de thèse)
GUERIN FRANCOIS (Co-directeur·trice de thèse)
Date de la soutenance
07/11/2024 à 10:00
Lieu de la soutenance
Université du Havre Normandie
Rapporteurs de la thèse
DANOY GREGOIRE Université du Luxembourg
LABBANI-IGBIDA OUIDDAD Université de Limoges
Membres du jurys
AVANZINI PIERRE, , SQUARDRONE SYSTEM
CHAUMETTE SERGE, , UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
DANOY GREGOIRE, , Université du Luxembourg
FANTONI ISABELLE, , Nantes Université
GUERIN FRANCOIS, , Université Le Havre Normandie (ULHN)
GUINAND FREDERIC, , Université Le Havre Normandie (ULHN)
LABBANI-IGBIDA OUIDDAD, , Université de Limoges
Résumé
Le projet de thèse vise à contrôler et coordonner les actions d’un ensemble de drones autonomes, pour un fonctionnement en essaim. Trois applications clefs sont ciblées : — un problème d’inventaire d’entrepôts combinant un ensemble de robots terrestres et de drones, — un problème de mesure de la qualité de l’air (caractérisation de panaches de polluants), — un problème de déploiement de drones pour de multiples missions de surveillance sur de longues durées. Ces applications ajoutent aux difficultés liées à la robotique mobile collective un volet d’optimisation sous incertitude, la conception d’une forme d’intelligence collective et des objectifs de robustesse et de flexibilité de la flotte. Le travail de recherche a mené au développement de deux briques logicielles. La première, nommée Superviseur, gère le parc de drones. Cela comprend la création de missions, la répartition et la réallocation dynamique des robots dans les missions en suivant une logique d’aide à la décision. Il s’agit de l’implémentation d’un algorithme glouton définissant les ordonnancements des drones dans les missions selon le contexte, les objectifs et les ressources à disposition. La seconde, appelée Gestionnaire de Mission, assure la réalisation des missions et l’exécution des demandes du Superviseur- déclenchement de missions / réallocations. Ces développements ont été comparés sur le plan des performances théoriques au travers du cas d’application de l’inventaire d’entrepôt et démontrés en application sur des déploiements de multi-missions de surveillance. Les résultats montrent des preuves d’adaptabilité aux contexte divers et une robustesse aux aléas, fonctionnant sur une système réellement mis en œuvre. L’étude des essaims de drones pour le contrôle de la qualité de l’air a abouti au développement d’un algorithme de contrôle de formation plane de drones en trois dimensions. La méthode repose sur l’utilisation de forces virtuelles pour attirer et repousser les drones selon leur environnement. La formation est générée par l’utilisation des descripteurs de Fourier pour en décrire la forme. Les essais en simulations et en pratique relatent d’un maintien de la formation malgré les changements de silhouette de celle-ci et les extractions / insertions de drones.
Abstract
The thesis project aims to control and coordinate the actions of a set of autonomous drones, for swarm operation. Three key applications are targeted : — a warehouse inventory problem combining a set of ground robots and drones, — an air quality measurement problem (characterization of plumes), — a problem of deploying drones for multiple surveillance missions over long periods. These applications add to the collective mobile robotics difficulties the optimization under uncertainty, the design of a collective intelligence and fleet robustness and flexibility objectives. The research work led to the development of two software bricks. The first, named Supervisor, manages the drone fleet. This includes the creation of missions, and the dynamic distribution and reallocation of robots within missions, following a decision-support logic. This involves the implementation of a greedy algorithm defining the scheduling of drones in missions according to context, objectives and available resources. The second, called the Mission Manager, is responsible for carrying out the missions and executing the Supervisor’s requests- triggering missions / reallocations. These developments have been compared in terms of theoretical performance through the warehouse inventory application case, and demonstrated in application on multi-mission surveillance deployments. The results show evidence of adaptability to various contexts and robustness to hazards, operating on a system that has actually been implemented. The study of drone swarms for air quality monitoring has led to the development of a three-dimensional drone formation control algorithm. The method is based on the use of virtual forces to attract and repel drones according to their environment. The formation is generated by using Fourier descriptors to describe its shape. Simulation and practical tests show that the formation is maintained despite shape shifting and drone extractions/insertions.

Ιmage segmentatiοn and data apprοximatiοn: applicatiοns tο medicine, geοsciences and renewable energies.

Doctorant·e
KHAYRETDINOVA GUZEL
Direction de thèse
GOUT CHRISTIAN (Directeur·trice de thèse)
KUKSENKO SERGEY (Co-directeur·trice de thèse)
Date de la soutenance
02/11/2024 à 10:00
Lieu de la soutenance
LMI - FR CNRS 3335 - - M3 - 7600 St Etienne du Rouvray
Rapporteurs de la thèse
GUESSAB ALLAL Université de Pau et des Pays de l'Adour
RADA LAVDIE Bahcesehir University, Turquie
Membres du jurys
BARUCQ HELENE, , INRIA Bordeaux Sud Ouest
GOUT CHRISTIAN, , INSA de Rouen Normandie
GUESSAB ALLAL, , Université de Pau et des Pays de l'Adour
KUKSENKO SERGEY, , TUSUR, Russie
RADA LAVDIE, , Bahcesehir University, Turquie
Résumé
Cette thèse contient deux parties principales. Dans la première partie, nous proposons un nouveau modèle de segmentation d'images sous contraintes géométriques : nous améliorons les travaux antérieurs développés par Gout et al. [2008] en définissant une nouvelle condition initiale à partir des contraintes géométriques données par l'utilisateur. Nous définissons également une nouvelle modélisation mathématique, nous donnons le problème de minimisation correspondant, conduisant à une formulation variationnelle. Ce nouveau modèle permet d'envisager de nombreuses applications différentes depuis la segmentation d'images jusqu'à l'approximation de données. Des exemples numériques sont donnés. Dans la deuxième partie de ce travail, nous proposons une approximation de champ de vecteurs (représentant le vent par exemple), nous donnons toutes les étapes depuis la modélisation et approximation par Dm splines jusqu'à la visualisation par Matplotlib (et Python). Des exemples numériques sont donnés.
Abstract
This thesis contains two main parts. In the first part, we propose a new model for image segmentation under geometric constraints: we improve previous works developed by Gout et al. [2008] defining a new initial condition from the geometric constraints given by the user. We also define a new mathematical modelling, we give its corresponding minimization problem leading to a variational formulation. This new model makes it possible to consider many different applications from image segmentation to data approximation. Numerical examples are given. In the second part of this work, we propose a vector field approximation approximation, we give all the steps from the modelling and approximation using Dm splines to the visualization using Matplotlib (and Python). Numerical examples are given.

Estimatiοn οf Depressiοn Level frοm Τext: Symptοm-Based Apprοach, External Κnοwledge, Dataset Validity

Doctorant·e
MILINTSEVICH Kirill
Direction de thèse
DIAS Gael (Directeur·trice de thèse)
SIRTS KAIRIT (Co-directeur·trice de thèse)
Date de la soutenance
18/10/2024 à 09:30
Lieu de la soutenance
Salle des thèses, UFR Sciences 3, Campus 2, 6 boulevard Maréchal Juin, 14032 Caen
Rapporteurs de la thèse
GRABAR NATALIA Universite de Lille
KLINGER ROMAN Université Otto-Friedrich de Bamberg
Membres du jurys
BARBU EDUARD, Chercheur, Université de Tartu - Estonie
DAILLE BEATRICE, , Nantes Université
DIAS Gael, , Université de Caen Normandie (UCN)
GRABAR NATALIA, , Universite de Lille
KLINGER ROMAN, , Université Otto-Friedrich de Bamberg
MAUREL FABRICE, Maître de conférences, Université de Caen Normandie (UCN)
SIRTS KAIRIT, Maître de conférences, Université de Tartu - Estonie
TANNIER XAVIER, , Sorbonne Université
Résumé
Le trouble dépressif majeur (TDM) est l'un des troubles mentaux les plus répandus au monde, entraînant souvent une incapacité et un risque accru de suicide. La récente pandémie de coronavirus (COVID-19) a fait grimper le taux de dépression dans le monde entier. De plus, la stigmatisation et l'accès limité aux traitements entravent le diagnostic et les soins appropriés pour de nombreuses personnes. Des études préliminaires ont montré que les personnes déprimées et non déprimées utilisent un vocabulaire différent. Par exemple, les personnes déprimées ont tendance à utiliser davantage de mots négatifs ou émotionnels. Plus récemment, des modèles d'apprentissage profond ont été développés pour détecter la dépression à partir de textes. Cependant, la plupart des chercheurs ont traité la détection de la dépression comme une tâche de classification simple avec seulement deux étiquettes possibles : « déprimé » et « non déprimé ». Lorsqu'on considère deux personnes atteintes de dépression, il est important de noter qu'elles peuvent présenter des symptômes sous-jacents différents. Une personne peut souffrir d'insomnie et de difficultés de concentration, tandis qu'une autre peut présenter des changements d'appétit et une faible estime de soi. Ces personnes nécessitent des traitements différents, donc disposer d'informations sur les symptômes est essentiel. Dans cette thèse, nous avons développé une architecture de réseau neuronal qui prédit les symptômes de la dépression à partir de textes. Nous avons constaté que la prédiction des symptômes, plutôt qu'un simple diagnostic, était plus précise, tout en nous fournissant plus de détails. Nous avons encore amélioré le réseau de neurones en y introduisant des connaissances externes provenant de lexiques de sentiments et d'émotions. Nous avons utilisé une approche simple mais efficace qui consiste à marquer directement les mots des lexiques dans le texte. Enfin, en travaillant sur un jeu de données provenant des réseaux sociaux, nous avons constaté que le processus d’annotation était erroné. En conséquence, nous avons réannoté une partie de ce jeu de données avec l'aide d'un professionnel en santé mentale, démontrant ainsi l'importance de suivre les définitions médicales des symptômes et d'établir des directives claires pour l'annotation.
Abstract
Major Depressive Disorder (MDD) is one of the most prevalent mental disorders globally, often resulting in disability and an increased risk of suicide. The recent COVID-19 pandemic has made depression rates go up around the world. Moreover, stigma and limited treatment access hinder proper diagnosis and care for many. Early studies have found that depressed and non-depressed people use different vocabulary. For example, depressed people tend to use more negative or emotional words. More recently, deep learning models have been developed to detect depression from text. However, most researchers have treated depression detection as a simple classification task with only two possible labels: depressed and non-depressed. When considering two individuals with depression, it is important to note that they may exhibit different underlying symptoms. One person may experience insomnia and difficulty concentrating, while another may struggle with changes in appetite and low self-esteem. These people would require different treatments, so having information about the symptoms is essential. In this work, we developed a neural network that predicts depression symptoms from text. We found that predicting symptoms instead of a simple diagnosis was more accurate while giving us more details at the same time. We further improved the neural network by introducing external knowledge from existing sentiment and emotion lexicons. We used a simplistic yet effective approach of directly marking the words from the lexicons in the text. Finally, while working with a social media dataset, we discovered it was poorly annotated. As a result, we reannotated a part of this dataset with the help of a mental health professional, showing the importance of following medical symptom definitions and establishing clear annotation guidelines.

Géοstatistiques par apprentissage prοfοnd pοur la réductiοn des incertitudes: applicatiοn à la dépοllutiοn des sοls

Doctorant·e
RAKOTONIRINA Herbert
Direction de thèse
HONEINE PAUL (Directeur·trice de thèse)
ATTEIA OLIVIER (Co-directeur·trice de thèse)
Date de la soutenance
16/10/2024 à 14:00
Lieu de la soutenance
UFR sciences et techniques, Saint Etienne du Rouvray
Rapporteurs de la thèse
BEREZIAT DOMINIQUE Sorbonne Universite
ROMARY THOMAS Université Paris Sciences Lettres
Membres du jurys
ATTEIA OLIVIER, , Universite de Bordeaux
BEREZIAT DOMINIQUE, , Sorbonne Universite
HONEINE PAUL, , Université de Rouen Normandie (URN)
PEREZ SANDRA, , Universite Cote d'Azur
ROMARY THOMAS, , Université Paris Sciences Lettres
WALTER CHRISTIAN, , Cfr Rennes Agrocampus Ouest
Résumé
L'objectif de zéro artificialisation des sols d'ici 2030, énoncé par la loi Climat et Résilience en France en 2021 et aligné avec le Green Deal européen, souligne l'importance d'une meilleure gestion des sites et sols pollués (SSP). Cette thèse s'inscrit dans le cadre de la réhabilitation des sites industriels et la gestion des pollutions, domaines cruciaux pour atteindre ces objectifs environnementaux. Elle vise à développer des méthodes basées sur les progrès du Deep Learning en alternative aux méthodes géostatistiques, afin d'améliorer les prédictions et réduire les incertitudes liées à la répartition spatiale des contaminants. L'approche cherche à affiner les cartographies de contamination et à offrir des outils avancés pour la prise de décision environnementale. La thèse se divise en quatre parties principales. Premièrement, nous adaptons l'architecture Deep Image Prior (DIP), initialement conçue pour l'inpainting d'images, pour l'interpolation spatiale. Nous proposons l'utilisation d'une fonction de sur-échantillonnage bi-cubique et l'ajout de connexions résiduelles pour adapter cette architecture à notre situation où le nombre de données observées est très limité. L'utilisation de la méthode DIP présente l'avantage majeur de ne pas nécessiter de données labélisées pour l'entraînement. Cela est particulièrement pertinent pour les SSP où les cartes réelles n'existent pas car les cartographies existantes de la pollution sont le résultat de traitements géostatistiques ou d'autres méthodes. La capacité de la méthode proposée à réaliser une interpolation spatiale est enrichie par sa faculté à générer plusieurs cartographies représentant la distribution probable des polluants. Ce processus permet non seulement d'estimer la répartition des contaminants, mais aussi d'évaluer l'incertitude de ces estimations et de fournir la carte de probabilité de dépasser un seuil critique de pollution. Dans la deuxième partie, nous avons étendu la méthode basée sur le DIP, initialement adaptée pour les données bidimensionnelles, à des applications tridimensionnelles. Cette évolution permet de prendre en compte à la fois les informations verticales et horizontales des données observées, ce qui est crucial dans le contexte des SSP pour modéliser le volume de distribution de la pollution. Grâce à cette méthode, nous avons pu générer des cartographies 3D représentant la distribution probable de la pollution dans les sols et estimer le volume de terre contaminée selon différents seuils de pollution. Dans la 3ème partie, nous avons développé une nouvelle architecture de Deep Learning, toujours basée sur le concept de DIP, conçue pour effectuer une interpolation spatiale intégrant une variable auxiliaire, similairement à la méthode géostatistique de co-krigeage. Cette méthode vise à enrichir les données relatives à la variable d'intérêt pour obtenir une meilleure estimation. Cette approche est particulièrement pertinente pour les SSP, où le coût élevé d'acquisition des données géochimiques peut rendre avantageuse l'utilisation d'une seconde variable pour améliorer les performances des modèles. La méthode proposée obtient de meilleurs résultats que le co-krigeage à la fois en 2D et 3D. L'introduction d'une seconde variable a également permis de maîtriser le sur-apprentissage caractéristique des méthodes basées sur le DIP. La dernière partie de la thèse est consacrée à l'application pratique des méthodes développées sur des cas réels. Le premier cas traite de l'interpolation spatiale en 3D de la conductivité apparente ainsi que d'autres paramètres du sol. Le deuxième cas étudie une situation de co-contamination aux hydrocarbures et aux fluorures en France, mettant en œuvre les techniques élaborées précédemment pour évaluer et modéliser la distribution de la contamination.
Abstract
The goal of zero soil artificialization by 2030, as outlined by the Climate and Resilience law in France in 2021 and aligned with the European Green Deal, underscores the importance of improved management of contaminated sites and soils. This thesis is part of the rehabilitation of industrial sites and pollution management, crucial areas for achieving these environmental objectives. It aims to develop methods based on advancements in Deep Learning as an alternative to geostatistical methods to improve predictions and reduce uncertainties related to the spatial distribution of contaminants. The approach seeks to refine contamination maps and offer advanced tools for environmental decision-making. The thesis is divided into four main parts. First, we adapt the Deep Image Prior (DIP) architecture, initially designed for image inpainting, for spatial interpolation. We propose using a bicubic upsampling function and adding skip connections to adapt this architecture to our situation where the number of observed data is very limited. The use of the DIP method has the major advantage of not requiring labeled data for training. This is particularly relevant for contaminated sites soils, where actual maps do not exist as existing pollution maps result from geostatistical or other methods. The proposed method's ability to perform spatial interpolation is enriched by its capacity to generate multiple maps representing the probable distribution of pollutants. This process not only allows for estimating the distribution of contaminants but also for evaluating the uncertainty of these estimates and providing the probability map of exceeding a critical pollution threshold. In the second part, we extended the DIP-based method, initially adapted for two-dimensional data, to three-dimensional applications. This evolution allows for considering both vertical and horizontal information of observed data, which is crucial in the context of polluted soils to model the volume distribution of pollution. With this method, we generated 3D maps representing the probable distribution of pollution in soils and estimated the volume of contaminated soil according to different pollution thresholds. In the third part, we developed a new Deep Learning architecture, still based on the DIP concept, designed to perform spatial interpolation incorporating an auxiliary variable, similar to the geostatistical method of co-kriging. This method aims to enrich the data related to the variable of interest to obtain a better estimate. This approach is particularly relevant for contaminated sites and soils, where the high cost of acquiring geochemical data can make using a second variable advantageous to improve model performance. The proposed method achieves better results than co-kriging in both 2D and 3D. Introducing a second variable also helped control the overfitting characteristic of DIP-based methods. The last part of the thesis is devoted to the practical application of the methods developed in real cases. The first case deals with the 3D spatial interpolation of apparent conductivity and other soil parameters. The second case studies a situation of co-contamination with hydrocarbons and fluorides in France, implementing the previously developed techniques to assess and model the distribution of contamination.

Representatiοns οf structure grοup οf set-theοretical sοlutiοns tο the Υang-Baxter equatiοn

Doctorant·e
FEINGESICHT Edouard
Direction de thèse
GODELLE Eddy (Directeur·trice de thèse)
Date de la soutenance
11/10/2024 à 14:00
Lieu de la soutenance
S3 102 (Salle des thèses)
Rapporteurs de la thèse
BALLESTER-BOLINCHES ADOLFO VALENCE - UNIVERSIDAD DE VALENCIA
POULAIN D'ANDECY LOÏC Maître de conférences HDR Université de Reims Champagne Ardenne
Membres du jurys
BALLESTER-BOLINCHES ADOLFO, , VALENCE - UNIVERSIDAD DE VALENCIA
GODELLE Eddy, , Université de Caen Normandie (UCN)
LEBED Victoria, Maître de conférences, Université de Caen Normandie (UCN)
MARIN IVAN, , UNIVERSITE AMIENS PICARDIE JULES VERNE
POULAIN D'ANDECY LOÏC, Maître de conférences HDR, Université de Reims Champagne Ardenne
VENDRAMIN LEANDRO, Maître de conférences, UNIVERSITE VRIJE BRUSSEL BELGIQUE
Résumé
Dans cette thèse nous nous intéressons à l'étude des solutions ensemblistes de l'équation de Yang-Baxter. Le point de départ de notre approche sont les travaux de Patrick Dehornoy, qui a établi des parallèles entre les groupes de structures des solutions et la théorie des groupes d'Artin-Tits. Nous étudions donc les groupes des structures d'un point de vue de la théorie de Garside, à travers des représentations monomiales, dans le but d'améliorer la compréhension des solutions pour amener à leur éventuelle classification. Dans ce sens, nous étudions les bornes et les valeurs d'une constante définie par Dehornoy pour chaque solution. Nous nous intéressons ensuite à l'irréductibilité des représentations monomiales de ces solutions. Enfin, nous construisons et étudions des algèbres de Hecke pour les solutions, en soulignant les points communs et les différences avec la théorie connue des algèbre de Hecke pour les groupes d'Artin-Tits.
Abstract
In this thesis we are interested in set-theoretical solutions to the Yang-Baxter equation. The starting point of our approach is the work of Patrick Dehornoy, who established parallels between the structure groups of solutions and the theory of Artin-Tits groups. We thus study the structure groups from a Garside theory perspective, through monomial representations, with the aim of improving our understanding of solutions and eventually classifying them. In this sense, we study the bounds and values of a constant defined by Dehornoy for each solution. We then focus on the irreducibility of the monomial representations of these solutions. Finally, we construct and study Hecke algebras for solutions, highlighting the similarities and differences with the known theory of Hecke algebra for Artin-Tits groups.

Cοntributiοn à l'estimatiοn et la prédictiοn de l'état de santé ( en temps différé) d'un LΡRE réutilisable pοur pilοter la maintenance

Doctorant·e
GALLI Federica
Direction de thèse
HOBLOS GHALEB (Directeur·trice de thèse)
WEBER PHILIPPE (Co-directeur·trice de thèse)
Date de la soutenance
09/10/2024 à 09:30
Lieu de la soutenance
ESIGELEC
Rapporteurs de la thèse
MEDJAHER KAMAL EC NAT INGENIEURS TARBES
NEJJARI-AKHI-ELARAB FATIHA Univ. Polytechnique de Barcelone (ESP)
Membres du jurys
FIORE GIUSEPPE, , Centre National des Etudes Spatiales
HOBLOS GHALEB, , ESIGELEC ROUEN
KOBI ABDESSAMAD, , Université d'Angers
MEDJAHER KAMAL, , EC NAT INGENIEURS TARBES
NEJJARI-AKHI-ELARAB FATIHA, , Univ. Polytechnique de Barcelone (ESP)
SIRCOULOMB VINCENT, , ESIGELEC ROUEN
THEILLIOL DIDIER, , Université de Lorraine
WEBER PHILIPPE, , Université de Lorraine
Résumé
Cette thèse porte sur l’estimation de l’état de santé et la prévision de la durée de vie utile résiduelle en temps différé des moteurs de fusée à propergol liquide réutilisables, qui doivent être requalifiés après chaque mission. Dans ce contexte, la thèse propose une approche PHM (Prognosis and Health Monitoring) locale à base de données pour l’estimation du RUL (Remaining Useful Life) des roulements de la turbopompe du moteur. Deux activités principales ont été menées en parallèle : la génération de signaux vibratoires non stationnaires à l’aide d’un modèle dynamique du roulement, et le déploiement de l’algorithme prédictive pour le pronostic du roulement. L’approche PHM proposé concerne la construction de l’indicateur de santé, le diagnostic du roulement et l’estimation du RUL. Les signaux vibratoires ont été traités à l’aide de la décomposition en ondelettes et utilisés pour calculer un HI (Health Indicator) approprié. Un profil de dégradation a été défini et couplé à des modèles d’initiation et de propagation des fissures. Enfin, un MB-HMM (Multi Branch - Hidden Markov Model) à plusieurs niveaux a été entraîné pour capturer la dynamique de dégradation des roulements. Le modèle obtenu a été utilisé pour le diagnostic et l’estimation du RUL. La méthodologie proposée a été appliquée à des signaux vibratoires à la fois synthétiques et expérimentales (FEMTO, XJTU-SY). Les résultats montrent de bonnes capacités de prédiction du RUL. Plus spécifiquement, les modèles d’initiation et propagation de fatigue ont permis une réduction de la taille du modèle ML (Machine Learning), améliorant ainsi la phase d’entraînement des algorithmes.
Abstract
This thesis focuses on State of Health estimation and offline Remaining Useful Life (RUL) prediction for reusable liquid propellant (LPRE) rocket engines. Reusable LPREs must be requalified after each mission, so predictive maintenance actions must be planned. In this context, the thesis proposes a local data-driven PHM approach for the estimation of the turbopump bearings RUL. Two main activities were carried out in parallel: non-stationary vibration signals generation with a bearing dynamic model and bearing prognosis using a data-driven predictive algorithm. The proposed PHM approach includes: Health Indicator (HI) construction, bearing diagnosis and RUL estimation. Non-stationary vibration data were processed using the Maximum Overlap Discrete Wavelet Packet Transform (MODWPT) decomposition. Then, they were used to calculate an appropriate HI. A degradation profile was defined and linked to crack initiation and propagation fatigue models. Finally, a multi-level MB-HMM (Multi Branch - Hidden Markov Model) was trained to capture the bearing degradation dynamics. The resulting model was used to estimate the SoH as well as the RUL. The proposed methodology was applied to both synthetic and experimental signals. In particular, the FEMTO dataset and the XJTU-SY dataset were selected, which contain run-to-failure vibration signals. The obtained results show good RUL prediction capabilities. In particular, fatigue models allowed a reduction in the size of the ML (Machine Learning) model, thus improving the training phase of the algorithm.

Τοwards Explainable and Ιnterpretable Deep Νeural Νetwοrks

Doctorant·e
JEANNERET SANMIGUEL Guillaume
Direction de thèse
JURIE Frederic (Directeur·trice de thèse)
Date de la soutenance
25/09/2024 à 14:00
Lieu de la soutenance
Salle des thèses in the Science 3 - Campus 2 - Universite de Caen
Rapporteurs de la thèse
CORD MATTHIEU Sorbonne Université
DANTCHEVA ANTITZA CNRS
Membres du jurys
CORD MATTHIEU, , Sorbonne Université
DANTCHEVA ANTITZA, , CNRS
JURIE Frederic, , Université de Caen Normandie (UCN)
KIJAK EWA, Maître de conférences HDR, IRISA/INRIA Rennes
SCHMID CORDELIA, , INRIA Paris
SIMON LOIC, Maître de conférences, Université de Caen Normandie (UCN)
Résumé
Les architectures neuronales profondes ont démontré des résultats remarquables dans diverses tâches de vision par ordinateur. Cependant, leur performance extraordinaire se fait au détriment de l'interprétabilité. En conséquence, le domaine de l'IA explicable a émergé pour comprendre réellement ce que ces modèles apprennent et pour découvrir leurs sources d'erreur. Cette thèse explore les algorithmes explicables afin de révéler les biais et les variables utilisés par ces modèles de boîte noire dans le contexte de la classification d'images. Par conséquent, nous divisons cette thèse en quatre parties. Dans les trois premiers chapitres, nous proposons plusieurs méthodes pour générer des explications contrefactuelles. Tout d'abord, nous incorporons des modèles de diffusion pour générer ces explications. Ensuite, nous lions les domaines de recherche des exemples adversariaux et des contrefactuels pour générer ces derniers. Le suivant chapitre propose une nouvelle méthode pour générer des contrefactuels en mode totalement boîte noire, c'est-à-dire en utilisant uniquement l'entrée et la prédiction sans accéder au modèle. La dernière partie de cette thèse concerne la création de méthodes interprétables par conception. Plus précisément, nous étudions comment étendre les transformeurs de vision en architectures interprétables. Nos méthodes proposées ont montré des résultats prometteurs et ont avancé la frontière des connaissances de la littérature actuelle sur l'IA explicable.
Abstract
Deep neural architectures have demonstrated outstanding results in a variety of computer vision tasks. However, their extraordinary performance comes at the cost of interpretability. As a result, the field of Explanable AI has emerged to understand what these models are learning as well as to uncover their sources of error. In this thesis, we explore the world of explainable algorithms to uncover the biases and variables used by these parametric models in the context of image classification. To this end, we divide this thesis into four parts. The first three chapters proposes several methods to generate counterfactual explanations. In the first chapter, we proposed to incorporate diffusion models to generate these explanations. Next, we link the research areas of adversarial attacks and counterfactuals. The next chapter proposes a new pipeline to generate counterfactuals in a fully black-box mode, \ie, using only the input and the prediction without accessing the model. The final part of this thesis is related to the creation of interpretable by-design methods. More specifically, we investigate how to extend vision transformers into interpretable architectures. Our proposed methods have shown promising results and have made a step forward in the knowledge frontier of current XAI literature.

Analyse de Dynamiques d'échanges Μicrοscοpiques et Μacrοscοpiques pοur l'écοlοgie et l'épidémiοlοgie.

Doctorant·e
TRETON Samuel
Direction de thèse
ALFARO MATTHIEU (Directeur·trice de thèse)
Date de la soutenance
19/09/2024 à 14:00
Lieu de la soutenance
Laboratoire de Mathématiques Raphaël Salem, Université de Rouen, campus du Madrillet
Rapporteurs de la thèse
NADIN GRÉGOIRE Université d'Orléans
SOUPLET PHILIPPE UNIVERSITE PARIS 13 PARIS-NORD
Membres du jurys
ALFARO MATTHIEU, , Université de Rouen Normandie (URN)
CALVEZ VINCENT, , UNIVERSITE BRETAGNE SUD UBS
LANDIM CLAUDIO, , Université de Rouen Normandie (URN)
MIRRAHIMI SEPIDEH, , UNIVERSITE MONTPELLIER 2 SCIENCES ET TECH DU LANGUEDOC
NADIN GRÉGOIRE, , Université d'Orléans
RIBOT MAGALI, , Université d'Orléans
ROQUEJOFFRE JEAN-MICHEL, , Université de Toulouse 3 - Paul Sabatier
SOUPLET PHILIPPE, , UNIVERSITE PARIS 13 PARIS-NORD
Résumé
Cette thèse porte sur la dérivation et l'analyse de modèles de populations structurées en espace, de nature stochastique et déterministe. L'objectif principal de ce travail est d'améliorer notre compréhension des liens complexes entre les dynamiques individu-centrées et le comportement global des populations, ainsi que l'évolution en temps long de ces dernières. En mettant l'accent sur certains modèles présentant des dynamiques d'échanges entre milieux hétérogènes, on explore les relations entre certains systèmes de particules en interaction (processus d'exclusion simple) et les équations de réaction-diffusion. Une attention particulière est également porté à l'analyse du comportement en temps long des solutions de ces dernières, notamment aux critères de persistance ou d'extinction des populations. On commence par introduire dans le Chapitre 1 les principaux fondements théoriques des équations de réaction-diffusion et des processus d'exclusion simple. Cette partie établit les prérequis essentiels pour les chapitres qui suivent. Le Chapitre 2 est consacré à la dérivation microscopique, à partir d'un processus d'exclusion simple, d'un système de réaction-diffusion connu sous le nom de "champ-route", utilisé pour modéliser l'impact des lignes de diffusion rapide en écologie et épidémiologie. Dans le Chapitre 3, on rend explicite les solutions du système champ-route diffusif original et on en fournit un contrôle uniforme en temps long. Ce type de contrôle s'avère utile pour quantifier "l'intensité de dispersion" du processus diffusif et permet notamment de montrer des résultats de persistance et d'extinction lorsqu'une fonction de croissance avec effet Allee est introduite. Enfin, le Chapitre 4 concerne des résultats de type Fujita sur l'explosion en temps fini, par opposition à la possible existence globale des solutions, d'un système de réaction-diffusion sur-linéaire "échangeur de chaleur". Cette étude permet de caractériser la stabilité de l'équilibre nul lorsqu'on ajoute une réaction monostable dégénérée en 0, pénalisant la croissance des faibles densités. Ce point représente la clé de voûte de la caractérisation des phénomènes de persistance et d'extinction mentionnés plus haut.
Abstract
This thesis deals with the derivation and the analysis of spatially structured population models, including both stochastic and deterministic approaches. The main goal of this work is to deepen our understanding of the intricate connections between individual-based dynamics and the collective behavior of populations, as well as the long-term behavior of the latter. By focusing on models that illustrate exchanges between heterogeneous environments, we particularly investigate the relationships between certain interacting particle systems (simple exclusion processes) and reaction-diffusion equations. Special attention is also given to the long-term behavior of the solutions of these equations, especially the criteria for population persistence or extinction. Chapter 1 lays the theoretical background for reaction-diffusion equations and simple exclusion processes. This section provides the necessary foundation for the following chapters. Chapter 2 explores the microscopic derivation, via a simple exclusion process, of a reaction-diffusion system known as the "field-road model", which is used to model the impact of fast diffusion channels in ecology and epidemiology. In Chapter 3, we explicitly derive the solutions of the original field-road diffusion model and provide a uniform long-term control. Such control is useful to quantify the "dispersion intensity" of the diffusive process, enabling to demonstrate results related to persistence and extinction when a growth function with an Allee effect is introduced. Finally, Chapter 4 examines Fujita-type results concerning blow-up versus possible global existence of solutions to a superlinear reaction-diffusion "heat exchanger" system. This study characterizes the stability of the zero equilibrium when a monostable reaction degenerate at 0 (penalizing low-density growth) is included. This aspect is crucial for understanding the persistence and extinction phenomena mentioned above.

Adressing data Ιncest fοr Cοοperative Lοcalizatiοn in Μulti-sensοr Μulti-vehicle Systems

Doctorant·e
SHAN Xiaoyu
Direction de thèse
CHAFOUK HOUCINE (Directeur·trice de thèse)
CABANI ADNANE (Co-directeur·trice de thèse)
Date de la soutenance
17/09/2024 à 14:00
Lieu de la soutenance
ESIGELEC Rouen
Rapporteurs de la thèse
M'SIRDI NACER Aix-Marseille université
RABHI ABDELHAMID UNIVERSITE AMIENS PICARDIE JULES VERNE
Membres du jurys
BENSRHAIR ABDELAZIZ, , INSA de Rouen Normandie
CABANI ADNANE, , ESIGELEC ROUEN
CHAFOUK HOUCINE, , ESIGELEC ROUEN
M'SIRDI NACER, , Aix-Marseille université
RABHI ABDELHAMID, , UNIVERSITE AMIENS PICARDIE JULES VERNE
RANDRIAMASY MALALATIANA, ,
Résumé
Le problème de consanguinité des données ou data incest en anglais provoque une corrélation entre les estimations pendant le processus de fusion de données, ce qui donne des résultats de fusion de données incohérents. En particulier la localisation coopérative dans le système multi-capteurs multi-véhicules (MSMV) met en evidence le problème deconsanguinité des données qui est grave en raison de multiples estimations de positions relatives, qui ne conduit pas seulement à une estimation pessimiste, mais entraîne également une surcharge de calcul supplémentaire. Afin de résoudre le problème de consanguinité des données, nous proposons une nouvelle méthode de fusion de données appelée filtre d’intersection de covariance divisée par intervalles (ISCIF). La cohérence générale de l’ISCIF est prouvée, servant commepreuve supplémentaire pour le filtre d’intersection de covariance divisée (SCIF). De plus, un système de localisation MSMV décentralisé comprenant des étapes de positionnement absolu et relatif est conçu. Dans l’étape de positionnement absolu, chaque véhicule utilise l’algorithme ISCIF pour mettre à jour sa propre position sur la base de mesures absolues. Au cours de l’étape de position relative, la méthode de propagation par contrainte d’intervalle (ICP) est mise en œuvre pour prétraiter plusieurs estimations de position relative et préparer les données d’entrée pour l’ISCIF. Ensuite, l’algorithme ISCIF proposé est utilisé pour réaliser le positionnement relatif. De plus, pour augmenter la robustesse de la méthode de localisation proposée dans les systèmes MSMV, une méthode de détection et d’exclusion de défauts (FDE) basée sur la divergence Kullback-Leibler (KLD) est implémentée dans notre système. Des simulations comparatives démontrent que la méthode proposée peut obtenir des résultats précis, robustes et peu coûteux par rapport aux méthodes de l’état de l’art.
Abstract
Data incest problem causes inter-estimate correlation during data fusion process, which yields inconsistent data fusion result. Especially in the multi-sensor multi-vehicle (MSMV) cooperative localization system, the data incest problem is serious due to multiple relative position estimations, which not only leads to pessimistic estimation, but also causes additional computational overhead. In order to address the data incest problem, we propose a new data fusion method named interval split covariance intersection filter (ISCIF). The general consistency of the ISCIF is proven, serving as a supplementary proof for the split covariance intersection filter (SCIF). Moreover, a decentralized MSMV localization system including absolute and relative positioning stages is designed. In the absolute positioning stage, each vehicle uses the ISCIF algorithm to update its own position based on absolute measurements. In the relative position stage, the interval constraint propagation (ICP) method is implemented to preprocess multiple relative position estimates and prepare input data for ISCIF at first. Then, the proposed ISCIF algorithm is employed to realize relative positioning. Furthermore, in order to enhance the robustness of the proposed localization method in MSMV systems, a Kullback–Leibler divergence (KLD)-based fault detection and exclusion (FDE) method is implemented in our system. In addition, comparative simulations demonstrate that the proposed method can achieve accurate, robust and low-cost results compared with the state of the art methods.

Le feu ça brûle et l'infοrmatique ça bugge : cοmbustiοn et régressiοn dans les graphes

Doctorant·e
LECOQ Romain
Direction de thèse
DORBEC Paul (Directeur·trice de thèse)
OTACHI YOTA (Co-directeur·trice de thèse)
Date de la soutenance
13/09/2024 à 14:30
Lieu de la soutenance
Greyc
Rapporteurs de la thèse
GENITRINI ANTOINE Sorbonne Université
LIEDLOFF MATHIEU Université d'Orléans
Membres du jurys
COURTIEL Julien, Maître de conférences, Université de Caen Normandie (UCN)
DORBEC Paul, , Université de Caen Normandie (UCN)
FALLERI JEAN-RÉMY, , MATMECA - BORDEAUX
GENITRINI ANTOINE, , Sorbonne Université
LIEDLOFF MATHIEU, , Université d'Orléans
MITSOU VALIA, Maître de conférences, Université Paris Cité
VALLEE BRIGITTE, , ENSICAEN
Résumé
 
Abstract
 

Classificatiοn des filtratiοns dynamiques et étude des systèmes d'entrοpie pοsitive

Doctorant·e
BENZONI Severin
Direction de thèse
DE LA RUE THIERRY (Directeur·trice de thèse)
ROY EMMANUEL (Co-directeur·trice de thèse)
Date de la soutenance
10/09/2024 à 14:30
Lieu de la soutenance
LMRS, Université de Rouen Normandie
Rapporteurs de la thèse
LEURIDAN CHRISTOPHE Universite Grenoble Alpes
WEISS BENJAMIN Université Hébraïque de Jérusalem
Membres du jurys
AUSTIN TIM, , Université de Warwick
DE LA RUE THIERRY, , Université de Rouen Normandie (URN)
JANVRESSE ELISE, , UNIVERSITE AMIENS PICARDIE JULES VERNE
LEURIDAN CHRISTOPHE, , Universite Grenoble Alpes
MARCOVICI IRENE, , Université de Rouen Normandie (URN)
ROY EMMANUEL, , UNIVERSITE PARIS 13 PARIS-NORD
WEISS BENJAMIN, , Université Hébraïque de Jérusalem
Résumé
Dans cette thèse, nous explorons les structures possibles des systèmes dynamiques de la forme $\bfX :=(X, \A, \mu, T)$ et leurs tribus facteur $\B \subset \A$. Les deux premiers chapitres étudient les différentes façons dont une tribu facteur $\B$ peut s'inclure dans un système dynamique $\bfX :=(X, \A, \mu, T)$, c'est-à-dire que nous étudions certaines structures possibles de l'\emph{extension} $\A \arr \B$. Dans le premier chapitre, nous considérons les concepts de \emph{super-innovations} et de \emph{standardité} des extensions, inspirés de la théorie des filtrations. Un point important est l'introduction de la notion d'\emph{extensions confinées}, qui nous intéressent parce qu'elles n'ont pas de super-innovation. Nous donnons plusieurs exemples et étudions des propriétés supplémentaires de ces extensions, y compris des résultats de relèvement. Ensuite, nous montrons notre résultat principal : l'existence d'extensions non-standard. Enfin, ce résultat trouve une application dans l'étude des filtrations dynamiques, qui sont les filtrations de la forme $(\F_n)_{n \leq 0}$ telles que chaque $\F_n$ est une tribu facteur. Nous montrons qu'il existe des \emph{filtrations dynamiques I-confortables non standard}. Le deuxième chapitre approfondit l'étude des extensions confinées en trouvant un nouveau type de telles extensions, dans le cadre des suspensions de Poisson : nous prenons un système dynamique $(X, \mu, T)$ en mesure $\s$-finie infinie et une extension compacte $(X \times G, \mu \otimes m_G, T_\phi)$, puis nous considérons l'extension de Poisson correspondante $((X \times G)^*, (\mu \otimes m_G)^*, (T_\phi)_*) \to (X^*, \mu^*, T_*)$. Nous donnons des conditions sous lesquelles cette extension est confinée et construisons un exemple qui correspond à ces conditions. Enfin, le troisième chapitre se concentre sur une famille de filtrations dynamiques : les \emph{filtrations de Pinsker faible}. L'existence de ces filtrations sur tout système ergodique provient d'un résultat récent d'Austin \cite{austin}, et elles se présentent comme un outil potentiel pour décrire les systèmes à entropie positive. Nous explorons les liens entre la structure asymptotique des filtrations de Pinsker faible et les propriétés du système dynamique sous-jacent. Naturellement, nous demandons aussi si, sur un système donné, la structure des filtrations de Pinsker faible est unique à isomorphisme près. Nous donnons une réponse partielle, dans le cas où le système sous-jacent est un schéma de Bernoulli. Nous concluons notre travail en donnant deux exemples explicites de filtrations de Pinsker faible.
Abstract
In this thesis, we explore the possible structures of measure preserving dynamical systems of the form $\bfX :=(X, \A, \mu, T)$ and their factor $\s$-algebras $\B \subset \A$. The first two chapters investigate various ways in which a factor $\s$-algebra $\B$ can sit in a dynamical system $\bfX :=(X, \A, \mu, T)$, i.e. we study some possible structures of the \emph{extension} $\A \arr \B$. In the first chapter, we consider the concepts of \emph{super-innovations} and \emph{standardness} of extensions, which are inspired from the theory of filtrations. An important focus of our work is the introduction of the notion of \emph{confined extensions}, which first interested us because they have no super-innovation. We give several examples and study additional properties of confined extensions, including several lifting results. Then, we show our main result: the existence of non-standard extensions. Finally, this result finds an application to the study of dynamical filtrations, i.e. filtrations of the form $(\F_n)_{n \leq 0}$ such that each $\F_n$ is a factor $\s$-algebra. We show that there exist \emph{non-standard I-cosy dynamical filtrations}. The second chapter furthers the study of confined extensions by finding a new kind of such extensions, in the setup of Poisson suspensions: we take an infinite $\s$-finite measure-preserving dynamical system $(X, \mu, T)$ and a compact extension $(X \times G, \mu \otimes m_G, T_\phi)$, then we consider the corresponding Poisson extension $((X \times G)^*, (\mu \otimes m_G)^*, (T_\phi)_*) \to (X^*, \mu^*, T_*)$. We give conditions under which that extension is confined and build an example which fits those conditions. Lastly, the third chapter focuses on a family of dynamical filtrations: \emph{weak Pinsker filtrations}. The existence of those filtrations on any ergodic system comes from a recent result by Austin \cite{austin}, and they present themselves as a potential tool to describe positive entropy systems. We explore the links between the asymptotic structure of weak Pinsker filtrations and the properties of the underlying dynamical system. Naturally, we also ask whether, on a given system, the structure of weak Pinsker filtrations is unique up to isomorphism. We give a partial answer, in the case where the underlying system is Bernoulli. We conclude our work by giving two explicit examples of weak Pinsker filtrations.

D'un espace de mοtifs structurés à sοn explοratiοn : cοmment prendre en cοmpte l'intérêt d'une experte ?

Doctorant·e
LEHEMBRE Etienne
Direction de thèse
CREMILLEUX Bruno (Directeur·trice de thèse)
Date de la soutenance
06/09/2024 à 09:00
Lieu de la soutenance
Campus 2, Sciences 3, s3-102
Rapporteurs de la thèse
ROBARDET CÉLINE INSA Lyon
SOULET ARNAUD Universite de Tours
Membres du jurys
BUREAU Ronan, , Université de Caen Normandie (UCN)
CELLIER PEGGY, Maître de conférences HDR, INSA de Rennes
CREMILLEUX Bruno, , Université de Caen Normandie (UCN)
IENCO DINO, Directeur de recherche, INRAE MONTPELLIER
ROBARDET CÉLINE, , INSA Lyon
SOULET ARNAUD, , Universite de Tours
ZIMMERMANN Albrecht, Maître de conférences, Université de Caen Normandie (UCN)
Résumé
Cette thèse aborde des questions connexes à la fouille de motifs de données structurées dans le cadre de la chémoinformatique. Plus précisément, nous considérons le rôle d'une experte dans l'évaluation de l'intérêt des motifs structurés ainsi que la caractérisation d’éléments remarquables dans un ensemble de motifs. Ainsi, nous présentons dans ce manuscrit trois contributions majeures. La première contribution permet de fournir à une experte des motifs dont les caractéristiques sont jugées surprenantes vis-à-vis d’un ensemble de motifs étudiés et de leur jeu de données. Ainsi, les motifs obtenus constituent pour l'experte des points d'entrée pour le début d’une analyse comparative mettant en relief les motifs et leur qualité afin de faire ressortir leur pertinence locale. Cette contribution consiste en un sélecteur de motifs remarquables nommé OPS (Outstanding Pattern Selector). Nous définissons un motif comme remarquable si sa qualité diverge suffisamment de son voisinage, c'est-à-dire, si sa qualité diverge suffisamment des qualités des motifs qui lui ressemblent. En chémoinformatique, les motifs sélectionnés sont des PAD (Pharmacophores Activity Delta) et constituent un ensemble de motifs dont les fonctions biologiques et le comportement des molécules s'avèrent surprenants pour les expertes. La seconde contribution consiste en une méthode d'exploration interactive nommée WaveLSea (Wave top-k random-d Lineage Search). Une particularité de l’algorithme WaveLSea est qu'il ne nécessite pas la déclaration de descripteurs sur les données explorées. Pour un ensemble de motifs donné, cette méthode a pour but d’orienter une experte dans son exploration de manière itérative. À ces fins, l'algorithme permet à l'experte d'interagir avec les motifs tout en lui proposant des échantillons pertinents. Ces interactions sont converties en étiquettes positives ou négatives permettant d'orienter l'experte dans son parcours de l'ensemble des motifs à travers les futurs échantillons. La troisième contribution consiste en une amélioration des méthodes d'évaluation des algorithmes de fouille interactive. Cette amélioration se fait à travers l'introduction d'erreurs contrôlées permettant d'évaluer la robustesse de ces algorithmes. Ainsi, les algorithmes de fouille interactive ne sont plus évalués avec des oracles ne commettant jamais d'erreurs, mais avec des devins dont le comportement se rapproche de celui d'un humain. En résumé, nous abordons dans cette thèse l'évaluation de l'intérêt des motifs structurés. Cette évaluation se fait de manière statique à travers le caractère remarquable des motifs et de manière dynamique grâce à un algorithme interactif. Enfin, nous abordons les problématiques liées à l'évaluation des algorithmes de fouille interactive. Ces résultats généraux sont abordés sous le regard de la chémoinformatique et du jeu de données BCR-ABL1 portant sur la leucémie myéloïde chronique afin de les illustrer dans un contexte concret.
Abstract
This thesis addresses issues related to pattern mining of structured data in the context of chemoinformatics. More specifically, we consider the role of an expert in evaluating the interest of structured patterns and in characterising remarkable elements in a set of patterns. In this manuscript, we present three major contributions. The first contribution makes it possible to give to an expert patterns whose characteristics are judged to be surprising in relation to a studied set of patterns and its dataset. The patterns thus obtained provide the expert with entry points for the start of a comparative analysis contrasting patterns and their quality in order to highlight their local relevance. This contribution consists of an Outstanding Pattern Selector nammed OPS. We define a pattern as remarkable if its quality diverges sufficiently from its neighbourhood, i.e. if its quality diverges sufficiently from the qualities of patterns that resemble it. In chemoinformatics, the patterns selected are PADs (Pharmacophores Activity Delta) and constitute a set of patterns whose biological functions and molecular behaviour are surprising for experts. The second contribution consists of an interactive exploration method called WaveLSea (Wave top-k random-d Lineage Search). A particular feature of the WaveLSea algorithm is that it does not require the declaration of descriptors on the data being explored. For a given set of patterns, the aim of this method is to iteratively guide an expert in her exploration. To this end, the algorithm allows the expert to interact with the patterns while suggesting relevant samples. These interactions are converted into positive or negative labels to guide the expert through the set of patterns and future samples. The third contribution consists of improving the methods used for evaluating interactive mining algorithms. This improvement is achieved by introducing controlled errors to evaluate the robustness of these algorithms. Thus, interactive mining algorithms are no longer evaluated with oracles that never make mistakes, but with soothsayers whose behaviour is closer to that of a human. To summarize, this thesis deals with the evaluation of the interest of structured patterns. This evaluation is carried out statically through the remarkable character of the patterns and dynamically through an interactive algorithm. Finally, we address the problems associated with the evaluation of interactive mining algorithms. These general results are discussed using chemoinformatics and the BCR-ABL1 dataset on chronic myeloid leukaemia to illustrate them in a concrete context.

Κnοwledge Graph-based System fοr Τechnical Dοcument Retrieval A deductive reasοning-fοcused explοratiοn

Doctorant·e
SESBOUE MATTHIAS
Direction de thèse
ZANNI-MERK CECILIA (Directeur·trice de thèse)
DELESTRE Nicolas (Co-encadrant·e de thèse)
KOTOWICZ JEAN-PHILIPPE (Co-encadrant·e de thèse)
Date de la soutenance
05/09/2024 à 13:15
Lieu de la soutenance
INSA de Rouen Normandie
Rapporteurs de la thèse
TROJAHN CASSIA Université Toulouse II
VAKAJ EDLIRA Birmingham City University, Royaume-Uni
Membres du jurys
DELESTRE Nicolas, , INSA de Rouen Normandie
KOTOWICZ JEAN-PHILIPPE, , INSA de Rouen Normandie
SETCHI ROSSI, , University of Cardiff, Royaume-Uni
SOUALMIA FATIMA, , Université de Rouen Normandie (URN)
TROJAHN CASSIA, , Université Toulouse II
VAKAJ EDLIRA, , Birmingham City University, Royaume-Uni
ZACHAREWICZ GRÉGORY, , Ecole de Mines d'Ales
ZANNI-MERK CECILIA, , INSA de Rouen Normandie
Résumé
Ces travaux de recherche industrielle explorent les systèmes fondés sur les graphes de connaissances (KGBS) pour la Recherche d'Informations (RI). Ils ont été menés en partenariat avec l'entreprise TraceParts. Notre cas d'utilisation considère un corpus de documents techniques composé de modèles CAO et de leurs descriptions. Plutôt que d'exploiter les modèles CAO directement, nous nous concentrons sur leurs textes descriptifs. Aujourd'hui, les graphes de connaissances (KG) deviennent omniprésents dans les systèmes d'information et les applications des entreprises. De nombreux domaines de recherche, tels que la RI, ont adopté les KG. Ces artefacts numériques agrègent des données hétérogènes et représentent les connaissances dans un format interprétable par nos ordinateurs. Ce sont des graphes destinés à accumuler et à transmettre les connaissances du monde réel, dont les nœuds représentent des entités d'intérêt et les arêtes les relations entre ces entités. Les projets d'ingénierie et de construction produisent une multitude de documents techniques. Les systèmes de RI sont essentiels pour les industries de ces domaines afin de retrouver efficacement leurs documents. Ces derniers sont complexes, hétérogènes et spécialisés. Bien que ces industries manipulent des documents avec un contenu textuel, ces textes et leurs métadonnées contiennent des concepts et du vocabulaire spécifiques à chaque domaine. Les KG ouverts et les ontologies existantes décrivent des concepts généraux et manquent des connaissances plus fines requises par les applications de RI. Par conséquent, les outils de RI et de gestion des connaissances nécessitent des KG spécifiques à chaque domaine, construits à partir de documents ou étendant des KG existants. Nous explorons tout d'abord les KG, les ontologies et leur relation. Cette revue de littérature nous amène à proposer notre propre définition de KG. Nous considérons les ontologies comme une composante d'un KG et adoptons une perspective fondée sur le Web Sémantique en proposant des technologies issues des normes du Consortium World Wide Web. Nous explorons également la signification théorique et pratique du terme "sémantique" avant de poursuivre notre revue de la littérature avec la RI, en mettant l'accent sur la RI fondée sur les KG. Nous mettons en avant des similitudes et distinctions dans les utilisations des KG. Nos contributions introduisent d'abord une architecture pour les KGBS. Cette architecture organise l'acquisition, la modélisation et la consommation des connaissances autour du KG. Nous démontrons que les standards du Web Sémantique fournissent une approche pour chaque composante de notre architecture. Nous utilisons cette dernière pour organiser la présentation de la suite de notre travail. Chacune de nos contributions aborde respectivement l'acquisition, la modélisation et la consommation des connaissances. Pour nos travaux, nous n'avons pas de KG préconstruit ou d'accès à des experts du domaine pour le construire. Par conséquent, nous abordons l'acquisition de connaissances en concevant notre approche d'apprentissage automatique d'ontologies (OLAF). Nous utilisons OLAF pour construire des chaînes de traitements et apprendre automatiquement des ontologies à partir de texte. Nous implémentons notre approche sous forme d'une bibliothèque Python open-source et construisons deux ontologies pour évaluer la pertinence, la facilité d'utilisation et la modularité de notre outil. Nous nous concentrons ensuite sur la modélisation des connaissances, en présentant notre ontologie de RI dont nous démontrons l'utilisation avec un système de RI fondé sur du raisonnement déductif OWL en temps réel. La démonstration de notre ontologie de RI illustre par une implémentation fondée sur le Web Sémantique de notre définition de KG. Enfin, nous mettons en oeuvre à échelle industrielle une approche fondée sur les KG avec des données provenant de la plateforme de contenue CAO www.traceparts.com.
Abstract
These industrial research works explore Knowledge Graph-Based Systems (KGBS) for Information Retrieval (IR). They have been conducted in partnership with the company TraceParts. TraceParts is one of the world's leading Computer-Aided Design (CAD)-content platforms for Engineering, Industrial Equipment, and Machine Design. Hence, our use case considers a technical document corpus composed of Computer-Aided Design (CAD) models and their descriptions. Rather than leveraging the CAD models, we focus on their descriptive texts. Knowledge Graphs (KG) are ubiquitous in today's enterprise information systems and applications. Many academic research fields, such as Information Retrieval (IR), have adopted KGs. These digital knowledge artefacts aggregate heterogeneous data and represent knowledge in a machine-readable format. They are graphs intended to accumulate and convey knowledge of the real world, whose nodes represent entities of interest and whose edges represent relations between these entities. The Architecture Engineering and Construction projects produce a wealth of technical documents. IR systems are critical to these industries to retrieve their complex, heterogeneous, specialised documents quickly. Healthcare is another similar domain with such a need. Though these industries manage documents with some textual content, such text and the metadata contain domain-specific concepts and vocabularies. Open KGs and the existing ontologies often describe concepts that are too high-level and need more fine-grained knowledge required by IR applications. Hence, companies' IR and knowledge management tools require domain-specific KGs built from scratch or extending existing ones. Throughout our literature review, we first explore Knowledge Graphs (KG), ontologies, and how they relate to and derive our unifying KG definition. We consider ontologies one component of a KG and take a Semantic Web perspective, proposing illustrative candidate technologies from the World Wide Web Consortium Semantic Web standards. We also explore the theoretical and practical meaning of the term "semantics". We then explore the literature on IR, focusing on KG-based IR. We break down this review section, first exploring the literature on IR using the term "knowledge graph" and then the one using the term "ontology". We thereby point out some similarities and distinctions in the KG usages. Our contributions first introduce a KGBS architecture relating knowledge acquisition, modelling, and consumption arranged around the KG. We demonstrate that Semantic Web standards provide an approach for each KGBS component. To organise our work, we follow this system architecture; hence, each of our contributions addresses knowledge acquisition, modelling, and consumption, respectively. For our work, we do not have a pre-built KG or access to domain experts to construct it. Hence, we address knowledge acquisition by designing our Ontology Learning Applied Framework (OLAF) collaboratively with some of our research group members. We use OLAF to build pipelines to automatically learn an ontology from text. We implement our framework as an open-source Python library and build two ontologies to assess the OLAF's pertinence, usability, and modularity. We then focus on knowledge modelling, presenting our IR ontology and demonstrating its usage with an OWL reasoning-powered IR system. While most IR systems leverage reasoning in an offline process, our approach explores OWL reasoning at runtime. While demonstrating our IR ontology, we illustrate a Semantic Web-based implementation of our KG definition by pointing out each KG component in our IR ontology demonstration. Finally, we tackle the CAD model retrieval challenge our industrial partner TraceParts faces by implementing a KG-based approach at scale and using real-world data. We illustrate moving from an existing text-based technical document retrieval system to a KG-based one. We leverage real-world TraceParts

Etudes des fοnctiοns de pertes basées sur l'entrοpie dans le cοntexte de l'apprentissage prοfοnd pοur la radiοmique.

Doctorant·e
BROCHET Thibaud
Direction de thèse
RUAN SU (Directeur·trice de thèse)
Date de la soutenance
16/07/2024 à 14:00
Lieu de la soutenance
UFR santé
Rapporteurs de la thèse
GARREAU MIREILLE UNIVERSITE RENNES 1
ZHU YUEMIN Institut National des Sciences Appliquees de Lyon
Membres du jurys
GARREAU MIREILLE, , UNIVERSITE RENNES 1
LAPUYADE-LAHORGUE JEROME, , Université de Rouen Normandie (URN)
MERIAUDEAU FABRICE, , Universite de Bourgogne
RUAN SU, , Université de Rouen Normandie (URN)
ZHU YUEMIN, , Institut National des Sciences Appliquees de Lyon
Résumé
Cette thèse explore l'impact des nouvelles fonctions de perte dérivées d'entropies généralisées et de nouvelles architectures de réseaux de neurones sur les performances des opérations de classification en Deep Learning. L'objectif principal de cette recherche est d'étudier comment l'utilisation de l'entropie généralisée d'Havrda-Charvat, avec la modulation de l'hyperparamètre alpha, influence les performances des modèles de classification. En parallèle, de nouvelles architectures de réseaux de neurones adaptées aux spécificités des données médicales ont été développées. Les résultats montrent une amélioration significative des performances par rapport aux fonctions de perte et aux réseaux traditionnels, démontrant ainsi la pertinence et le potentiel des approches proposées. Les conclusions de cette étude suggèrent que ces améliorations soulignent l'importance de poursuivre les recherches dans ce domaine prometteur.
Abstract
This thesis explores the impact of new loss functions derived from generalized entropies and novel neural network architectures on the performance of classification operations in Deep Learning. The main objective of this research is to investigate how the use of Havrda-Charvat's generalized entropy, with the modulation of the alpha hyperparameter, influences the performance of classification models. In parallel, new neural network architectures tailored to the specificities of medical data have been developed. The results show a significant improvement in performance compared to traditional loss functions and networks, thereby demonstrating the relevance and potential of the proposed approaches. The conclusions of this study suggest that these improvements highlight the importance of continuing research in this promising field.

Μéthοdes stοchastiques du secοnd οrdre pοur le traitement séquentiel de dοnnées massives

Doctorant·e
LU WEI
Direction de thèse
PORTIER BRUNO (Directeur·trice de thèse)
GODICHON ANTOINE (Co-encadrant·e de thèse)
Date de la soutenance
09/07/2024 à 14:00
Lieu de la soutenance
Salle BO A RC 02, INSA Rouen Normandie
Rapporteurs de la thèse
PELLETIER MARIANE Université de Versailles Saint-Quentin-en-Yvelines
PORTIER FRANÇOIS ENSAI, Bruz
Membres du jurys
CANU STEPHANE, , INSA de Rouen Normandie
CENAC PEGGY, , Université de Bourgogne
GODICHON ANTOINE, , Sorbonne Université
PELLETIER MARIANE, , Université de Versailles Saint-Quentin-en-Yvelines
POGGI JEAN MICHEL, , Université Paris-Saclay
PORTIER BRUNO, , INSA de Rouen Normandie
PORTIER FRANÇOIS, , ENSAI, Bruz
Résumé
Avec le développement rapide des technologies et l'acquisition de données de plus en plus massives, les méthodes capables de traiter les données de manière séquentielle (en ligne) sont devenues indispensables. Parmi ces méthodes, les algorithmes de gradient stochastique se sont imposés pour estimer le minimiseur d'une fonction exprimée comme l'espérance d'une fonction aléatoire. Bien qu'ils soient devenus incontournables, ces algorithmes rencontrent des difficultés lorsque le problème est mal conditionné. Dans cette thèse, nous nous intéressons sur les algorithmes stochastiques du second ordre, tels que ceux de type Newton, et leurs applications à diverses problématiques statistiques et d'optimisation. Après avoir établi des bases théoriques et exposé les motivations qui nous amènent à explorer les algorithmes de Newton stochastiques, nous développons les différentes contributions de cette thèse. La première contribution concerne l'étude et le développement d'algorithmes de Newton stochastiques pour la régression linéaire ridge et la régression logistique ridge. Ces algorithmes sont basés sur la formule de Riccati (Sherman-Morrison) pour estimer récursivement l'inverse de la Hessienne. Comme l'acquisition de données massives s'accompagne généralement d'une contamination de ces dernières, on s'intéresse, dans une deuxième contribution, à l'estimation en ligne de la médiane géométrique, qui est un indicateur robuste, i.e. peu sensible à la présence de données atypiques. Plus précisément, nous proposons un nouvel estimateur de Newton stochastique pour estimer la médiane géométrique. Dans les deux premières contributions, les estimateurs des inverses de Hessienne sont construits à l'aide de la formule de Riccati, mais cela n'est possible que pour certaines fonctions. Ainsi, notre troisième contribution introduit une nouvelle méthode de type Robbins-Monro pour l'estimation en ligne de l'inverse de la Hessienne, nous permettant ensuite de développer des algorithmes de Newton stochastiques dits universels. Enfin, notre dernière contribution se focalise sur des algorithmes de type Full Adagrad, où la difficulté réside dans le fait que l'on a un pas adaptatif basé sur la racine carré de l'inverse de la variance du gradient. On propose donc un algorithme de type Robbins-Monro pour estimer cette matrice, nous permettant ainsi de proposer une approche récursive pour Full AdaGrad et sa version streaming, avec des coûts de calcul réduits. Pour tous les nouveaux estimateurs que nous proposons, nous établissons leurs vitesses de convergence ainsi que leur efficacité asymptotique. De plus, nous illustrons l'efficacité de ces algorithmes à l'aide de simulations numériques et en les appliquant à des données réelles.
Abstract
With the rapid development of technologies and the acquisition of big data, methods capable of processing data sequentially (online) have become indispensable. Among these methods, stochastic gradient algorithms have been established for estimating the minimizer of a function expressed as the expectation of a random function. Although they have become essential, these algorithms encounter difficulties when the problem is ill-conditioned. In this thesis, we focus on second-order stochastic algorithms, such as those of the Newton type, and their applications to various statistical and optimization problems. After establishing theoretical foundations and exposing the motivations that lead us to explore stochastic Newton algorithms, we develop the various contributions of this thesis. The first contribution concerns the study and development of stochastic Newton algorithms for ridge linear regression and ridge logistic regression. These algorithms are based on the Riccati formula (Sherman-Morrison) to recursively estimate the inverse of the Hessian. As the acquisition of big data is generally accompanied by a contamination of the latter, in a second contribution, we focus on the online estimation of the geometric median, which is a robust indicator, i.e., not very sensitive to the presence of atypical data. More specifically, we propose a new stochastic Newton estimator to estimate the geometric median. In the first two contributions, the estimators of the Hessians' inverses are constructed using the Riccati formula, but this is only possible for certain functions. Thus, our third contribution introduces a new Robbins-Monro type method for online estimation of the Hessian's inverse, allowing us then to develop universal stochastic Newton algorithms. Finally, our last contribution focuses on Full Adagrad type algorithms, where the difficulty lies in the fact that there is an adaptive step based on the square root of the inverse of the gradient's covariance. We thus propose a Robbins-Monro type algorithm to estimate this matrix, allowing us to propose a recursive approach for Full AdaGrad and its streaming version, with reduced computational costs. For all the new estimators we propose, we establish their convergence rates as well as their asymptotic efficiency. Moreover, we illustrate the efficiency of these algorithms using numerical simulations and by applying them to real data.

Autοmated Depressiοn Level Estimatiοn: A Study οn Discοurse Structure, Ιnput Representatiοn and Clinical Reliability

Doctorant·e
AGARWAL Navneet
Direction de thèse
DIAS Gael (Directeur·trice de thèse)
Date de la soutenance
27/06/2024 à 14:00
Lieu de la soutenance
Salle de soutenance, S3, Campus 2, Caen
Rapporteurs de la thèse
AMBLARD MAXIME Université de Lorraine
DOUCET Antoine UNIVERSITE LA ROCHELLE
Membres du jurys
AMBLARD MAXIME, , Université de Lorraine
DE CHOUDHURY MUNMUM, , Institut de Technologie de Géorgie
DIAS Gael, , Université de Caen Normandie (UCN)
DOUCET Antoine, , UNIVERSITE LA ROCHELLE
GRABAR NATALIA, , UNIVERSITE LILLE 3 CHARLES DE GAULLE
KRISHNA SAI SUBRAHMANYAM GORTHI RAMA, , Indian Institute of Technology
SIRTS KAIRIT, Maître de conférences, Université de Tartu - Estonie
Résumé
Compte tenu de l'impact sévère et généralisé de la dépression, des initiatives de recherche significatives ont été entreprises pour définir des systèmes d'évaluation automatisée de la dépression. La recherche présentée dans cette thèse tourne autour des questions suivantes qui restent relativement inexplorées malgré leur pertinence dans le domaine de l'évaluation automatisée de la dépression : (1) le rôle de la structure du discours dans l'analyse de la santé mentale, (2) la pertinence de la représentation de l'entrée pour les capacités prédictives des modèles de réseaux neuronaux, et (3) l'importance de l'expertise du domaine dans la détection automatisée de la dépression. La nature dyadique des entretiens patient-thérapeute garantit la présence d'une structure sous-jacente complexe dans le discours. Dans cette thèse, nous établissons d'abord l'importance des questions du thérapeute dans l'entrée du modèle de réseau neuronal, avant de montrer qu'une combinaison séquentielle des entrées du patient et du thérapeute est une stratégie sous-optimale. Par conséquent, des architectures à vues multiples sont proposées comme moyen d'incorporer la structure du discours dans le processus d'apprentissage des réseaux neuronaux. Les résultats expérimentaux obtenus avec deux encodages de texte différents montrent les avantages des architectures multi-vues proposées, validant la pertinence de la conservation de la structure du discours dans le processus d'apprentissage du modèle. Ayant établi la nécessité de conserver la structure du discours dans le processus d'apprentissage, nous explorons plus avant les représentations textuelles basées sur les graphes. Les recherches menées dans ce contexte mettent en évidence l'impact des représentations d'entrée non seulement pour définir les capacités d'apprentissage du modèle, mais aussi pour comprendre leur processus prédictif. Les graphiques de similitude de phrases et les graphiques de corrélation de mots-clés sont utilisés pour illustrer la capacité des représentations graphiques à fournir des perspectives variées sur la même entrée, en mettant en évidence des informations qui peuvent non seulement améliorer les performances prédictives des modèles, mais aussi être pertinentes pour les professionnels de la santé. Le concept de vues multiples est également incorporé dans les deux structures graphiques afin de mettre en évidence les différences de perspectives entre le patient et le thérapeute au cours d'un même entretien. En outre, il est démontré que la visualisation des structures graphiques proposées peut fournir des informations précieuses indiquant des changements subtils dans le comportement du patient et du thérapeute, faisant allusion à l'état mental du patient. Enfin, nous soulignons le manque d'implication des professionnels de la santé dans le contexte de la détection automatique de la dépression basée sur des entretiens cliniques. Dans le cadre de cette thèse, des annotations cliniques de l'ensemble de données DAIC-WOZ ont été réalisées afin de fournir une ressource pour mener des recherches interdisciplinaires dans ce domaine. Des expériences sont définies pour étudier l'intégration des annotations cliniques dans les modèles de réseaux neuronaux appliqués à la tâche de prédiction au niveau des symptômes dans le domaine de la détection automatique de la dépression. En outre, les modèles proposés sont analysés dans le contexte des annotations cliniques afin d'établir une analogie entre leur processus prédictif et leurs tendances psychologiques et ceux des professionnels de la santé, ce qui constitue une étape vers l'établissement de ces modèles en tant qu'outils cliniques fiables.
Abstract
Given the severe and widespread impact of depression, significant research initiatives have been undertaken to define systems for automated depression assessment. The research presented in this dissertation revolves around the following questions that remain relatively unexplored despite their relevance within automated depression assessment domain; (1) the role of discourse structure in mental health analysis, (2) the relevance of input representation towards the predictive abilities of neural network models, and (3) the importance of domain expertise in automated depression detection. The dyadic nature of patient-therapist interviews ensures the presence of a complex underlying structure within the discourse. Within this thesis, we first establish the importance of therapist questions within the neural network model's input, before showing that a sequential combination of patient and therapist input is a sub-optimal strategy. Consequently, Multi-view architectures are proposed as a means of incorporating the discourse structure within the learning process of neural networks. Experimental results with two different text encodings show the advantages of the proposed multi-view architectures, validating the relevance of retaining discourse structure within the model's training process. Having established the need to retain the discourse structure within the learning process, we further explore graph based text representations. The research conducted in this context highlights the impact of input representations not only in defining the learning abilities of the model, but also in understanding their predictive process. Sentence Similarity Graphs and Keyword Correlation Graphs are used to exemplify the ability of graphical representations to provide varying perspectives of the same input, highlighting information that can not only improve the predictive performance of the models but can also be relevant for medical professionals. Multi-view concept is also incorporated within the two graph structures to further highlight the difference in the perspectives of the patient and the therapist within the same interview. Furthermore, it is shown that visualization of the proposed graph structures can provide valuable insights indicative of subtle changes in patient and therapist's behavior, hinting towards the mental state of the patient. Finally, we highlight the lack of involvement of medical professionals within the context of automated depression detection based on clinical interviews. As part of this thesis, clinical annotations of the DAIC-WOZ dataset were performed to provide a resource for conducting interdisciplinary research in this field. Experiments are defined to study the integration of the clinical annotations within the neural network models applied to symptom-level prediction task within the automated depression detection domain. Furthermore, the proposed models are analyzed in the context of the clinical annotations to analogize their predictive process and psychological tendencies with those of medical professionals, a step towards establishing them as reliable clinical tools.

Grandes déviatiοns dynamiques du prοcessus de l'exclusiοn en cοntact faible avec des réservοirs

Doctorant·e
BOULEY Angele
Direction de thèse
LANDIM CLAUDIO (Directeur·trice de thèse)
Date de la soutenance
25/06/2024 à 14:00
Lieu de la soutenance
LMRS - Laboratoire de Mathématiques Raphaël Salem
Rapporteurs de la thèse
BLONDEL ORIANE Université Claude Bernard - Lyon 1
TERTULIANO FRANCO Université Fédérale de Bahia
Membres du jurys
BLONDEL ORIANE, , Université Claude Bernard - Lyon 1
CALKA PIERRE, , Université de Rouen Normandie (URN)
LANDIM CLAUDIO, , Université de Rouen Normandie (URN)
MOURRAGUI MUSTAPHA, , Université de Rouen Normandie (URN)
SIMON MARIELLE, , Université Claude Bernard - Lyon 1
TERTULIANO FRANCO, , Université Fédérale de Bahia
Résumé
Cette thèse s'intéresse à un processus d'exclusion en contact faible avec des réservoirs. Plus précisément, on reprend le modèle étudié dans l'article "Hydrostatics and dynamical large deviations of boundary driven gradient symmetric exclusion processes" de J. Farfan, C. Landim, M. Mourragui mais dans le cas d'un contact faible (et non plus fort) avec les réservoirs. Par ce contact faible, des résultats sont modifiés comme le théorème de la limite hydrodynamique et le théorème des grandes déviations dynamiques. Ce sont les modifications de ses deux résultats qui sont étudiés dans cette thèse dans le cas de la dimension 1. La première partie de la thèse consistera à montrer le théorème de la limite hydrodynamique pour notre modèle, i.e. montrer la convergence de la mesure empirique. En se basant sur les étapes de la Section 5 du livre "Scaling limits of interacting particle systems" de C. Kipnis, C. Landim, il s'agira de montrer que cette suite est relativement compacte avant d'étudier les propriétés de ses points limites. Pour chacune des sous-suites convergentes, on montrera que celles-ci convergent vers des points limites qui se concentrent sur des trajectoires absolument continues et dont les densités sont solutions faibles d'une équation qu'on nommera l'équation hydrodynamique. En finissant par montrer qu’il y a unicité des solutions faibles de l’équation hydrodynamique, on aura alors un unique point limite et la convergence de la suite sera établie. Dans la deuxième partie de la thèse, on montrera le théorème des grandes déviations dynamiques, i.e. qu'il existe une fonction taux I_{[0,T]}( . |\gamma) vérifiant le principe des grandes déviations pour la suite étudiée dans la première partie. Après avoir définit la fonction taux, on montrera donc que celle-ci est semicontinue inférieurement, qu'elle a ses ensembles de niveaux compacts et qu'elle vérifie une propriété de borne inférieure et de borne supérieure. Une des principales difficulté sera de montrer qu’on a une propriété de densité pour un ensemble F pour notre fonction taux. Ceci représentera donc une part importante de cette section. De plus, pour montrer cette densité, on aura besoin de décomposer la fonction I_{[0,T]}( .|\gamma) qui admet des termes de bords et n’a pas de propriété de convexité comme l’ont les fonctions taux de plusieurs modèles déjà existants. En raison de ses deux contraintes, de nouvelles propriétés de régularités ainsi qu'un nouveau type de décomposition seront démontrés.
Abstract
This thesis focuses on a process of exclusion in weak contact with reservoirs. More precisely, we revisit the model studied in the article "Hydrostatics and dynamical large deviations of boundary driven gradient symmetric exclusion processes" by J. Farfan, C. Landim, M. Mourragui but in the case of weak (rather than strong) contact with the reservoirs. Through this weak contact, results are modified such as the hydrodynamic limit theorem and the theorem of large dynamical deviations. The modifications of these two results are studied in this thesis in the case of dimension 1. The first part of the thesis will consist of proving the hydrodynamic limit theorem for our model, i.e. showing the convergence of the empirical measure. Based on the steps in Section 5 of the book "Scaling limits of interacting particle systems" by C. Kipnis, C. Landim, we will show that this sequence is relatively compact before studying the properties of its limit points. For each convergent subsequence, we will show that they converge to limit points that concentrate on absolutely continuous trajectories and whose densities are weak solutions of an equation that we will call the hydrodynamic equation. By demonstrating the uniqueness of weak solutions of the hydrodynamic equation, we will then have a unique limit point and the convergence of the sequence will be established. In the second part of the thesis, we will demonstrate the theorem of large dynamical deviations, i.e. that there exists a rate function I_{[0,T]}(.|\gamma) satisfying the large deviations principle for the sequence studied in the first part. After defining the rate function, we will show that it is lower semicontinuous, has compact level sets, and satisfies a lower bound and an upper bound property. One of the main challenges will be to show a density property for a set F. This will represent a significant part of this section. Moreover, to prove this density property, we will need to decompose the function I_{[0,T]}(.|\gamma) which contains boundary terms and does not have a convexity property like the rate functions of several existing models. Due to these two constraints, new regularity properties as well as a new type of decomposition will be demonstrated.

Μοbile data analysis: rοbust alignment and flexible clustering methοds

Doctorant·e
YAN YUJIN
Direction de thèse
PAUCHET ALEXANDRE (Directeur·trice de thèse)
KNIPPEL ARNAUD (Co-encadrant·e de thèse)
Date de la soutenance
21/06/2024 à 10:30
Lieu de la soutenance
amphi DU B RJ 02 (Marie Curie) du bâtiment Dumont d'Urville de l'INSA de Rouen Normandie
Rapporteurs de la thèse
DU MOUZA CEDRIC Conservatoire national des arts et métiers
NGUYEN VIET HUNG Université Clermont Auvergne
Membres du jurys
ALES ZACHARIE, , ENSTA Paris
DU MOUZA CEDRIC, , Conservatoire national des arts et métiers
JOLLOIS FRANCOIS-XAVIER, , Université Paris Cité
KNIPPEL ARNAUD, , INSA de Rouen Normandie
LESOT MARIE-JEANNE, , Sorbonne Université
MAINGUENAUD MICHEL, , INSA de Rouen Normandie
NGUYEN VIET HUNG, , Université Clermont Auvergne
PAUCHET ALEXANDRE, , INSA de Rouen Normandie
Résumé
La popularité des appareils mobiles dans la vie moderne a révolutionné la communication, la navigation et les activités quotidiennes. Les appareils mobiles génèrent une grande quantité de données, y compris un large éventail de comportements des utilisateurs, allant du suivi de la localisation aux modèles de communication et aux données des capteurs. Ces données à multiples facettes ne saisissent pas seulement les interactions entre les individus et leurs appareils, mais révèlent également les tendances et les préférences sociales. Reconnaissant l'importance des données mobiles, nos recherches sont consacrées à l'exploration et à l'exploitation des comportements quotidiens des utilisateurs enregistrés par les appareils mobiles. Dans un premier temps, nous nous concentrons sur l'analyse des données de trajectoire, un composant des données mobiles qui est généralement représenté sous la forme d'une séquence spatio-temporelle. En utilisant les informations sémantiques intégrées dans les points de trajectoire, nous pouvons obtenir des informations sur les comportements et les activités des utilisateurs. Cependant, l'intégration des dimensions spatiales et temporelles augmente la complexité de l'analyse. Nous proposons une architecture de regroupement de trajectoires basée sur la sémantique pour analyser les données de trajectoires, qui comprend le prétraitement des données, l'exploration de la similarité et les méthodes de regroupement. En outre, nous introduisons un modèle d'exploration des similitudes fondé sur la programmation dynamique pour quantifier la similitude entre les trajectoires, améliorant ainsi notre compréhension des données mobiles. Une analyse expérimentale complète est menée sur un ensemble de données réelles afin de comparer notre modèle avec des méthodes de référence. Les résultats de la comparaison montrent la capacité de notre algorithme à examiner efficacement les associations au sein des données de trajectoire. Pour améliorer le contrôle expérimental, nous proposons un modèle de génération de données simulant des scénarios de la vie quotidienne en générant des données aléatoires fondées sur des données d'utilisateurs réels. Grâce à des comparaisons quantitatives entre l'architecture proposée et d'autres approches, notre algorithme démontre des performances acceptables. En passant des données de trajectoire aux données mobiles multivariées, nous sommes confrontés au défi d'utiliser efficacement divers types de capteurs pour extraire des informations subtiles sur le comportement de l'utilisateur. En introduisant l'algorithme d'alignement de séquences multivariées unidimensionnelles (1D MSA) et l'algorithme d'alignement de séquences multivariées bidimensionnelles (2D MSA), nous facilitons une analyse complète des données mobiles multivariées. Alors que l'algorithme 1D MSA privilégie l'efficacité de calcul, l'algorithme 2D MSA 2D excelle dans l'extraction de similitudes subtiles entre les séquences, ce qui permet une analyse plus détaillée. Parallèlement, nous utilisons différentes méthodes de regroupement pour analyser les sous-séquences similaires obtenues par les deux algorithmes et nous avons obtenu des résultats de regroupement similaires, voire identiques. En outre, les états de l'utilisateur représentés par chaque catégorie dans les résultats du regroupement sont très faciles à interpréter. Cela indique que nos algorithmes peuvent obtenir des résultats stables et cohérents sur des problèmes réels. En outre, nous comparons les sous-séquences similaires obtenues par l'algorithme 2D MSA et les méthodes de référence. Les résultats montrent que l'algorithme 2D MSA que nous proposons est plus performant lorsqu'il s'agit de capturer des similarités subtiles à partir des données. Cette performance robuste fait de l'algorithme 2D MSA un outil puissant pour extraire des sous-séquences significatives dans des données mobiles multivariées, contribuant ainsi à une meilleure interprétation des données et à des app
Abstract
The widespread popularity of mobile devices in modern life has brought a revolution in communication, navigation, and daily activities. Mobile devices generate a vast amount of data, including a wide range of user behaviors from location tracking to communication patterns and sensor data. This multifaceted data not only captures the interactions between individuals and their devices, but also reveals social trends and preferences. Recognizing the importance of mobile data, our research is dedicated to exploring and mining the user daily behavior recorded by mobile devices. Initially, we focus on analyzing trajectory data, which is a component of mobile data that is typically represented as a spatio-temporal sequence. Using the semantic information embedded in trajectory points, we can gain insights into users' behaviors and activities. However, the integration of spatial and temporal dimensions increases the complexity of the analysis. We propose a semantic-based trajectory clustering (STC) architecture to analyze trajectory data, which includes data preprocessing, similarity exploration, and clustering methods. In addition, we introduce a dynamic programming-based similarity exploration (DPD) model to quantify the similarity between trajectories, thus enhancing our understanding of mobile data. A comprehensive experimental analysis is conducted on a real-world dataset to compare the DPD model with the other baseline methods. The comparison results show the adeptness of our DPD algorithm in effectively examining associations within trajectory data. To enhance experimental control, we propose a data generation model simulating daily life scenarios by generating random data based on real user data. Through quantitative comparisons between the proposed STC architecture and other approaches, our algorithm demonstrates good performance. Transitioning from trajectory data to multivariate mobile data, we are challenged to effectively utilize various sensor types to extract subtle insights into user behavior. By introducing one-dimensional multivariate sequence alignment (1D MSA) algorithm and two-dimensional multivariate sequence alignment (2D MSA) algorithm, we facilitate a comprehensive analysis of multivariate mobile data. While the 1D MSA algorithm prioritizes computational efficiency, the 2D MSA algorithm excels at extracting subtle similarities between sequences, providing a more detailed analysis. Meanwhile, we use some different clustering methods to analyze the similar subsequences obtained by the two algorithms and obtained similar or even identical clustering results. Moreover, the user states represented by each category in the clustering results are highly interpretable. This indicates that our algorithms can obtain stable and real-life consistent results. Furthermore, we compare the similar subsequences obtained by 2D MSA algorithm and baseline methods. The results show that our proposed 2D MSA algorithm has superior performance in capturing subtle similarity from the data. This robust performance makes the 2D MSA algorithm as a powerful tool for extracting meaningful subsequences in multivariate mobile data, contributing to enhanced data interpretation and practical applications.

Ρhase retrieval with nοn-Euclidean Bregman based geοmetry

Doctorant·e
GODEME Jean-Jacques
Direction de thèse
FADILI Mohamed Jalal (Directeur·trice de thèse)
Date de la soutenance
21/06/2024 à 10:00
Lieu de la soutenance
Université de Caen
Rapporteurs de la thèse
BLANC-FERAUD LAURE UNIVERSITE NICE SOPHIA ANTIPOLIS
LUKE RUSSELL GOTTINGEN - GEORGE AUGUST UNIVERSITÄT
Membres du jurys
AMRA CLAUDE, , Institut Fresnel (UMR 7249)
BLANC-FERAUD LAURE, , UNIVERSITE NICE SOPHIA ANTIPOLIS
FADILI Mohamed Jalal, , ENSICAEN
JAMING PHILIPPE, , UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
LUKE RUSSELL, , GOTTINGEN - GEORGE AUGUST UNIVERSITÄT
POON CLARICE, , WARWICK - UNIVERITY OF WARWICK
WALDSPURGER IRÈNE, , UNIVERSITE PARIS 9
Résumé
Dans ce travail, nous nous intéressons au problème de reconstruction de phase de signaux à valeurs réelles en dimension finie, un défi rencontré dans de nombreuses disciplines scientifiques et d’ingénierie. Nous explorons deux approches complémentaires : la reconstruction avec et sans régularisation. Dans les deux cas, notre travail se concentre sur la relaxation de l’hypothèse de Lipschitz-continuité généralement requise par les algorithmes de descente du premier ordre, et qui n’est pas valide pour la reconstruction de phase lorsqu’il formulée comme un problème de minimisation. L’idée clé ici est de remplacer la géométrie euclidienne par une divergence de Bregman non euclidienne associée à un noyau générateur approprié. Nous utilisons un algorithme de descente miroir ou de descente à la Bregman avec cette divergence pour résoudre le problème de reconstruction de phase sans régularisation. Nous démontrons des résultats de reconstruction exacte (à un signe global près) à la fois dans un cadre déterministe et avec une forte probabilité pour un nombre suffisant de mesures aléatoires (mesures Gaussiennes et pour des mesures structurées comme la diffraction codée). De plus, nous établissons la stabilité de cette approche vis-à-vis d’un bruit additif faible. En passant à la reconstruction de phase régularisée, nous développons et analysons d’abord un algorithme proximal inertiel à la Bregman pour minimiser la somme de deux fonctions, l’une étant convexe et potentiellement non lisse et la seconde étant relativement lisse dans la géométrie de Bregman. Nous fournissons des garanties de convergence à la fois globale et locale pour cet algorithme. Enfin, nous étudions la reconstruction sans bruit et la stabilité du problème régularisé par un a priori de faible complexité. Pour celà, nous formulons le problème comme la minimisation d’une objective impliquant un terme d’attache aux données non convexe et un terme de régularisation convexe favorisant les solutions conformes à une certaine notion de faible complexité. Nous établissons des conditions pour une reconstruction exacte et stable et fournissons des bornes sur le nombre de mesures aléatoires suffisants pour de garantir que ces conditions soient remplies. Ces bornes d’échantillonnage dépendent de la faible complexité des signaux à reconstruire. Ces résultats nouveaux permettent d’aller bien au-delà du cas de la reconstruction de phase parcimonieuse.
Abstract
In this work, we investigate the phase retrieval problem of real-valued signals in finite dimension, a challenge encountered across various scientific and engineering disciplines. It explores two complementary approaches: retrieval with and without regularization. In both settings, our work is focused on relaxing the Lipschitz-smoothness assumption generally required by first-order splitting algorithms, and which is not valid for phase retrieval cast as a minimization problem. The key idea here is to replace the Euclidean geometry by a non-Euclidean Bregman divergence associated to an appropriate kernel. We use a Bregman gradient/mirror descent algorithm with this divergence to solve the phase retrieval problem without regularization, and we show exact (up to a global sign) recovery both in a deterministic setting and with high probability for a sufficient number of random measurements (Gaussian and Coded Diffraction Patterns). Furthermore, we establish the robustness of this approach against small additive noise. Shifting to regularized phase retrieval, we first develop and analyze an Inertial Bregman Proximal Gradient algorithm for minimizing the sum of two functions in finite dimension, one of which is convex and possibly nonsmooth and the second is relatively smooth in the Bregman geometry. We provide both global and local convergence guarantees for this algorithm. Finally, we study noiseless and stable recovery of low complexity regularized phase retrieval. For this, we formulate the problem as the minimization of an objective functional involving a nonconvex smooth data fidelity term and a convex regularizer promoting solutions conforming to some notion of low-complexity related to their nonsmoothness points. We establish conditions for exact and stable recovery and provide sample complexity bounds for random measurements to ensure that these conditions hold. These sample bounds depend on the low complexity of the signals to be recovered. Our new results allow to go far beyond the case of sparse phase retrieval.

Enhancing Μaritime Lοgistics with Blοckchain Τechnοlοgy: Applicatiοn tο secure and trace dangerοus gοοds in smart pοrts

Doctorant·e
ABDALLAH Rim
Direction de thèse
BERTELLE CYRILLE (Directeur·trice de thèse)
DUVALLET Claude (Co-encadrant·e de thèse)
Date de la soutenance
18/06/2024 à 14:00
Lieu de la soutenance
Amphi UFRST Le Havre
Rapporteurs de la thèse
VERDIER FRANÇOIS UNIVERSITE CÔTE D'AZUR
ZEDDINI BESMA CY TECH CERGY PARIS
Membres du jurys
BENNANI YOUNES, , UNIVERSITE PARIS 13 PARIS-NORD
BERTELLE CYRILLE, , Université Le Havre Normandie (ULHN)
BESANCENOT JÉRÔME, , HAROPA PORT
BOUZEFRANE SAMIA, , CNAM DE PARIS
DUVALLET CLAUDE, , Université Le Havre Normandie (ULHN)
VERDIER FRANÇOIS, , UNIVERSITE CÔTE D'AZUR
ZEDDINI BESMA, , CY TECH CERGY PARIS
Résumé
Cette thèse s'inscrit à l'avant-garde de la logistique maritime et explore le potentiel transformateur de la technologie blockchain pour améliorer la traçabilité de la chaîne d'approvisionnement et faciliter l'échange de données sécurisé et multi-source. À travers une analyse approfondie des applications de la blockchain, ce travail de recherche examine méticuleusement comment cette technologie émergente peut contribuer de manière significative à renforcer la transparence, la traçabilité et la sécurité au sein du commerce international. En s'appuyant sur un cadre théorique complet et des études de cas concrets, cette étude universitaire met en lumière les défis et les opportunités à multiples facettes liés à l'intégration de la blockchain dans la logistique maritime. Elle évalue de manière critique l'impact de cette technologie sur la traçabilité des données critiques au sein des systèmes d'information maritimes, telles que les marchandises dangereuses et les journaux d'identification, avec le potentiel de s'étendre à un échange de données inter et intra plus large. Cette thèse vise non seulement à enrichir les connaissances universitaires, mais également à servir d'appel à l'action pour les innovateurs et les décideurs politiques des secteurs maritime et technologique. Elle préconise une approche innovante qui favorise un engagement plus profond avec les possibilités de transformation offertes par la blockchain. Cette approche considère la blockchain non pas comme un substitut, mais comme une couche complémentaire aux systèmes d'information maritime existants. Elle envisage une intégration et une utilisation transparentes d'une technologie blockchain personnalisée et évaluée au sein du secteur maritime, garantissant ainsi sa cohérence avec les exigences spécifiques de l'industrie et les tendances actuelles de numérisation. Ce travail de recherche vise à fournir des éclairages qui permettent de mieux comprendre les implications de la technologie blockchain pour le paysage en évolution du commerce et de la logistique mondiaux.
Abstract
At the forefront of maritime logistics, this dissertation explores the transformative potential of blockchain technology to enhance supply chain traceability and facilitate secure, multi-source data exchange. Through a deep analysis of blockchain applications, the research meticulously examines how this emerging technology can significantly elevate transparency, strengthen traceability, and fortify security within the global trade arena. By weaving together a comprehensive theoretical framework and real-world case studies, this scholarly endeavour sheds light on the multifaceted challenges and opportunities associated with integrating blockchain into maritime logistics. It critically evaluates the technology's impact on the traceability of critical data within maritime information systems, such as dangerous goods and identification logs, with the potential to extend to broader inter- and intra-data exchange. This dissertation not only contributes to academic knowledge but also serves as a compelling call to action for innovators and policymakers in the maritime and technology sectors. It advocates for an innovative approach that fosters deeper engagement with the possibilities of blockchain-driven transformation. This approach views blockchain not as a replacement, but as a complementary layer to existing maritime information systems. It envisions seamless integration and utilization of customized and evaluated blockchain technology within the maritime sector, ensuring its coherence with industry-specific requirements and ongoing digitization trends. This research aims to provide insights that enhance the understanding of blockchain technology's implications for the evolving global trade and logistics landscape.

Apprentissage prοfοnd pοur l'analyse de la pοllutiοn des sοls par imagerie hyperspectrale

Doctorant·e
DHAINI Mohamad
Direction de thèse
HONEINE PAUL (Directeur·trice de thèse)
Date de la soutenance
17/06/2024 à 14:00
Lieu de la soutenance
Université de Rouen Normandie, Saint Etienne du Rouvray
Rapporteurs de la thèse
PUIGT MATTHIEU ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
SOUSSEN CHARLES CentraleSupélec
Membres du jurys
AINOUZ SAMIA, , INSA de Rouen Normandie
BERAR MAXIME, , Université de Rouen Normandie (URN)
FABRE SOPHIE, , Office National d'Etudes&recherches Aéro
HONEINE PAUL, , Université de Rouen Normandie (URN)
PUIGT MATTHIEU, , ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
RAKOTOMAMONJY ALAIN, , Université de Rouen Normandie (URN)
SOUSSEN CHARLES, , CentraleSupélec
Résumé
Ces dernières années, l'apprentissage profond a été étudié pour un large spectre d'applications. Dans cette thèse, nous visons à explorer un domaine moins connu mais d'une importance cruciale : l'apprentissage profond au profit de l'environnement. Plus précisément, nous étudions l'utilisation de l'apprentissage profond pour l'analyse de la pollution des sols à l'aide de l'imagerie hyperspectrale. Dans notre travail, nous fournissons des réponses aux besoins industriels identifiés par la société Tellux spécialisée dans les analyses environnementales tels de la pollution par les hydrocarbures ou la matière organique des sols. L'application de modèles d'apprentissage profond sur des données spectrales des sols n'est pas simple en raison des variabilités liées à la composition des sols, des types de contaminants ainsi que les paramètres d'acquisition. La thèse est divisée en deux parties principales en fonction de la nature et des objectifs des modèles développés. Dans la première partie, nous abordons les modèles conçus pour caractériser la structures stratigraphique des données d'un seul site de sol. A cette fin, en utilisant des techniques d'apprentissage non supervisé, notre contribution consiste à développer un autoencodeur convolutionnel complet pour le démélange hyperspectral non-linéaire conçu pour estimer la composition du sol. L'autoencodeur proposé surpasse des ensembles de données hyperspectrales aéroportées bien connus et il est utilisé dans une étude de cas opérationel de Tellux pour estimer la structures lithologiques du sol. Dans la deuxième partie, nous abordons les modèles généralisables à différents types de données géologiques, principalement des données synthétiques à des données réelles enregistrés sur le terrain. Nous proposons des modèles de régression conçus pour estimer la concentration en hydrocarbures des sols. À cette fin, nous explorons les techniques d'adaptation au domaine pour les tâches de régression sur les données hyperspectrales. L'adaptation de domaine pour les tâches de régression est très difficile par rapport à la classification en raison de la sensibilité du modèle à la dispersion des données dans l'espace des caractéristiques en fonction de la variable de sortie. Notre contribution consiste en deux nouvelles fonctions de perte de domaine adaptées aux problèmes de régression avec une mise en œuvre stable dans un réseau neuronal. Enfin, pour accroître la robustesse du modèle face à plusieurs variabilités spectrales possibles, nous explorons les techniques d'apprentissage contrastif pour les tâches de régression. À cette fin, nous proposons des techniques d'augmentation spectrale et spatiale adaptées aux données hyperspectrales et nous fournissons un cadre pour l'apprentissage contrastif spectral et spectral-spatial pour la régression sur les données hyperspectrales. Les techniques d'adaptation au domaine et d'apprentissage contrastif proposées améliorent les scores de régression des modèles de base les plus récents sur des données hyperspectrales aériennes synthétiques et réelles. De plus, les techniques proposées améliorent la généralisation des modèles Tellux des ensembles de données synthétiques de laboratoire et des ensembles de données réelles enregistrés sur le terrain.
Abstract
Throughout the years, deep learning has been investigated across a broad spectrum of applications. In this thesis, we aim to explore a less charted but critically important area: deep learning for the benefit of the environment. More precisely, we investigate the use of deep learning for soil pollution analysis using hyperspectral imagery. In our work, we provide answers to the industrial needs identified by the startup Tellux specialized in the environmental analysis such as soil pollution by hydrocarbons or organic materials. The application of deep learning models on soil spectral data is not straightforward as there are several difficulties faced related to variabilities in soil composition, types of pollutants, and acquisition parameters. The thesis is divided into two main parts according to the nature and objectives of the developed models. In the first part, we address the models designed to characterize the strati-graphic structure of a single site soil data. To this end, using unsupervised learning techniques, our contribution consists of developing an end-to-end convolutional autoencoder for nonlinear hyperspectral unmixing designed to estimate the soil composition. The proposed autoencoder outperforms well-known airborne hyperspectral datasets and is used in the operational phase of Tellux to estimate soil lithology. In the second part, we address the models that can be generalized across different soil datasets from different geological sites, mainly from synthetic ones to real field datasets. We propose regression models designed for estimating concentration of hydrocarbons pollution. For this purpose, we explore domain adaptation techniques for regression tasks on hyperspectral data. Domain adaptation for regression tasks is very challenging compared to classification due to sensitivity of the model to scattering of data in the feature space according to the output variable. Our contribution consists of two novel domain loss functions suitable for regression problems with stable implementation inside a neural network. Finally, to increase the robustness of the model against several possible spectral variabilities, we explore contrastive learning techniques for regression tasks. To this end, we propose spectral and spatial augmentation techniques suitable for hyperspectral data and we provide a framework for spectral and spectral-spatial contrastive learning for regression on hyperspectral data. The proposed domain adaptation and contrastive learning techniques improves the regression scores of state-of-the-art baseline models on synthetic and real airborne hyperspectral data. Besides, the proposed techniques improves the generalization of Tellux models from synthetic laboratory datasets to real field ones.

Μοdélisatiοn et simulatiοn numérique du prοblème inverse en tοmοgraphie électrοmagnétique.

Doctorant·e
COUSIN THEAU
Direction de thèse
GOUT CHRISTIAN (Directeur·trice de thèse)
FAUCHARD CYRILLE (Co-directeur·trice de thèse)
TONNOIR ANTOINE (Co-encadrant·e de thèse)
Date de la soutenance
25/03/2024 à 14:15
Lieu de la soutenance
Amphi Curie, INSA Rouen.
Rapporteurs de la thèse
DARBAS MARION Université de Paris 13
LEPAROUX DONATIENNE Université Gustave Eiffel
Membres du jurys
DARBAS MARION, , Université de Paris 13
DUMONT HERVÉ, , Eiffage
FAUCHARD CYRILLE, , Cerema
FLISS SONIA, , ENSTA Paris
GOUT CHRISTIAN, , INSA de Rouen Normandie
LEPAROUX DONATIENNE, , Université Gustave Eiffel
SERHIR MOHAMMED, , Centrale Supelec
TONNOIR ANTOINE, , INSA de Rouen Normandie
Résumé
Cette thèse s'inscrit dans un projet de recherche qui a pour ambition de développer, dans une démarche écologique, une méthodologie permettant de retrouver la densité des matériaux du génie civil. L'objectif est de remplacer une méthode invasive et nucléaire par une approche non destructive et électromagnétique. Les travaux de cette thèse sont issues d'une collaboration Cifre entre le Cerema, Routes de France et le Laboratoire de Mathématiques de l'INSA de Rouen Normandie (LMI). Des premiers travaux ont permis d'établir un lien entre la densité et la permittivité diélectrique d'un matériau, ce qui a conduit l'équipe ENDSUM du Cerema Normandie à réaliser un banc permettant d'émettre et de recevoir des ondes électromagnétiques. Il est équipé de moteurs pas à pas pour les antennes et un moteur pour le support, permettant d'accéder à des mesures de type tomographie. L'objectif de cette thèse est de mettre en place un solveur permettant de réaliser une inversion sur les données générées par ce banc afin de retrouver la permittivité et in fine la compacité. Cela implique la modélisation et la simulation numérique de ce système, basée sur la diffraction des ondes électromagnétiques régie par les équations de Maxwell que nous avons étudiés en ordre 2. La réalisation de ce solveur 3D a nécessité l'implémentation d'une méthode type \'Elément Finis, basée sur les \'Eléments Finis de Nédelec. La prise en compte du caractère non borné du domaine a été réalisée grâce à l'implémentation de Perfectly Matched Layers. Afin d'optimiser l'implémentation, nous avons également mis en place une vectorisation de l'assemblage des matrices de discrétisation et implémenté une méthode de décomposition de domaine. Finalement, la résolution du problème de minimisation s'est faite par une approche de type Gauss-Newton utilisant la méthode d'état adjoints pour le calcul de la matrice Hessienne. Cette résolution est combinée avec une régularisation de Tikhonov dite semi-quadratique permettant d'accentuer le contraste dans la permittivité recherchée. La modélisation du banc a également nécessité des travaux sur le calibrage des antennes utilisées. Nous avons réadapté les travaux de dans le but de considérer les antennes comme une source ponctuelle associée à une onde sphérique et mis en place un procédé expérimental permettant de corriger les signaux reçus.
Abstract
This thesis is part of a research project aiming to develop, in an ecological approach, a methodology for retrieving the density of civil engineering materials. The objective is to replace an invasive and nuclear method with a non-destructive and electromagnetic approach. The work of this thesis stems from a CIFRE collaboration between Cerema, Routes de France, and the Laboratory of Mathematics at INSA Rouen Normandie (LMI). The initial work has established a relationship between the density and the dielectric permittivity of a material, leading the ENDSUM team at Cerema Normandie to develop a bench capable of emitting and receiving electromagnetic waves. It is equipped with stepper motors for the antennas and a motor for the support, enabling tomography-type measurements. The objective of this thesis is to implement a solver capable of performing inversion on the data generated by this bench to retrieve the permittivity and ultimately the compactness. This involves the numerical modeling and simulation of this system, based on the diffraction of electromagnetic waves governed by the Maxwell equations we studied in second order. The development of this 3D solver required the implementation of a Finite Element type method, based on Nedelec Finite Elements. The consideration of the unbounded nature of the domain was achieved through the implementation of Perfectly Matched Layers. To optimize the implementation, we also introduced vectorization of the discretization matrix assembly and implemented a domain decomposition method. Finally, the resolution of the minimization problem was carried out using a Gauss-Newton approach utilizing the adjoint state method for computing the Hessian matrix. This resolution is combined with a semi-quadratic Tikhonov regularization method to enhance the contrast in the desired permittivity. The modeling of the bench also required work on the calibration of the antennas used. We have readapted previous work to consider the antennas as a point source associated with a spherical wave and implemented an experimental process to correct the received signals.

Ρrοblems, mοdels and methοds fοr risk reductiοn after industrial disasters invοlving dangerοus substances

Doctorant·e
BARBALHO Thiago Jobson
Direction de thèse
SANTOS ANDREA CYNTHIA (Directeur·trice de thèse)
Date de la soutenance
19/03/2024 à 14:00
Lieu de la soutenance
Amphi Normand - Bâtiment UFR Sciences et Techniques
Rapporteurs de la thèse
ABSI NABIL ECOLE NATIONALE DES MINES DE ST ETIENNE
KEDAD-SIDHOUM SAFIA CNAM DE PARIS
Membres du jurys
ABSI NABIL, , ECOLE NATIONALE DES MINES DE ST ETIENNE
BOSTEL NATHALIE, , Nantes Université
DE CASTRO PENA GUILHERME, , UNIVERSIDADE FEDERAL DE SAO JOAO DEL-REI
DUHAMEL CHRISTOPHE, , Université Le Havre Normandie (ULHN)
JIMENEZ LAREDO JUAN LUIS, , UNIVERSIDAD DE GRANADA
KEDAD-SIDHOUM SAFIA, , CNAM DE PARIS
SANTOS ANDREA CYNTHIA, , Université Le Havre Normandie (ULHN)
Résumé
En Europe, plus de 250 accidents majeurs impliquant des sites industriels soumis à la Directive Seveso ont été signalés depuis 2010. Malgré les réglementations en place visant à prévenir de tels accidents et à en minimiser l'impact, la gestion des risques après ces catastrophes reste un défi complexe. Lorsqu'un désastre industriel survient, des informations préliminaires sur le terrain sont collectées pour déterminer l'étendue de l'accident, et des décisions opérationnelles doivent être prises en fonction de la nature dangereuse des produits impliqués et de l'étendue de la zone affectée. Dans cette thèse, nous explorons le domaine des problèmes complexes de planification étroitement liés aux facteurs de risque découlant du traitement (nettoyage ou neutralisation) de substances dangereuses accidentellement libérées par des sources industrielles. L'objectif principal est de développer des modèles d'optimisation et des solutions efficaces qui abordent les défis auxquels sont confrontés les secteurs industriels et les opérations logistiques. Nous proposons de nouveaux problèmes d'optimisation pour établir un cadre de planification des opérations sur site visant à nettoyer ou neutraliser les dangers potentiels. Nous présentons plusieurs scénarios de problèmes et investiguons leurs résultats numériques obtenus par les différentes méthodes d'optimisation. Ces méthodes, conjointement avec les plans de gestion des risques déjà existants, peuvent fournir des insights intéressants pour être appliqués à des situations réalistes.
Abstract
In Europe, more than 250 major accidents involving industrial sites under the Seveso Directive have been reported since 2010. Despite regulations in place to prevent such accidents and minimize their impact, managing risk after these disasters remains a complex challenge. Once an industrial disaster occurs, preliminary on-the-ground information is collected to determine the extent of the accident, and operational decisions need to be made based on the hazardous nature of the products involved and the extent of the affected area. In this thesis, we delve into the realm of complex scheduling problems closely linked to risk factors arising from the treatment (cleaning or neutralizing) of hazardous substances accidentally released by industrial sources. The primary objective is to develop effective optimization models and solutions addressing the challenges faced by industries and logistical operations. We propose new optimization problems to establish a framework for scheduling on-site operations to either clean or neutralize potential hazards. We present mathematical formulations and an Iterated Local Search metaheuristic. The methods were applied to solve various problem scenarios, and we investigate their numerical results and their applicability to realistic situations.

Un système d'aide à la décisiοn pοur les négοces de matériaux

Doctorant·e
SOUPLY Marc
Direction de thèse
RIOULT Francois (Directeur·trice de thèse)
Date de la soutenance
06/03/2024 à 14:00
Lieu de la soutenance
Caen Campus 2
Rapporteurs de la thèse
CAMARGO MAURICIO Université de Lorraine
CLÉMENÇON STEPHAN Telecom Paris
Membres du jurys
CAMARGO MAURICIO, , Université de Lorraine
CLÉMENÇON STEPHAN, , Telecom Paris
FRYDMAN CLAUDIA, , Ecole Polytechnique Amu Universite Aix Marseille
MENARD Tomas, Maître de conférences HDR, Université de Caen Normandie (UCN)
RIOULT Francois, Maître de conférences HDR, Université de Caen Normandie (UCN)
ZACHAREWICZ GRÉGORY, , IMT Mines d'Alès
ZANNI-MERK CECILIA, , INSA de Rouen Normandie
Résumé
Cette thèse détaille la mise en œuvre d'un système d'aide à la décision pour le négoce de matériaux. Le contexte industriel dans lequel évolue ce négoce y est notamment décrit, et justifie les deux axes clé où des améliorations significatives peuvent être apportées : la prédiction de la demande, et l'optimisation du réapprovisionnement. Une exploration des solutions existantes dans ces deux domaines est proposée, et une discussion sur l'applicabilité des méthodes récentes rattachées à l'industrie 4.0 est menée. Il apparaît que les industries de tailles moyennes et petites n'ont ni le besoin ni les moyens de déployer les modèles issus du big data. Pour ces raisons, la thèse propose des processus économes en puissance de calcul, mêlant des méthodes traditionnelles bien connues avec des concepts plus récents pour circonscrire les prévisions et les réapprovisionnements autour de ce qui compte réellement pour le négoce de matériaux~: des résultats fiables sur les produits clé, obtenus selon des durées opérationnelles réaliste. Pour ces raisons, le travail s'appuie principalement sur des expérimentations comme la prévision avec extraction de saisonnalité automatisée et le choix en amont du meilleur modèle prédictif parmi quatre : le modèle ARIMAX, la forêt aléatoire, le LSTM et une moyenne mobile. L'optimisation, elle, se voit accélérée par l'enchaînement de méthodes de résolution appuyées par de l'early-stopping et du warm-start, tout en tenant compte des nombreuses contraintes spécifiques au négoce. Quatre méthodes de résolution sont ainsi comparées~: un algorithme glouton, un solveur quadratique, le recuit simulé et un algorithme génétique.
Abstract
This thesis describes the implementation of a decision support system for the material trade. It describes the industrial context in which this trade operates, and justifies the two key areas where significant improvements can be made: demand prediction and replenishment optimization. Existing solutions in these two areas are explored, and the applicability of recent Industry 4.0 methods is discussed. It appears that small and medium-sized industries have neither the need nor the means to deploy Big Data models. For these reasons, this work proposes processes that save computing power, blending well-known traditional methods with more recent concepts to circumscribe forecasts and replenishments around what really matters for the material trade: reliable results on key products, obtained within realistic operational timescales. For these reasons, the study relies mainly on experiments such as forecasting with automated seasonality extraction and upstream selection of the best predictive model from four: the ARIMAX model, the random forest, the LSTM and a moving average. Optimization, on the other hand, is accelerated by a sequence of resolution methods supported by early-stopping and warm-start, while taking into account the numerous constraints specific to this trading field. Four optimization methods are compared: a greedy algorithm, a quadratic solver, simulated annealing and a genetic algorithm.

Real-time Ιndοοr Lοcalizatiοn with Embedded Cοmputer Visiοn and Deep Learning

Doctorant·e
DAOU Andrea
Direction de thèse
HONEINE PAUL (Directeur·trice de thèse)
BENSRHAIR ABDELAZIZ (Co-directeur·trice de thèse)
Date de la soutenance
14/02/2024 à 14:00
Lieu de la soutenance
Rouen (Saint Etienne du Rouvray)
Rapporteurs de la thèse
CHAMBON SYLVIE Université de Toulouse 3 - Paul Sabatier
SIDEBE DRO DESIRE Comue Universites Paris-Saclay
Membres du jurys
BENSRHAIR ABDELAZIZ, , INSA de Rouen Normandie
CHAMBON SYLVIE, , Université de Toulouse 3 - Paul Sabatier
HONEINE PAUL, , Université de Rouen Normandie (URN)
MERIAUDEAU FABRICE, , Universite de Bourgogne
SIDEBE DRO DESIRE, , Comue Universites Paris-Saclay
Résumé
La localisation d'une personne ou d'un bien dans des environnements intérieurs est devenue une nécessité. Le système de positionnement par satellites, une solution prédominante pour la localisation en extérieur, rencontre des limites lorsqu'il est appliqué en intérieur en raison de la réflexion des signaux et de l'atténuation causée par les obstacles. Pour y remédier, diverses solutions de localisation en intérieur ont été étudiées. Les méthodes de localisation en intérieur sans fil exploitent les signaux pour déterminer la position d'un appareil dans un environnement intérieur. Cependant, l'interférence des signaux, souvent causée par des obstacles physiques, des réflexions et des appareils concurrents, peut entraîner des imprécisions dans l'estimation de la position. De plus, ces méthodes nécessitent le déploiement d'infrastructures, ce qui entraîne des coûts d'installation et de maintenance. Une autre approche consiste à estimer le mouvement de l'utilisateur à l'aide des capteurs inertiels de l'appareil. Toutefois, cette méthode se heurte à des difficultés liées à la précision des capteurs, aux caractéristiques de mouvement de l'utilisateur et à la dérive temporelle. D'autres techniques de localisation en intérieur exploitent les champs magnétiques générés par la Terre et les structures métalliques. Ces techniques dépendent des appareils et des capteurs utilisés ainsi que de l'environnement dans lequel se situe l'utilisateur. L'objectif de cette thèse est de réaliser un système de localisation en intérieur conçu pour les professionnels, tels que les pompiers, les officiers de police et les travailleurs isolés, qui ont besoin de solutions de positionnement précises et robustes dans des environnements intérieurs complexes. Dans cette thèse, nous proposons un système de localisation en intérieur qui exploite les récentes avancées en vision par ordinateur pour localiser une personne à l’intérieur d’un bâtiment. Nous développons un système de localisation au niveau de la pièce. Ce système est basé sur l'apprentissage profond et les capteurs intégrés dans le smartphone, combinant ainsi les informations visuelles avec le cap magnétique du smartphone. Pour se localiser, l'utilisateur capture une image de l'environnement intérieur à l'aide d'un smartphone équipé d'une caméra, d'un accéléromètre et d'un magnétomètre. L'image capturée est ensuite traitée par notre système composé de plusieurs réseaux neuronaux convolutionnels directionnels pour identifier la pièce spécifique dans laquelle se situe l'utilisateur. Le système proposé nécessite une infrastructure minimale et fournit une localisation précise. Nous soulignons l'importance de la maintenance continue du système de localisation en intérieur par vision. Ce système nécessite une maintenance régulière afin de s'adapter à l'évolution des environnements intérieurs, en particulier lorsque de nouvelles pièces doivent être intégrées dans le système de localisation existant. L'apprentissage incrémental par classe est une approche de vision par ordinateur qui permet aux réseaux neuronaux profonds d'intégrer de nouvelles classes au fil du temps sans oublier les connaissances déjà acquises. Dans le contexte de la localisation en intérieur par vision, ce concept doit être appliqué pour prendre en compte de nouvelles pièces. La sélection d'échantillons représentatifs est essentielle pour contrôler les limites de la mémoire, éviter l'oubli et conserver les connaissances des classes déjà apprises. Nous développons une méthode de sélection d'échantillons basée sur la cohérence pour l'apprentissage incrémental par classe dans le cadre de l'apprentissage profond. La pertinence de la méthodologie et des contributions algorithmiques de cette thèse est rigoureusement testée et validée par des expérimentations et des évaluations complètes sur des données réelles.
Abstract
The need to determine the location of individuals or objects in indoor environments has become an essential requirement. The Global Navigation Satellite System, a predominant outdoor localization solution, encounters limitations when applied indoors due to signal reflections and attenuation caused by obstacles. To address this, various indoor localization solutions have been explored. Wireless-based indoor localization methods exploit wireless signals to determine a device's indoor location. However, signal interference, often caused by physical obstructions, reflections, and competing devices, can lead to inaccuracies in location estimation. Additionally, these methods require access points deployment, incurring associated costs and maintenance efforts. An alternative approach is dead reckoning, which estimates a user's movement using a device's inertial sensors. However, this method faces challenges related to sensor accuracy, user characteristics, and temporal drift. Other indoor localization techniques exploit magnetic fields generated by the Earth and metal structures. These techniques depend on the used devices and sensors as well as the user's surroundings. The goal of this thesis is to provide an indoor localization system designed for professionals, such as firefighters, police officers, and lone workers, who require precise and robust positioning solutions in challenging indoor environments. In this thesis, we propose a vision-based indoor localization system that leverages recent advances in computer vision to determine the location of a person within indoor spaces. We develop a room-level indoor localization system based on Deep Learning (DL) and built-in smartphone sensors combining visual information with smartphone magnetic heading. To achieve localization, the user captures an image of the indoor surroundings using a smartphone, equipped with a camera, an accelerometer, and a magnetometer. The captured image is then processed using our proposed multiple direction-driven Convolutional Neural Networks to accurately predict the specific indoor room. The proposed system requires minimal infrastructure and provides accurate localization. In addition, we highlight the importance of ongoing maintenance of the vision-based indoor localization system. This system necessitates regular maintenance to adapt to changing indoor environments, particularly when new rooms have to be integrated into the existing localization framework. Class-Incremental Learning (Class-IL) is a computer vision approach that allows deep neural networks to incorporate new classes over time without forgetting the knowledge previously learned. In the context of vision-based indoor localization, this concept must be applied to accommodate new rooms. The selection of representative samples is essential to control memory limits, avoid forgetting, and retain knowledge from previous classes. We develop a coherence-based sample selection method for Class-IL, bringing forward the advantages of the coherence measure to a DL framework. The relevance of the methodology and algorithmic contributions of this thesis is rigorously tested and validated through comprehensive experimentation and evaluations on real datasets.

Ρrοbabilistic Expοnential Smοοthing fοr Explainable AΙ in the Supply Chain dοmain

Doctorant·e
CIFONELLI ANTONIO
Direction de thèse
CANU STEPHANE (Directeur·trice de thèse)
Date de la soutenance
22/12/2023 à 10:00
Lieu de la soutenance
INSA Rouen Normandie
Bâtiment Bougainville, rez-de-chaussée, salle BO-A-RC-02
685 avenue de l'université
76801 Saint Etienne du Rouvray
Rapporteurs de la thèse
AMINI MASSIH-REZA Université Grenoble Alpes
BATTON HUBERT MIREILLE École des Mines de Saint-Étienne
Membres du jurys
AINOUZ SAMIA, , INSA de Rouen Normandie
AMINI MASSIH-REZA, , Université Grenoble Alpes
BATTON HUBERT MIREILLE, , École des Mines de Saint-Étienne
CANU STEPHANE, , INSA de Rouen Normandie
LE HEGARAT-MASCLE SYLVIE, , Université Paris-Saclay
Résumé
Le rôle clé que l’IA pourrait jouer dans l’amélioration des activités commerciales est connu depuis longtemps, mais le processus de penetration de cette nouvelle technologie a rencontrzécertains freins au sein des entreprises, en particulier, les coûts de mise oeuvre. En moyenne, 2.8 ans sont nécessaires depuis la sélection du fournisseur jusqu’au déploiement complet d’une nouvelle solution. Trois points fondamentaux doivent être pris en compte lors du développement d’un nouveau modèle. Le désalignement des attentes, le besoin de compréhension et d’explications et les problems de performance et de fiabilité. Dans le cas de modèles traitant des données de la supply chain, cinq questions spécifiques viennent s’ajouter aux précédentes: - La gestion des incertitudes. Les décideurs cherchent un moyen de minimiser le risque associé à chaque décision qu’ils doivent prendre en présence d’incertitude. Obtenir une prévision exacte est un rêve; obtenir une prévision assez précise et en calculer les limites est réaliste et judicieux. - Le traitement des données entières et positives. La plupart des articles ne peuvent pas être vendus en sous-unités. Cet aspect simple de la vente se traduit par une contrainte qui doit être satisfaite: le résultat doit être un entier positif. - L’observabilité. La demande du client ne peut pas être mesurée directement, seules les ventes peuvent être enregistrées et servir de proxy. - La rareté et la parcimonie. Les ventes sont une quantité discontinue. En enregistrant les ventes par jour, une année entiére est condensée en seulement 365 points. De plus, une grande partie d’entre elles sera à zéro. - L’optimisation juste-à-temps. La prévision est une fonction clé, mais elle n’est qu’un élément d’une chaîne de traitements soutenant la prise de décision. Le temps est une ressource précieuse qui ne peut pas être consacrée entièrement à une seule fonction. Le processus de décision et les adaptations associées doivent donc être effectuées dans un temps limité et d’une manière suffisamment flexible pour pouvoir être interrompu et relancé en cas de besoin afin d’incorporer des événements inattendus ou des ajustements nécessaires. Cette thèse s’insère dans ce contexte et est le résultat du travail effectué au coeur de Lokad. La recherche doctorale a été financée par Lokad en collaboration avec l’ANRT dans le cadre d’un contrat CIFRE. Le travail proposé a l’ambition d’être un bon compromis entre les nouvelles technologies et les attentes des entreprises, en abordant les divers aspects précédemment présentés. Nous avons commencé à effectuer des prévisions en utilisant la famille des lissages exponentiels, qui sont faciles à mettre en oeuvre et extrêmement rapides à exécuter. Largement utilisés dans l’industrie, elles ont déjà gagné la confiance des utilisateurs. De plus, elles sont faciles à comprendre et à expliquer à un public non averti. En exploitant des techniques plus avancées relevant du domaine de l’IA, certaines des limites des modèles utilisés peuvent être surmontées. L’apprentissage par transfert s’est avéré être une approche pertinente pour extrapoler des informations utiles dans le cas où le nombre de données disponibles était très limité. Nous avons proposé d’utiliser un modèle associé à une loi de Poisson, une binomiale négative qui correspondmieux à la nature des phénomènes que nous cherchons à modéliser et à prévoir. Nous avons aussi proposé de traiter l’incertitude par des simulations de Monte Carlo. Un certain nombre de scénarios sont générés, échantillonnés et modélisés par dans une distribution. À partir de cette dernière, des intervalles de confiance de taille différentes et adaptés peuvent être déduits. Sur des données réelles de l’entreprise, nous avons comparé notre approche avec les méthodes de l’état de l’art comme DeepAR, DeepSSMs et N-Beats. Nous en avons déduit un nouveau modèle conçu à partir de la méthode Holt-Winter. Ces modèles ont été mis en oeuvre dans le “work flow” de l’entreprise
Abstract
The key role that AI could play in improving business operations has been known for a long time, but the penetration process of this new technology has encountered certain obstacles within companies, in particular, implementation costs. On average, it takes 2.8 years from supplier selection to full deployment of a new solution. There are three fundamental points to consider when developing a new model. Misalignment of expectations, the need for understanding and explanation, and performance and reliability issues. In the case of models dealing with supply chain data, there are five additionally specific issues: - Managing uncertainty. Precision is not everything. Decision-makers are looking for a way to minimise the risk associated with each decision they have to make in the presence of uncertainty. Obtaining an exact forecast is a advantageous; obtaining a fairly accurate forecast and calculating its limits is realistic and appropriate. - Handling integer and positive data. Most items sold in retail cannot be sold in subunits. This simple aspect of selling, results in a constraint that must be satisfied by the result of any given method or model: the result must be a positive integer. - Observability. Customer demand cannot be measured directly, only sales can be recorded and used as a proxy. - Scarcity and parsimony. Sales are a discontinuous quantity. By recording sales by day, an entire year is condensed into just 365 points. What’s more, a large proportion of them will be zero. - Just-in-time optimisation. Forecasting is a key function, but it is only one element in a chain of processes supporting decision-making. Time is a precious resource that cannot be devoted entirely to a single function. The decision-making process and associated adaptations must therefore be carried out within a limited time frame, and in a sufficiently flexible manner to be able to be interrupted and restarted if necessary in order to incorporate unexpected events or necessary adjustments. This thesis fits into this context and is the result of the work carried out at the heart of Lokad, a Paris-based software company aiming to bridge the gap between technology and the supply chain. The doctoral research was funded by Lokad in collaborationwith the ANRT under a CIFRE contract. The proposed work aims to be a good compromise between new technologies and business expectations, addressing the various aspects presented above. We have started forecasting using the exponential smoothing family which are easy to implement and extremely fast to run. As they are widely used in the industry, they have already won the confidence of users. What’s more, they are easy to understand and explain to an unlettered audience. By exploiting more advanced AI techniques, some of the limitations of the models used can be overcome. Cross-learning proved to be a relevant approach for extrapolating useful information when the number of available data was very limited. Since the common Gaussian assumption is not suitable for discrete sales data, we proposed using a model associatedwith either a Poisson distribution or a Negative Binomial one, which better corresponds to the nature of the phenomena we are seeking to model and predict. We also proposed using Monte Carlo simulations to deal with uncertainty. A number of scenarios are generated, sampled and modelled using a distribution. From this distribution, confidence intervals of different and adapted sizes can be deduced. Using real company data, we compared our approach with state-of-the-art methods such as DeepAR model, DeepSSMs and N-Beats. We deduced a new model based on the Holt-Winter method. These models were implemented in Lokad’s work flow.