Soutenances autorisées pour l'ED « École Doctorale Mathématiques, Information, Ingénierie des Systèmes »
(ED 590 MIIS)
Liste des soutenances actuelles 63
Τuning magnetic anisοtrοpy fοr magnetοresistive sensοrs οptimisatiοn: Unveiling the interfacial magnetic interactiοns in La1-xSrxΜnΟ3 films
Doctorant·e
SOLIS LEON Raul
Direction de thèse
FLAMENT Stephane (Directeur·trice de thèse)
PERNA PAOLO (Co-directeur·trice de thèse)
Date de la soutenance
09/12/2025 à 14:30
Lieu de la soutenance
Université de Caen, salle des thèses, Campus 2, Sciences 3
Rapporteurs de la thèse
FERMON CLAUDE CEA
RANCHAL ROCIO MADRID - UNIVERSIDAD COMPLUTENSE
Membres du jurys
BEA HELENE,
,
SPINTEC (SPINtronique et TEchnologie des Composants)
FERMON CLAUDE,
,
CEA
FLAMENT Stephane,
,
UCN - Université de Caen Normandie
MECHIN Laurence,
,
ENSICAEN
PERNA PAOLO,
,
IMDEA Nanoscience
RANCHAL ROCIO,
,
MADRID - UNIVERSIDAD COMPLUTENSE
ROJAS-SANCHEZ JUAN CARLOS,
,
Université de Lorraine
VELEZ SAUL,
,
Universidad Autonoma de MADRID
Résumé
Cette thèse traite de l'optimisation des capteurs de champ magnétique, en particulier des capteurs à magnétorésistance anisotrope (AMR) à base de La1-xSrxMnO3 (LSMO) déposés sur des substrats SrTiO3 (001) (STO). Ce type de dispositifs peut être fabriqué à partir d'une seule couche de matériau ferromagnétique (FM) ; leur fabrication est donc d'une simplicité inégalée par les autres dispositifs magnétorésistifs. L'objectif final est d'implanter ces capteurs dans des systèmes biologiques, ce qui nécessite la capacité de mesurer des signaux de très faible intensité (idéalement de l'ordre de quelques centaines de pT/√Hz) à basse fréquence (<500 Hz). Les capteurs doivent également être de petite taille et pouvoir fonctionner à la température du corps humain. Le paramètre de Hooge, qui décrit l'intensité du bruit à basse fréquence, présente des valeurs étonnamment faibles pour le LSMO, ce qui en fait un candidat idéal pour les capteurs AMR. L'optimisation de ces capteurs a été abordée sous plusieurs angles. Le premier consiste à déterminer l'angle de décalage optimal pour le substrat STO vicinal sur lequel déposer le film LSMO, utilisé pour induire efficacement une anisotropie uniaxiale. La variation de l'angle provoque également une altération de la force d'anisotropie, modifiant la réponse magnétique. La deuxième approche tire parti de la physique complexe des manganites, qui présentent une forte corrélation entre leurs propriétés électriques et magnétiques et sont affectés par la quantité de cations dopants qui remplacent le cation d'origine pour créer l'état de valence mixte. Nous avons donc recherché la concentration optimale en dopant qui améliore le signal de sortie et la réponse au bruit. La troisième et dernière approche concerne la structure des dispositifs. Nous utilisons deux configurations principales pour mesurer les signaux magnétiques. Il s'agit dans les deux cas de structures en pont de Wheatstone (WB) fabriquées selon des directions différentes par rapport à l'axe d'anisotropie facile : 45º et 90º. Le WB à 45º affiche déjà une région linéaire autour du champ appliqué nul, mais sa sensibilité et sa détectivité sont au moins d'un ordre de grandeur inférieures à celles du WB à 90º. Cependant, l'utilisation du WB à 90º nécessite l'application d'un champ de polarisation. Les contraintes imposées par l'application visée empêchent l'utilisation d'un champ magnétique externe, mais en appliquant l'effet Hall de spin (SHE), nous pouvons induire un champ de polarisation interne qui déplace la région de fonctionnement au champ nul. Afin d'utiliser le SHE, nous avons déposé du Pt sur le LSMO et obtenu un couple mesurable de type champ (FL). Les résultats présentés dans cette thèse indiquent des perspectives prometteuses pour l'utilisation de capteurs polarisés intrinsèquement contrôlés afin d'améliorer les performances des capteurs. En effet, le couple FL généré dans les bicouches LSMO/Pt est plus important qu'on ne le pensait auparavant, de l'ordre d'autres matériaux plus courants. D'autres simulations micromagnétiques suggèrent la viabilité de cette approche visant à utiliser le couple FL pour déplacer la courbe de réponse des capteurs. Par conséquent, les connaissances acquises au cours de ces travaux peuvent faciliter la poursuite des recherches visant à optimiser la mise en œuvre de ces capteurs dans un environnement réel.
Abstract
This thesis deals with the optimization of magnetic field sensors, particularly anisotropic magnetoresistance (AMR) sensors based on La1-xSrxMnO3 (LSMO) deposited over SrTiO3 (001) substrates (STO). This type of devices can be fabricated just with a single layer of ferromagnetic (FM) material; hence, their fabrication holds a simplicity that other magnetoresistive devices cannot match. The ultimate targeted objective is to implant these sensors into biological systems, thus requiring the ability to measure very low intensity signals (ideally in the order of hundreds of pT/√Hz) at low frequencies (<500 Hz). Further constraints on the sensors are a small size and be able to operate at human body temperature. The Hooge parameter that describes the intensity of the low frequency noise exhibits astoundingly low values for LSMO, making it a suitable candidate for AMR sensors. The optimization of these sensors was approached by several fronts. The first one is to determine the optimal miscut angle for the vicinal STO substrate where to deposit the LSMO film, used to effectively induce uniaxial anisotropy. The angle variation also provokes an alteration on the anisotropy strength, modifying the magnetic response. The second approach profits from the complex physics of manganites, which exhibit a strong correlation between their electrical and magnetic properties and are affected by the amount of dopant cations that substitute the original cation to create the mixed valence state. Therefore, we searched for the optimal dopant concentration that enhances the output signal and the noise response. The third, and final, approach relates to the structure of the devices. There are two primary configurations that we utilize for measuring magnetic signals. Both are Wheatstone bridge (WB) structures fabricated along different directions with respect to the anisotropy easy axis: 45º and 90º. The 45ºWB already displays a linear region around zero applied field, but its sensitivity and detectivity are at least one order of magnitude worse than in the 90ºWB case. However, the usage of the 90ºWB needs the application of a biasing field. The constraints imposed by the targeted application prevents the usage of an external magnetic field, but by applying spin Hall effect (SHE) we can induce an internal biasing field that shifts the operation region at zero field. So as to make use of SHE we have deposited Pt on top of LSMO and obtained a measurable field-like (FL) torque. The results shown in this thesis indicate promising perspectives for the use of intrinsically controlled biased sensors in order to enhance sensor performance. Indeed, the FL torque generated in LSMO/Pt bilayers is larger than previously thought, in the order of other more typical materials. Further micromagnetic simulations suggest the viability of this approach to make use of the FL torque for shifting the response curve of the sensors. Consequently, the insights attained during this work can facilitate further research for an optimal implementation of these sensors in a real environment.
Learning under Data Scarcity thrοugh Latent Representatiοn Refinement
Doctorant·e
JAIN DHRUV
Direction de thèse
HERAULT ROMAIN (Directeur·trice de thèse)
MODZELEWSKI ROMAIN (Co-encadrant·e de thèse)
Date de la soutenance
08/12/2025 à 10:00
Lieu de la soutenance
Insa de Rouen
Rapporteurs de la thèse
HATT MATHIEU INSERM
LOMENIE NICOLAS Université Paris Cité
Membres du jurys
CORROYER-DULMONT AURÉLIEN,
,
Centre François Baclesse
HATT MATHIEU,
,
INSERM
HERAULT ROMAIN,
,
Université de Caen Normandie
HINAULT PAULINE,
,
Institut du Cancer de Montpellier
LEE JOHN,
,
Université catholique de Louvain, Belgique
LOMENIE NICOLAS,
,
Université Paris Cité
MODZELEWSKI ROMAIN,
,
Centre Henri Becquerel
RUAN SU,
,
URN - Université de Rouen Normandie
Résumé
Le deep learning a transformé de nombreux domaines, de la conduite autonome à l’imagerie médicale, mais son adoption en santé demeure confrontée à des défis importants. L’imagerie clinique repose sur des modalités volumiques telles que le computed tomography (CT), imagerie par résonance magnétique (IRM) et le Cone-beam CT (CBCT), qui sont à la fois de haute dimension, hétérogènes et souvent affectées par du bruit ou des artefacts d’acquisition. La génération de données annotées représente un autre obstacle majeur, car le marquage au niveau voxel nécessite l’expertise spécialisée et un temps considérable. Par conséquent, les bases de données disponibles sont généralement de petite taille et déséquilibrées. Les modèles entraînés dans de tels contextes ont tendance à surapprendre, à généraliser difficilement et à ne pas capturer les dépendances à long terme nécessaires à la représentation de structures anatomiques complexes. Ces limitations soulèvent la question centrale de cette thèse : comment concevoir des méthodes data-efficient capables d’améliorer les performances pour des tâches telles que la classification et la segmentation lorsque les données annotées sont rares ?
Cette thèse aborde ces défis à trois niveaux : les données, le modèle et l’application.
Au niveau des données, nous proposons Mixing OCSVM Negatives (MiOC), un nouveau cadre de pré-entraînement contrastif. Le contrastive learning standard repose fortement sur la qualité des négatifs, or les échantillons négatifs tirés aléatoirement sont souvent trop simples ou sémantiquement ambigus. MiOC introduit un échantillonnage guidé par one-class support vector machine (OCSVM) pour identifier des négatifs inliers à l’intérieur d’une hypersphère autour de l’embedding de la requête, puis les mélange avec ces requêtes afin de générer des négatifs synthétiques difficiles. Cette approche élargit l’espace des hard negatives au-delà du simple classement par produit scalaire, produisant ainsi des représentations plus riches et plus discriminantes. Des expériences sur plusieurs bases de données (ImageNet-100, CIFAR-10, CIFAR-100, STL-10, CINIC-10) montrent des améliorations constantes en classification en aval, MiOC surpassant les modèles de l’état de l’art avec seulement un petit ajout de négatifs synthétiques à la file d’attente existante.
Au niveau du modèle, nous développons Diff-UMamba, une architecture de segmentation qui intègre des blocs mamba à espace d’états sélectif avec un module de réduction de bruit. Ce module effectue un différentiel de signal au niveau du goulot d’étranglement de l’encodeur, supprimant les activations bruitées et mettant en valeur les caractéristiques cliniquement pertinentes. En réduisant le surapprentissage et en modélisant les dépendances à longue portée, Diff-UMamba offre une meilleure généralisation dans les contextes de données limitées. Des évaluations étendues sur BRaTS21, MSD (poumon et pancréas), AIIB23 et un jeu interne non-small cell lung cancer (NSCLC) montrent des gains de performance de 1 à 5 % par rapport aux architectures de référence de type Convolutional neural network (CNN), transformer et mamba.
Au niveau de l’application, nous concevons une chaîne dédiée à la segmentation du volume tumoral macroscopique GTV en radiothérapie adaptative guidée par CBCT, où les tumeurs sont difficiles à distinguer en raison du faible contraste et des artefacts d’imagerie. Le modèle Diff-UMamba, combinant raffinements différentiels et modules mamba, démontre une délinéation du GTV robuste et précise. L’intégration des contours du CT de planification rigidement recalés comme priors améliore encore les scores de Dice, dépassant les méthodes de recalage déformable ainsi que les approches deep learning de pointe.
Dans leur ensemble, ces contributions font progresser l’apprentissage en contexte de rareté de données en améliorant la qualité des représentations, la robustesse architecturale et l’applicabilité clinique.
Abstract
Deep learning has advanced domains from autonomous driving to medical imaging, yet its adoption in healthcare comes with significant challenges. Clinical imaging depends on volumetric modalities such as computed tomography (CT), magnetic resonance imaging (MRI), and Cone-beam CT (CBCT), which are high-dimensional, heterogeneous, and often affected by noise or acquisition artifacts. Generating annotated data is another major challenge, as voxel-level labels require specialized expertise and considerable time. Consequently, available datasets are usually small and imbalanced. Models trained in such settings tend to overfit and often fail to capture the long-range dependencies necessary to represent complex anatomical structures. These limitations motivate the central question of this thesis: how can we design data-efficient methods that improve performance in tasks such as classification and segmentation when annotated data is scarce?
This thesis addresses these limitations at three levels: data, model, and application.
At the data level, we propose Mixing OCSVM Negatives (MiOC), a novel contrastive pretraining framework. Standard contrastive learning relies heavily on the quality of negatives, yet randomly sampled negatives are often either too easy or semantically ambiguous. MiOC introduces one-class support vector machine (OCSVM) guided sampling to identify inlier negatives within a hypersphere around the query embedding and then mixes them with queries to generate synthetic hard negatives. This approach broadens the hard negative sample space beyond basic dot-product ranking, leading to richer and more discriminative representations. Experiments on multiple datasets (ImageNet-100, CIFAR-10, CIFAR-100, STL-10, CINIC-10) show consistent improvements in downstream classification, with MiOC outperforming state-of-the-art models by adding only a small set of synthetic negatives to the existing queue.
At the model level, we develop Differential UMamba (Diff-UMamba), a segmentation architecture that integrates selective state-space mamba blocks with a noise reduction module. This module performs signal differencing in the encoder bottleneck, suppressing noise-like activations and highlighting clinically relevant features. By reducing overfitting and modeling long-range dependencies, Diff-UMamba achieves stronger generalization under limited data. Extensive evaluations on BRaTS21, MSD (lung and pancreas), AIIB23, and an internal non-small cell lung cancer (NSCLC) dataset show performance gains of 1–5% over state-of-the-art CNN, transformer, and mamba-based baselines.
At the application level, we design a dedicated pipeline for gross tumor volume (GTV) segmentation in CBCT-guided adaptive radiotherapy, where tumors are difficult to distinguish due to low contrast and imaging artifacts. The proposed Diff-UMamba model, combined with differentiation-based refinement and mamba modules, demonstrates robust and accurate GTV delineation. Incorporating rigidly registered planning CT contours as priors further improves the Dice scores, surpassing both deformable registration methods and state-of-the-art deep learning baselines.
Together, these contributions advance learning under data scarcity by improving representation quality, architectural robustness, and clinical applicability. This work demonstrates that carefully designed methods can mitigate the constraints of limited annotated data and enable more reliable deployment of deep learning in data-scarce scenarios.
Cοntributiοn à la détectiοn de sοus-graphes induits dans un multigraphe sοciο-transactiοnnel οrienté pοndéré
Doctorant·e
MORIN Maxence
Direction de thèse
PAWLOWSKI ESTELLE (Directeur·trice de thèse)
Date de la soutenance
05/12/2025 à 10:30
Lieu de la soutenance
Amphithéâtre S3-044
Rapporteurs de la thèse
GUILLAUME JEAN-LOUP UNIVERSITE LA ROCHELLE
SEBA HAMIDA Université Claude Bernard - Lyon 1
Membres du jurys
CREMILLEUX Bruno,
,
UCN - Université de Caen Normandie
GUILLAUME JEAN-LOUP,
,
UNIVERSITE LA ROCHELLE
HEMERY Baptiste,
,
ORANGE INNOVATION
PAWLOWSKI Estelle,
,
ENSICAEN
RAJEH STEPHANY,
,
UNIVERSITE PARIS 2 PANTHEON-ASSAS
SEBA HAMIDA,
,
Université Claude Bernard - Lyon 1
Résumé
Ce travail de recherche s’inscrit dans le cadre d’une thèse CIFRE menée en partenariat avec Orange et le laboratoire GREYC, visant à développer des méthodes pour l’analyse des données transactionnelles issues du service Orange Money. L’objectif principal est d’automatiser l’identification de groupes d’utilisateurs présentant des caractéristiques d’intérêt, tels que des structures financières ou des groupes de fraudeurs, dans un contexte où la volumétrie et la diversité des données formulent des défis importants.
L’approche adoptée repose sur la modélisation des données sous forme d’un multigraphe orienté et pondéré, permettant de représenter les échanges entre utilisateurs. La problématique consiste à détecter, à partir d’un petit échantillon d’exemples fournis par des experts, l’ensemble des sous-graphes d’intérêt présents dans le graphe global. La difficulté réside dans la diversité des topologies de ces groupes, dans leur faible représentativité dans les données, ainsi que dans la nécessité de développer une méthode scalable et robuste face à la volumétrie et au bruit.
Différentes stratégies sont explorées : détection de communautés (via des algorithmes comme PASLPA), caractérisation topologique des sous-graphes, et techniques d’apprentissage automatique (classification par similarité cosinus ou modèles supervisés comme XGBoost). Une approche complémentaire d’élagage du graphe est également proposée, visant à supprimer les éléments non pertinents pour isoler directement les sous-graphes d’intérêt. Des opérateurs de combinaison, intégrant les classifications des sommets et des arêtes, sont proposés pour améliorer la robustesse de cette méthode face à l’imperfection des classifications.
Les expérimentations, menées sur des jeux de données synthétiques générés pour respecter la confidentialité, confirment la pertinence des méthodes proposées. La détection par élagage, combinée à des modèles d’apprentissage automatique, notamment XGBoost, offre les meilleures performances, même avec peu d’exemples annotés, répondant ainsi aux contraintes industrielles. Ce travail de thèse ouvre des perspectives pour l’amélioration des outils de détection de groupes dans les réseaux transactionnels, contribuant à la sécurité, à la lutte contre la fraude, et à la segmentation des clients dans des environnements à forte volumétrie.
Abstract
This research is part of a CIFRE thesis conducted in partnership with Orange and the GREYC laboratory, aimed at developing methods for analysing transactional data from the Orange Money service. The main objective is to automate the identification of groups of users with characteristics of interest, such as financial structures or groups of fraudsters, in a context where the volume and diversity of data pose significant challenges.
The approach adopted is based on modelling the data in the form of a weighted, directed multigraph, which allows exchanges between users to be represented. The challenge is to detect, from a small sample of examples provided by experts, all the subgraphs of interest present in the overall graph. The difficulty lies in the diversity of the topologies of these groups, their low representativeness in the data, and the need to develop a method that is scalable and robust in the face of volume and noise. Various strategies are being explored: community detection (using algorithms such as PASLPA), topological characterisation of subgraphs, and machine learning techniques (cosine similarity classification or supervised models such as XGBoost).
Experiments conducted on synthetic datasets generated to ensure confidentiality confirm the relevance of the proposed methods. Detection by pruning, combined with machine learning models, notably XGBoost, offers the best performance, even with few annotated examples, thus meeting industrial constraints. This thesis work opens up prospects for improving group detection tools in transactional networks, contributing to security, fraud prevention, and customer segmentation in high-volume environments.
EL MOATAZ BILLAH Abderrahim (Directeur·trice de thèse)
Date de la soutenance
01/12/2025 à 14:00
Lieu de la soutenance
Avenue de l'Université, 76800 St Étienne du Rouvray
Rapporteurs de la thèse
ARCHAMBAULT DOMINIQUE UNIVERSITE PARIS 8 UNIVERSITE VINCENNES ST DENIS
TRUEILLET SYLVIE Université d'Orléans
Membres du jurys
ARCHAMBAULT DOMINIQUE,
,
UNIVERSITE PARIS 8 UNIVERSITE VINCENNES ST DENIS
EL MOATAZ BILLAH Abderrahim,
,
UCN - Université de Caen Normandie
PANEELS SABRINA,
,
Université Paris-Saclay
QUEAU YVAIN,
,
UCN - Université de Caen Normandie
ROMEO KATERINE,
,
URN - Université de Rouen Normandie
TRUEILLET SYLVIE,
,
Université d'Orléans
Résumé
Cette thèse s’inscrit dans le cadre du projet ANR Guide Muséal Inclusif (IMG) et s’intéresse à l’accès aux œuvres d’art pour les personnes aveugles et partiellement aveugles. Alors que les musées contemporains reposent largement sur la vision comme vecteur principal de médiation culturelle, les visiteurs aveugles ou partiellement aveugles rencontrent encore de nombreux obstacles à l’accès autonome, à la compréhension et à l’appréciation des œuvres. Ce public, très hétérogène dans leurs capacités visuelles (allant de la cécité totale à des formes résiduelles de vision), mobilisent des stratégies perceptives, cognitives et sensorielles spécifiques pour explorer leur environnement. L’inclusivité muséale suppose donc de repenser les dispositifs de médiation en intégrant des approches multimodales, combinant perception tactile, retour auditif et narration descriptive, afin d’offrir une expérience culturelle équitable et partagée.
L’étude prend pour cas emblématique la Tapisserie de Bayeux, une broderie médiévale de près de 70 mètres de long, célèbre pour sa richesse narrative et son importance historique. Sa fragilité et les contraintes de conservation interdisent toute manipulation directe, rendant son accès encore plus complexe pour les visiteurs aveugles ou partiellement aveugles. Ce contexte en fait un terrain d’étude privilégié pour questionner les modalités d’accès virtuel et sensoriel aux œuvres patrimoniales.
Trois questions de recherche structurent ce travail :
- Identifier les informations perceptibles et les canaux sensoriels pertinents pour la compréhension d’une œuvre visuelle ;
- Concevoir une présentation virtuelle accessible et adaptée à différents profils de déficience visuelle ;
- Définir des méthodes d’extraction et de hiérarchisation des éléments saillants d’une œuvre en vue d’une transposition haptique et auditive.
Pour répondre à ces interrogations, les contributions de la thèse s’articulent autour de trois volets principaux :
- un état de l’art des dispositifs existants, des modalités sensorielles exploitées (tactile, auditif, haptique, verbal) et des approches d’automatisation de la création de représentations accessibles pour les personnes aveugles et partiellement aveugles ;
- le développement et l’évaluation d’un prototype haptique 2D basé sur la tablette à retour de force F2T, explorant notamment une stratégie d’exploration hiérarchique et progressive des contenus visuels ;
- la mise au point d’une méthode d’extraction d’éléments saillants de la Tapisserie de Bayeux, à partir de données de saillance visuelle collectées auprès de personnes non aveugles, en vue d’une adaptation tactile et auditive pertinente.
Les fondements conceptuels d'une chaîne de traitement pour l'adaptation d'une image d’œuvre visuelle à une représentation multisensorielle a été réalisée. Des pistes concrètes pour la conception future d’un processus intégré de génération de contenus accessibles sont proposées. En favorisant l’autonomie, la compréhension et le dialogue entre visiteurs aveugles, partiellement aveugles et non aveugles, cette recherche participe à la construction d’une expérience muséale véritablement inclusive, fondée sur l’équité d’accès au patrimoine culturel.
Abstract
This thesis is part of the ANR Inclusive Museum Guide (IMG) project and focuses on access to artworks for blind and partially sighted people. While contemporary museums largely rely on vision as the primary channel of cultural mediation, blind and partially blind visitors still face numerous barriers to autonomous access, understanding, and appreciation of artworks. This audience, highly heterogeneous in their visual capacities (ranging from total blindness to residual forms of vision) mobilizes specific perceptual, cognitive, and sensory strategies to explore their environment. Museum inclusivity therefore requires rethinking mediation devices through multimodal approaches that combine tactile perception, auditory feedback, and descriptive narration, in order to offer an equitable and shared cultural experience.
The study takes as a case in point the Bayeux Tapestry, a nearly 70-meter-long medieval embroidery renowned for its narrative richness and historical significance. Its fragility and conservation constraints prevent any direct handling, making access even more challenging for blind and partially blind visitors. This context provides an ideal field for investigating virtual and sensory modalities of access to heritage artworks.
Three research questions structure this work:
- Identify perceptible information and relevant sensory channels for understanding a visual artwork;
- Design an accessible virtual presentation adapted to different profiles of visual impairment;
- Define methods for extracting and hierarchizing salient elements of an artwork for haptic and auditory transposition.
To this extent, the thesis contributions are organized around three main components:
- a review of existing devices, sensory modalities (tactile, auditory, haptic, verbal), and automated approaches for generating accessible representations for blind and partially blind users;
- the development and evaluation of a 2D haptic prototype based on the F2T force-feedback tablet, exploring a hierarchical and progressive strategy for visual content exploration;
- the design of a method for extracting salient elements from the Bayeux Tapestry, based on visual saliency data collected from sighted participants, to inform tactile and auditory adaptations.
The conceptual foundations of a processing chain for adapting an image from a visual artwork to a multisensory representation have been established. Some concrete approaches for the future design of an integrated process for generating accessible content are proposed.
By encouraging autonomy, understanding, and dialogue among blind, partially blind, and sighted visitors, it supports the creation of a truly inclusive museum experience, grounded in equitable access to cultural heritage.
Ρartial Ρartitiοn Τrees: Unified framewοrk, Τοpοlοgical Μοdelling and Cοnnected Οperatοrs
Doctorant·e
MENDES FORTE Julien
Direction de thèse
KENMOCHI Yukiko (Directeur·trice de thèse)
Date de la soutenance
27/11/2025 à 14:00
Lieu de la soutenance
ENSICAEN F, Salle F-200
Rapporteurs de la thèse
MONASSE PASCAL Ecole Nationale des Ponts et Chaussées
NAEGEL BENOÎT Université de Strasbourg
Membres du jurys
KENMOCHI Yukiko,
,
CNRS
KURTZ CAMILLE,
,
Université Paris Cité
MONASSE PASCAL,
,
Ecole Nationale des Ponts et Chaussées
NAEGEL BENOÎT,
,
Université de Strasbourg
PASSAT NICOLAS,
,
Université de Reims Champagne Ardenne
SANTANA MAIA DEISE,
,
Université de Lille
Résumé
This manuscript explores the theory, construction, and application of morphological hierarchies for image modeling and analysis, focusing on partial partition trees such as the component tree and the tree of shapes. We present a unified framework linking classical hierarchies and introduce new structures, such as the complete tree of shapes and the topological tree of shapes, providing a continuum between component trees, the tree of shapes, and other known hierarchies. Within this framework, the topological tree of shapes emerges as a new topological descriptor for gray-level images. We design efficient algorithms for constructing the complete and topological trees of shapes, ensuring space- and time-efficient computation. We also propose a general scheme for building consistent connected operators from the tree of shapes, preserving the image differential properties and the equivalence between images and their hierarchies. Finally, we exploit the topological tree of shapes to define a new class of connected operators that preserve image topology while exhibiting algebraic properties analogous to openings and closings. Together, these contributions offer theoretical insight and practical tools for using morphological hierarchies as a robust structure-preserving framework for image representation, processing, and analysis.
Abstract
Ce manuscrit explore la théorie, la construction et l’application des hiérarchies morphologiques pour la modélisation et l’analyse d’images, en se concentrant sur les arbres de partitions partielles tels que les arbres de composantes et l’arbre des formes. Nous présentons un cadre unifié reliant les hiérarchies classiques et introduisons de nouvelles structures --- telles que l’arbre complet des formes et l’arbre topologique des formes --- qui offrent un continuum entre les arbres de composantes, l’arbre des formes et d’autres hiérarchies connues. Dans ce cadre, l’arbre topologique des formes émerge comme un nouveau descripteur topologique pour les images en niveaux de gris.
Nous présentons des algorithmes efficaces pour la construction des arbres complets et topologiques des formes, garantissant un calcul efficace en espace et en temps.
Nous proposons également un schéma général pour la construction d’opérateurs connectés cohérents à partir de l’arbre des formes, préservant les propriétés différentielles des images et l’équivalence entre les images et leurs hiérarchies. Enfin, nous exploitons l’arbre topologique des formes pour définir une nouvelle classe d’opérateurs connectés qui préservent la topologie des images tout en présentant des propriétés algébriques analogues aux ouvertures et fermetures. Ces contributions offrent à la fois un éclairage théorique et des outils pratiques pour utiliser les hiérarchies morphologiques comme un cadre robuste et respectueux de la structure pour la représentation, le traitement et l’analyse d’images.
Un mοdèle de vérificatiοn fοrmelle de systèmes multi-agents stοchastiques et dynamiques
Doctorant·e
DEHAIS Mathias
Direction de thèse
BONNET Gregory (Directeur·trice de thèse)
Date de la soutenance
24/11/2025 à 14:00
Lieu de la soutenance
Université de Caen Normandie, Campus 2, Bâtiment Science 3
Rapporteurs de la thèse
AIT AIMEUR YAMINE Enseeiht de Toulouse
BERTRAND NATHALIE IRISA/INRIA Rennes
Membres du jurys
AIT AIMEUR YAMINE,
,
Enseeiht de Toulouse
BERTRAND NATHALIE,
,
IRISA/INRIA Rennes
BONNET Gregory,
,
UCN - Université de Caen Normandie
CHEVRIER VINCENT,
,
Loria
MAYERO MICAELA,
,
Sorbonne Université
MERMET Bruno,
,
ULHN - Université Le Havre Normandie
SCHWARZENTRUBER FRANÇOIS,
,
ENS de Lyon
TAILLANDIER PATRICK,
,
Institut National de Recherche pour l'Agriculture, l'alimentation et l'environnement
Résumé
Cette thèse propose un cadre formel pour la vérification de systèmes multi-agents ouverts, dynamiques et stochastiques. Nous nous appuyons pour cela sur des arbres à décomposition de buts (GDT), qui spécifient hiérarchiquement les comportements des agents, ainsi que le modèle GDT4MAS, qui repose sur une sémantique en logique temporelle linéaire (LTL) et définit des obligations de preuve assurant la correction du système. Nous proposons dans un premier temps une extension de ce modèle, appelée GDT4-D-MAS, pour intégrer la dynamique des systèmes ouverts, à savoir création et destruction d'agents, ainsi qu'un modèle de leurs perceptions. Dans un second temps, nous étendons ce modèle en GDT4-D-SMAS pour représenter des actions, opérateurs et ordonnancement probabilistes. Cette dernière extension nous permet de formuler des schémas de preuve pour les propriétés de vivacité. Un cas d’étude inspiré d’un scénario de coordination de drones illustre l’expressivité et la faisabilité du cadre proposé.
Abstract
This thesis proposes a formal framework for the verification of open, dynamic and stochastic multi-agent systems. We rely on goal decomposition trees (GDTs), which hierarchically specify agent behaviors, and the GDT4MAS model, which is based on linear temporal logic (LTL) semantics and defines proof obligations ensuring system correctness. We first propose an extension of this model, called GDT4-D-MAS, to incorporate the dynamics of open systems, i.e. the creation and destruction of agents, as well as a model of their perceptions. Secondly, we extend this model into GDT4-D-SMAS to represent probabilistic actions, operators and scheduling. This last extension allows us to formulate proof schemes for liveliness properties. A case study inspired by a drone coordination scenario illustrates the expressiveness and feasibility of the proposed framework.
Τοwards Efficient and Ρractical Ηοmοmοrphic Arithmetics
Doctorant·e
BERGERAT Loris
Direction de thèse
ROUX-LANGLOIS Adeline (Directeur·trice de thèse)
ORFILA JEAN-BAPTISTE (Co-directeur·trice de thèse)
Date de la soutenance
12/11/2025 à 14:00
Lieu de la soutenance
ENS Paris, 45 rue d'ULM, 75013 Paris
Rapporteurs de la thèse
RIVAIN MATTHIEU CryptoExpert
VERBAUWHEDE INGRID LEUVEN - KATHOLIEKE UNIVERSITEIT
Le chiffrement totalement homomorphe (Fully Homomorphic Encryption, FHE) est une famille de schémas de chiffrement permettant d’effectuer des opérations directement sur des données chiffrées.
Grâce à cette propriété, les schémas FHE permettent l’évaluation de circuits tout en préservant la confidentialité des utilisateurs.
En conséquence, le FHE trouve des applications dans de nombreux domaines tels que l’apprentissage automatique, la blockchain, et bien d’autres.
Au cours des dernières décennies, le domaine est passé de schémas nécessitant un temps impraticable pour évaluer de petits circuits à des schémas capables d’évaluer des circuits complexes dans un temps raisonnable, ouvrant la voie à l’adoption du FHE à l’échelle industrielle.
Cette thèse s’inscrit dans ce contexte, avec un accent particulier sur le schéma TFHE.
TFHE est un schéma particulièrement efficace pour effectuer des opérations sur des messages de faible précision, principalement grâce à une opération, le bootstrapping, utilisée tout au long du circuit pour garantir le resultat des operations.
Malgré son efficacité, TFHE présente encore certaines limitations que nous cherchons à surmonter dans ce manuscrit.
Comme mentionné précédemment, TFHE dispose d’algorithmes très performants pour traiter des messages de petite précision, mais de nombreux circuits reposent sur des entiers 32 ou 64 bits, ou encore les nombres à virgule flottante.
Concernant cette première limitation, nous avons etudié comment représenter efficacement ces types de données avec TFHE en utilisant des encodages et des algorithmes dédiés.
De plus, bien que TFHE soit l’un des schémas FHE les plus efficaces, il reste lent comparé aux opérations sur des données en clair.
Afin de réduire ces différences, nous avons etudié des algorithmes bas niveau et de nouvelles primitives visant à diminuer le coût global des opérations FHE.
L’ensemble de ces améliorations permet la création d’une arithmétique homomorphe efficace et pratique, réduisant ainsi l’écart entre le monde en clair et le monde homomorphe.
Abstract
Fully Homomorphic Encryption (FHE) is a family of encryption schemes permitting operations over encrypted data.
Thanks to this property, FHE schemes allow the evaluation of circuits while preserving user privacy.
As a result, FHE has applications in diverse domains such as machine learning, blockchain, and so on.
Over the last decades, the field has evolved from schemes taking an impracticable amount of time to evaluate small circuits to schemes able to evaluate complex circuits in a reasonable amount of time, leading to the beginning of the adoption of FHE at an industrial level.
This thesis begins in this context, with a focus on the TFHE scheme.
TFHE is an FHE scheme that is highly efficient at performing operations over small message precision, mainly due to a core operation called bootstrapping, which is used all along the circuit to ensure correctness.
But despite its efficiency, TFHE still has some limitations that we aim to overcome in this manuscript.
As mentioned before, TFHE has very efficient algorithms to work over small message precision, but many circuits work with primitive data types such as 32- or 64-bit integers or floating-point numbers.
Regarding this first limitation, we study how to efficiently represent these data types with TFHE by using dedicated encodings and algorithms.
Although TFHE is one of the fastest FHE schemes, it remains slow compared to plaintext operations.
To reduce the timing differences, we study low-level algorithms and new primitives to reduce the global cost of FHE operations.
All these improvements permit the creation of efficient and practical homomorphic arithmetic, bridging the gap between the clear world and the homomorphic world.
Variοus density questiοns in the theοry οf Lucas sequences
Doctorant·e
CERA DA CONCEICAO Joaquim
Direction de thèse
BALLOT Christian (Directeur·trice de thèse)
Date de la soutenance
21/11/2025 à 09:30
Lieu de la soutenance
Université de Caen, Campus 2, Bâtiment S3, Salle de thèse
Rapporteurs de la thèse
LUCA FLORIAN University of Stellenbosch
SANNA CARLO Politecnico di Torino
Membres du jurys
AMOROSO Francesco,
,
UCN - Université de Caen Normandie
BALLOT Christian,
,
UCN - Université de Caen Normandie
LUCA FLORIAN,
,
University of Stellenbosch
PERUCCA ANTONELLA,
,
Université du Luxembourg
SANNA CARLO,
,
Politecnico di Torino
SIMON Denis,
,
UCN - Université de Caen Normandie
Résumé
Dans cette thèse, nous étudions les propriétés de divisibilité de l'ordre multiplicatif modulo des nombres premiers. En particulier, nous nous intéressons à leurs extensions aux suites de Lucas à valeurs entières ou polynomiales sur des corps finis. Cette étude prend ses origines dans les travaux de Hasse sur la densité de Dirichlet des premiers pour lesquels un entier fixé satisfait certaines conditions de divisibilité, modulo ces premiers. De plus, ces résultats sont reliés à la conjecture d'Artin sur les racines primitives et à la distribution des diviseurs premiers des suites récurrentes.
Pour les suites de Lucas, l'analogue de l'ordre multiplicatif est le rang d'apparition des premiers. Étudier la divisibilité de ce rang par un entier fixé généralise le problème posé par Hasse. Des formules explicites des densités sont connues pour les suites dont le polynôme caractéristique est réductible, et des travaux récents dus à Sanna traitent le cas irréductible pour certains entiers.
Dans le contexte des corps de fonctions globaux, nous étendons les résultats de Sanna aux suites de Lucas polynomiales. Nous présentons des formules explicites de la densité dans la plupart des cas, ainsi que des programmes SageMath pour calculer les différentes constantes rentrant en jeu. Cela rend les résultats complètement explicites.
Enfin, pour les suites de Lucas usuelles à valeurs entières, nous démontrons des formules explicites pour la densité asymptotique des premiers dont le rang d'apparition est divisible par un entier pair, sous certaines hypothèses. Comme dans le cas des corps de fonctions, nous présentons des programmes SageMath calculant explicitement les constantes utilisées.
Abstract
In this thesis, we study the divisibility properties of the multiplicative order modulo primes. In particular, we investigate their extensions to polynomial Lucas sequences over finite fields. This study has its origin in the work of Hasse on the Dirichlet density of primes for which a fixed integer satisfies some divisibility condition modulo these primes. Such results are naturally connected with Artin’s conjecture on primitive roots and with the distribution of prime divisors in linear recurrences.
For Lucas sequences, the counterpart of the multiplicative order is the rank of appearance of prime numbers. Studying the divisibility of this rank by a fixed integer generalises Hasse’s problem. Explicit formulas for the density are known for sequences with reducible characteristic polynomials, while recent results by Sanna cover the irreducible case for certain integers.
In the context of global function fields, we extend Sanna’s results to polynomial Lucas sequences. We provide closed-form formulas for the density in most cases, along with SageMath computations for the constants that appear in these formulas. This makes our results explicit.
Finally, for classical Lucas sequences, we give a closed-form formula for the natural density of primes whose rank of appearance is divisible by even integers, under suitable assumptions. As in the function field case, we provide SageMath programs to explicitly compute our constants.
Design and applicatiοn οf high gain οbservers fοr nοnlinear systems with delay
Doctorant·e
RAMIREZ RASGADO Felipe
Direction de thèse
FARZA Mondher (Directeur·trice de thèse)
ASTORGA-ZARAGOZA CARLOS MANUEL (Co-directeur·trice de thèse)
Date de la soutenance
20/11/2025 à 16:30
Lieu de la soutenance
Université Caen Normandie
Rapporteurs de la thèse
LOZANO-LEAL ROGELIO Cinvestav
OTHMAN SAMI Université Claude Bernard - Lyon 1
Membres du jurys
ASTORGA-ZARAGOZA CARLOS MANUEL,
,
Institut technologique Cuernavaca
FARZA Mondher,
,
UCN - Université de Caen Normandie
HERNANDEZ-GONZALEZ OMAR,
,
Tecnológico Nacional de México campus
LOZANO-LEAL ROGELIO,
,
Cinvestav
M'SAAD Mohammed,
,
UCN - Université de Caen Normandie
OTHMAN SAMI,
,
Université Claude Bernard - Lyon 1
RAISSI TAREK,
,
Association régionale du Conservatoire national des arts et métiers Nord - Pas de Calais
TORRES-ORTIZ FLOR-LIZETH,
,
Université Nationale Autonome de Mexico
Résumé
Dans cette thèse, nous proposons la synthèse d’observateurs à grand gain pour certaines classes de systèmes non linéaires affectés par l’échantillonnage des sorties et renfermant des retards sur la sortie et les états. Tout d’abord, un observateur est proposé pour une classe de systèmes non uniformément observables avec plusieurs sorties dont les mesures de chacune sont disponibles sous forme échantillonnée avec un retard. Dans un premier temps, la synthèse de l’observateur a été faite en considérant que toutes les périodes d’échantillonnage sont identiques et que le même retard affecte toutes sorties. Puis, cette synthèse a été étendue au cas de périodes et de retards différents. Ensuite, deux classes de systèmes uniformément observables ont été considérées. Pour la première classe, la sortie du système est disponible sous forme continue avec un retard constant mais inconnu et arbitrairement grand. Un observateur sous forme de systèmes en cascade a été proposé. Le premier système de la cascade est un observateur adaptatif de type grand gain permettant l’estimation simultanée de l’état retardé du système et du retard inconnu. Les sous-systèmes suivants sont des prédicteurs dont chacun prédit l’état du système précédent de sorte que l’état du dernier sous-système constitue une estimation de l’état inconnu du système original. La deuxième classe de systèmes renferme des états retardés, avec des retards constants éventuellement arbitrairement grands, qui interviennent aussi bien dans la non linéarité triangulaire du système que dans la partie linéaire et de ce fait de manière non triangulaire. Une transformation d’état faisant apparaitre des états retardés a permis de mettre le système sous une forme pour laquelle un observateur sous forme de cascade a été synthétisé pour l’estimation de tous les états du système original.
Les performances des observateurs proposés sont illustrées en simulation à travers différents exemples traitant de pendule inversé, de bras de robot ainsi que d’un modèle d’infection par le VIH.
Abstract
In this thesis, one proposes the design of high gain observers for some classes of nonlinear systems affected by output sampling and involving delays on the output and states.
First, an observer is proposed for a class of non-uniformly observable systems with several outputs whose measurements of each are available in sampled form with a delay. The design of the observer was initially achieved by considering that all the sampling periods are identical and that the same delay affects all outputs. Then, this design was extended to the case of different periods and delays. Then, two classes of uniformly observable systems were considered. For the first class, the system output is available under a continuous-time form with a constant but unknown and arbitrarily large delay. An observer under the form of cascaded systems has been proposed. The first system of the cascade is an adaptive high gain observer allowing the simultaneous estimation of the delayed state of the system and the unknown delay. The remaining subsystems in the cascade are predictors, each of which predicts the state of the previous system so that the state of the last subsystem is an estimate of the unknown state of the original system. The second class of systems contains delayed states, with possibly arbitrarily large constant delays, which occur both in the triangular non-linearity of the system and in the linear part and thus in a non-triangular manner. A state transformation involving delayed states allowed to put the system under a form for which an observer in cascade form was designed to estimate the actual states of the original system. The performance and main properties of the proposed observers are illustrated in simulation through different examples dealing with inverted pendulum, robot arms as well as a model of HIV infection.
Evidential adaptive multimοdal fusiοn fοr rοad scenes analysis in case οf sensοr failures and adverse weather cοnditiοns
Doctorant·e
DEREGNAUCOURT LUCAS
Direction de thèse
AINOUZ SAMIA (Directeur·trice de thèse)
HACHEMI HIND (Co-encadrant·e de thèse)
LECHERVY ALEXIS (Co-encadrant·e de thèse)
Date de la soutenance
18/11/2025 à 14:00
Lieu de la soutenance
INSA Rouen Normandie
Rapporteurs de la thèse
AOUADA DJAMILA Université du Luxembourg
LEFEVRE ERIC Université d'Artois
La conduite autonome a connu des progrès remarquables au cours de la dernière décennie, en particulier dans l’analyse des scènes routières, grâce à l’essor des approches d’apprentissage profond. Toutefois, le déploiement du véhicule autonome reste limité par le manque de robustesse des systèmes de perception, vulnérables aux conditions météorologiques dégradées ou aux pannes de capteurs. Ces systèmes ne disposent en effet pas de mécanismes explicites pour représenter et raisonner avec l’incertitude. Pour atteindre une perception fiable, de nouveaux cadres sont nécessaires, capables à la fois d’intégrer l’information issue de capteurs hétérogènes et de quantifier l’incertitude associée à leurs prédictions. Dans cette thèse, nous répondons à ces défis en proposant des stratégies de fusions multimodales adaptatives basées sur la théorie de Dempster–Shafer, qui fournit des outils pour représenter l’incertitude épistémique et gérer les conflits entre différentes sources d'information.
La première partie du manuscrit passe en revue les principaux capteurs pour l'analyse de scènes routières, ainsi que les architectures d’apprentissage profond pour les tâches de perception et les jeux de données utilisés pour les évaluer. Par la suite, les principes fondamentaux de la théorie de Dempster–Shafer sont définis, incluant la représentation de l’information, la fusion de l’information et la prise de décision. Les réseaux de neurones évidentiels existants pour la vision par ordinateur sont ensuite présentés.
Afin de répondre à la problématique de l'intégration de la Théorie de Dempster-Shafer dans les réseaux de neurones,
des optimisations algorithmiques sont développées, rendant ces derniers applicables sur des jeux de données de grande envergure. L'avantage des réseaux évidentiels par rapport aux approches probabilistes est mis en lumière dans des cas où l'incertitude epistémique joue un rôle majeur, avec comme exemple la détection de données hors distribution.
Ces travaux se concentrent ensuite sur la segmentation sémantique multimodale. L’architecture _ECoLaF_ proposée s'appuie sur la Théorie de Dempster–Shafer afin de gérer de manière adaptative les conflits entre les capteurs, assurant ainsi une segmentation sémantique fiable en cas de défaillances de capteurs.
Enfin, cette architecture est étendue avec _BICoLaF_, qui remplace les _fonctions de masse_ par des _intervalles de croyance_ afin d’obtenir une représentation plus fine de l’incertitude. De nouvelles méthodes de fusion adaptées aux _intervalles de croyance_ sont également explorées. Les expériences menées à la fois sur des jeux de données réels et synthétiques démontrent que _BICoLaF_ améliore davantage les performances en cas de pannes de capteurs et de conditions météorologiques dégradées.
Abstract
Autonomous driving has made remarkable progress over the past decade, particularly in road scene analysis, thanks to the rise of deep learning approaches. However, the deployment of fully autonomous vehicles remains limited by the lack of robustness of perception systems, which are vulnerable to adverse weather conditions or sensor failures. These systems do not include explicit mechanisms to represent and reason about uncertainty. Achieving reliable perception therefore requires new frameworks capable of both integrating information from heterogeneous sensors and quantifying the uncertainty associated with their predictions. In this thesis, we address these challenges by proposing adaptive multimodal fusion strategies based on Dempster–Shafer Theory, which provides tools to represent epistemic uncertainty and manage conflicts between different sources of information.
The first part of the manuscript reviews the main sensors used for road scene analysis, as well as deep learning architectures for perception tasks and the datasets used to evaluate them. The fundamental principles of Dempster–Shafer Theory are then introduced, including information representation, information fusion, and decision-making. Existing evidential neural networks for computer vision are also presented.
To address the challenge of integrating Dempster–Shafer Theory into neural networks, algorithmic optimizations are developed, making these networks applicable to large-scale datasets. The advantages of evidential networks over probabilistic approaches are highlighted in scenarios where epistemic uncertainty plays a major role, such as out-of-distribution data detection.
This work also focuses on multimodal semantic segmentation. The proposed architecture leverages Dempster–Shafer Theory to adaptively manage conflicts between sensors, ensuring reliable semantic segmentation in case of sensor failures.
Finally, this architecture is extended by replacing _mass functions_ with _belief intervals_ to achieve a finer-grained representation of uncertainty. New fusion methods adapted to _belief intervals_ are also explored. Experiments on both real-world and synthetic datasets demonstrate that this method further improves performance under sensor failures and adverse weather conditions.
Vers une hybridatiοn entre LLΜ et sémantique : applicatiοn au peuplement d'οntοlοgies à partir de descriptiοns textuelles
Doctorant·e
SAHBI Aya Nour Elimane
Direction de thèse
BEUST Pierre (Directeur·trice de thèse)
ALEC Celine (Co-encadrant·e de thèse)
Date de la soutenance
18/11/2025 à 09:30
Lieu de la soutenance
Salle des Thèses S3-102, Campus 2, Université de Caen Normandie
Cette thèse explore l'interopérabilité entre les grands modèles de langue (LLMs) et les ontologies, dans le but d'automatiser le peuplement de ces dernières à partir de descriptions textuelles non structurées. L'objectif principal est d'extraire des informations pertinentes issues de textes et de les représenter fidèlement selon la structure définie par l'ontologie.
Dans un premier temps, nous évaluons deux approches distinctes de peuplement d'ontologies à partir de textes : KOnPoTe, une méthode sémantique à base de règles exploitant l'analyse textuelle et les connaissances du domaine, et une approche reposant sur un LLM (Claude). Une analyse comparative met en évidence les forces et les limites respectives de chacune de ces méthodes.
Dans un second temps, nous proposons HyLOPop (Hybrid LLM-based Ontology Population), une approche hybride qui combine les capacités de génération et de généralisation offertes par les LLMs avec une analyse guidée par la structure et les connaissances d'une ontologie. L'ensemble des approches est évalué expérimentalement sur trois domaines : descriptions de maisons, de bateaux et de restaurants, permettant ainsi d'analyser l'efficacité et la complémentarité des techniques étudiées.
Abstract
This thesis explores the intersection between large language models (LLMs) and ontologies, with the aim of automating ontology population from unstructured textual descriptions. The main objective is to extract relevant information from text and represent it faithfully according to the structure defined by the ontology.
First, we evaluate two distinct approaches to ontology population from text: KOnPoTe, a rule-based semantic method leveraging textual analysis and domain knowledge, and an approach relying on an LLM (Claude). A comparative analysis highlights the respective strengths and limitations of each method.
Second, we introduce HyLOPop (Hybrid LLM-based Ontology Population), a hybrid approach that combines the generative and generalization capabilities of LLMs with an analysis guided by the structure and knowledge of an ontology. All approaches are experimentally evaluated on three \nospace{domains :} Real estate, boats, and restaurants, thus enabling an assessment of the effectiveness and complementarity of the studied techniques.
Etude des mοnοïdes engendrés par des οpératiοns unaires sur les langages fοrmels.
Doctorant·e
DURAND Alexandre
Direction de thèse
CARON PASCAL (Directeur·trice de thèse)
Date de la soutenance
17/11/2025 à 15:00
Lieu de la soutenance
St Étienne du Rouveray, UFR Sciences et Techniques de Rouen, Amphi D
Rapporteurs de la thèse
BEAL MARIE-PIERRE UNIVERSITE MARNE LA VALLEE UNIV PARIS EST MARNE LA VALLEE
LOMBARDY SYLVAIN Université de Bordeaux
REIS ROGÉRIO Université de Porto (por)
Membres du jurys
BEAL MARIE-PIERRE,
,
UNIVERSITE MARNE LA VALLEE UNIV PARIS EST MARNE LA VALLEE
CARON PASCAL,
,
URN - Université de Rouen Normandie
CHARLIER EMILIE,
,
Université de Liege (Belgique)
LOMBARDY SYLVAIN,
,
Université de Bordeaux
LUQUE JEAN-GABRIEL,
,
URN - Université de Rouen Normandie
PATROU BRUNO,
,
URN - Université de Rouen Normandie
REIS ROGÉRIO,
,
Université de Porto (por)
Résumé
Cette thèse porte sur l’étude des opérations unaires appliquées aux langages
formels. Elle examine à la fois les structures algébriques engendrées par la compo-
sition de ces opérations, appelées monoïdes opérationnels, et leur influence sur la
complexité des machines reconnaissant les langages. Nous structurons notre analyse
autour de trois grandes catégories : (1) les monoïdes finis, (2) les monoïdes infinis
dont chaque langage a une orbite finie, et (3) les monoïdes infinis admettant des
orbites infinies.
Dans le premier cas, nous généralisons le théorème de Kuratowski en identifiant
de nouvelles contraintes sur les opérations de fermeture qui assurent la finitude du
monoïde, même lorsqu’un nombre arbitraire de fermetures sont combinées. Cela
permet d’étendre la compréhension classique à des familles d’opérations plus larges.
Dans la seconde catégorie, nous montrons que certains couples d’opérations,
comme la paire Trognon-Préfixe, engendrent des monoïdes infinis, mais dont l’action
sur un langage donné produit toujours un nombre fini de langages (orbites finies).
Cette propriété rend ces structures particulièrement intéressantes, car elles peuvent
servir à définir des métriques sur les langages.
Dans le dernier cas, nous identifions des configurations, telles que la paire Per-
mutation circulaire–Préfixe, pour lesquelles certains langages induisent une orbite
infinie, ce qui met en évidence la variété des comportements possibles au sein des
monoïdes opérationnels.
En parallèle, nous examinons l’effet de ces opérations sur la taille minimale des
automates reconnaissant les langages, c’est-à-dire la complexité en états. Nous nous
appuyons sur des résultats existants concernant des opérations classiques comme
l’étoile de Kleene, le miroir ou la racine, afin d’en étudier certaines combinaisons.
Une attention particulière est portée à l’opération Racine appliquée à des automates
non déterministes, pour laquelle nous proposons de nouvelles constructions qui
permettent d’aborder efficacement son interaction avec d’autres opérations. Nous
obtenons notamment la borne exacte pour la combinaison Racine-Miroir, illustrant
le fait que dans certains cas, la complexité peut être significativement inférieure à la
borne naïve.
Abstract
This thesis investigates unary operations on formal languages. It considers both the algebraic structures generated by the composition of these operations, referred to as operational monoids, and their impact on the complexity of automata accepting the languages. The analysis is organized into three main categories: (1) finite monoids, (2) infinite monoids in which every language has a finite orbit, and (3) infinite monoids admitting infinite orbits.
In the first category, we generalize Kuratowski’s theorem by identifying new constraints on closure operations that guarantee the finiteness of the monoid, even when an arbitrary number of closures are combined. This extends the classical framework to broader families of operations.
In the second category, we demonstrate that certain pairs of operations, such as the Trunk–Prefix pair, generate infinite monoids whose action on a given language nevertheless produces only finitely many distinct languages (finite orbits). This property makes these structures particularly appealing, as they provide a basis for defining metrics on languages.
In the third category, we identify configurations, such as the Shift–Prefix pair, for which some languages yield an infinite orbit, thereby illustrating the diversity of behaviors that may arise within operational monoids.
In parallel, we examine the effect of these operations on the minimal size of automata accepting the languages, that is, their state complexity. Building on existing results concerning classical operations such as the Kleene star, reversal, and root, we investigate several of their combinations. Particular attention is devoted to the Root operation applied to nondeterministic automata, for which we introduce new constructions enabling an effective treatment of its interaction with other operations. Notably, we establish the exact bound for the Root–Reversal combination, showing that in certain cases the complexity can be significantly lower than the naïve bound.
Detecting the Unknοwn Οbjects with Οpen-Set Οbject Detectiοn fοr Autοnοmοus Driving Systems
Doctorant·e
BUNEL CORENTIN
Direction de thèse
GASSO GILLES (Directeur·trice de thèse)
GUERIAU MAXIME (Co-encadrant·e de thèse)
Date de la soutenance
07/11/2025 à 10:00
Lieu de la soutenance
INSA Rouen Normandie, 685 Av. de l'Université, 76800 Saint-Étienne-du-Rouvray
Les systèmes de véhicules autonomes (VA) accomplissent principalement deux tâches: la
perception et le contrôle. Le système de perception construit une représentation du monde réel,
communément appelée World Model, sur laquelle le système de contrôle s’appuie pour prendre
des décisions de conduite. L’efficacité du système de contrôle est étroitement liée à la précision
et à l’exhaustivité des informations fournies par le World Model. Par exemple, l’incapacité à
détecter des objets critiques sur la route peut entraîner de grave conséquences, tandis des erreurs
de détection peuvent nuire à l’expérience utilisateur.
Les écarts entre l’environnement réel et la représentation interne du VA sont connus sous le nom
de cas limites. Parmi ceux-ci, les objets inconnus, appartenant à des classes non rencontrées
lors de l’entraînement, représentent un type de cas limite particulièrement difficile. Les World
Model contemporains reposent principalement sur l’apprentissage profond, utilisant de vastes
ensembles de données annotées pour apprendre des représentations des classes d’objets connues.
La détection d’objets, élément central de la chaîne de perception, vise à fournir à la fois
la localisation et l’information sémantique des objets présents dans la scène. Cependant, les
détecteurs modernes affichent de faibles performances sur les cas limites, comme le démontrent
des benchmarks en conditions réelles tels que CODA. Cette limitation provient de leur hypothèse
de monde fermé: ils sont entraînés sur un nombre fixe de classes et peinent à généraliser à de
nouveaux objets jamais vus auparavant.
Pour y remédier, la reconnaissance en monde ouvert et la détection d’objets en monde ouvert
ont été proposées. Ces paradigmes introduisent des mécanismes permettant de détecter des
objets inconnus tout en facilitant l’apprentissage incrémental de nouvelles classes. Néanmoins,
l’application de la detection en monde ouvert dans le contexte des VA présente des défis spéci-
fiques qui demeurent encore insuffisamment traités. La plupart des approches existantes sont
évaluées sur des jeux de données généralistes tels que COCO, qui ne reflètent pas adéquatement
la complexité et l’importance en matière de sécurité des scènes routières. Les méthodes actuelles
souffrent souvent de taux élevés de faux positifs ou dégradent les performances sur les classes
connues lorsqu’elles optimisent la détection d’objets inconnus.
Cette thèse de doctorat vise à combler ces lacunes en faisant progresser les systèmes de détection
d’objets pour les scénarios de conduite autonome, avec un accent particulier sur la détection
robuste des objets inconnus. L’objectif est d’améliorer la capacité des VA à gérer les cas limites
dans des environnements réels, contribuant ainsi à des systèmes de conduite autonome plus sûrs
et plus fiables.
Abstract
Autonomous vehicle (AV) systems primarily perform two core tasks: perception and control.
The perception system constructs a representation of the real world, commonly referred to
as the World Model, on which the control system relies upon to make driving decisions. The
effectiveness of the control system is therefore closely tied to the accuracy and completeness of
the information provided by the World Model. For example, failing to detect critical objects
on the road may result in dangerous outcomes, while excessive or erroneous detections can
negatively affect the user experience.
Discrepancies between the real environment and the AV’s internal representation are known
as corner cases. Among these, unknown objects, objects belonging to classes not encountered
during training, represent a particularly challenging type of corner case. Contemporary World
Models are predominantly based on deep learning, utilizing large-scale labeled datasets to
learn representations of known object classes. Object detection, a central component of the
perception pipeline, aims to provide both localization and semantic information about objects
in the scene. However, state-of-the-art detectors exhibit poor performance on corner cases, as
demonstrated in real-world benchmarks such as CODA. This limitation stems from their closed-
set assumption: they are trained on a fixed set of classes and struggle to generalize to novel,
unseen instances.
To address this, open-set recognition and open-world object detection (OWOD), have been
proposed. These paradigms introduce mechanisms for detecting unknown objects while enabling
incremental learning of new classes. Nevertheless, applying OWOD to AV contexts presents
unique challenges that remain insufficiently addressed. Most existing approaches are evaluated
on general-purpose datasets such as COCO, which do not adequately reflect the complexity
and safety-critical nature of road scenes. Current methods often suffer from high false positive
rates or degrade performance on known classes when optimizing for unknown detection.
This PhD thesis aims to bridge these gaps by advancing object detection systems for
autonomous driving scenarios, with a specific focus on robust detection of unknown objects. The
goal is to enhance the AV’s ability to handle corner cases in real-world environments, thereby
contributing to safer and more reliable autonomous driving systems.
Τhéοrie du gradient du secοnd οrdre pοur les matériaux cοmpοsites à fοrt taux de cοntraste et cοnceptiοn de mοdèles prédictifs de tenseurs via l'apprentissage prοfοnd
Doctorant·e
NACRO Alioune
Direction de thèse
KARAMIAN Philippe (Directeur·trice de thèse)
LEMAÎTRE SOPHIE (Co-encadrant·e de thèse)
Date de la soutenance
07/11/2025 à 14:00
Lieu de la soutenance
Caen
Rapporteurs de la thèse
CATAPANO ANITA Institut national polytechnique Bordeaux
NAIT-ALI AZDINE Ensma Poitiers
Membres du jurys
CATAPANO ANITA,
,
Institut national polytechnique Bordeaux
DARTOIS SOPHIE,
,
Sorbonne Université
FOREST SAMUEL,
,
ECOLE DES MINES DE PARIS
KARAMIAN Philippe,
,
UCN - Université de Caen Normandie
LEMAÎTRE SOPHIE,
,
UCN - Université de Caen Normandie
NAIT-ALI AZDINE,
,
Ensma Poitiers
VIDAL PHILIPPE,
,
Université Paris 10 Paris-Nanterre
VIDAL-SALLE EMMANUELLE,
,
INSA Lyon
Résumé
Cette thèse s'inscrit dans le cadre de l’homogénéisation périodique appliquée à l’élasticité linéaire, avec pour objectif d’évaluer les effets non locaux à l’aide de la théorie du gradient du second ordre. Une formulation rigoureuse basée sur le développement asymptotique permet d’identifier les tenseurs d’élasticité d’ordre supérieur (B, C et D), calculés à l’aide d’approches numériques comme la méthode basée sur la transformée de Fourier rapide (FFT) et la méthode des éléments finis (FEM), en 2D et en 3D. Un vaste ensemble de simulations numériques paramétriques est ainsi réalisé sur des microstructures composites, afin d’analyser l’influence de la forme, du contraste de propriétés et de la fraction volumique des inclusions sur leurs propriétés mécaniques effectives. Ces simulations ont permis de constituer une base de données riche de plus de 56000 volumes élémentaires représentatifs (VER), utilisée pour entraîner des modèles d’apprentissage profond, notamment des réseaux de neurones convolutifs (CNN), capables de prédire efficacement les composantes des tenseurs d’élasticité à partir d’images de microstructures non incluses dans la base d’apprentissage. Les résultats obtenus montrent une très bonne précision des modèles prédictifs, comparables aux méthodes numériques classiques, tout en offrant un gain significatif en temps de calcul. Ce travail illustre ainsi l’intérêt d’un couplage entre homogénéisation périodique et intelligence artificielle pour une modélisation efficace des matériaux composites, et ouvre la voie à de nouvelles perspectives en simulation numérique et en conception de matériaux.
Abstract
This thesis falls within the framework of periodic homogenization applied to linear elasticity, with the objective of evaluating nonlocal effects using the second-order gradient theory. A rigorous formulation based on asymptotic expansion enables the identification of higher-order elasticity tensors (B, C and D) , which are computed using numerical approaches such as the Fast Fourier Transform (FFT) method and the Finite Element Method (FEM), in both 2D and 3D. A large set of parametric numerical simulations is carried out on composite microstructures to analyze the influence of the inclusion shape, property contrast, and volume fraction on their effective mechanical properties. These simulations generate a comprehensive database of more than 56000 representative volume elements (RVEs), which is used to train deep learning models, particularly convolutional neural networks (CNNs), capable of efficiently predicting the components of elasticity tensors from microstructure images not included in the training set. The results show that the predictive models achieve very high accuracy, comparable to classical numerical methods, while offering a significant reduction in computation time. This work thus highlights the relevance of coupling periodic homogenization with artificial intelligence for efficient modeling of composite materials and paves the way for new perspectives in numerical simulation and material design.
Μesures de micrο-capteurs en qualité de l'air : calibratiοn statistique et débiaisage de sοrties de mοdèles numériques
Doctorant·e
THULLIEZ EMMA
Direction de thèse
PORTIER BRUNO (Directeur·trice de thèse)
CORON CAMILLE (Co-encadrant·e de thèse)
Date de la soutenance
06/11/2025 à 14:00
Lieu de la soutenance
INSA Rouen Normandie (Saint-Étienne du Rouvray)
Rapporteurs de la thèse
BAR-HEN AVNER Conservatoire National des Arts et Métiers
ROMARY THOMAS Mines Paris PSL
Membres du jurys
BAR-HEN AVNER,
,
Conservatoire National des Arts et Métiers
BELLANGER LISE,
,
Université Bretagne Sud
CORON CAMILLE,
,
INRAE
DELMAS VERONIQUE,
,
Atmo Normandie
MONBET VALÉRIE,
,
UNIVERSITE RENNES 1
POGGI JEAN MICHEL,
,
Université Paris-Cité
PORTIER BRUNO,
,
INSA Rouen Normandie
ROMARY THOMAS,
,
Mines Paris PSL
Résumé
Cette thèse explore les enjeux et les perspectives liés à l'utilisation des micro-capteurs pour la surveillance de la qualité de l'air, en mettant l'accent sur deux polluants : le dioxyde d'azote (NO2) et les particules fines (PM10). Elle s'inscrit dans l'écosystème de la qualité de l'air rouennais à travers l'exploitation et la valorisation des données collectées à l'échelle locale. La thèse est structurée autour de deux axes principaux : proposer des méthodologies de calibration des micro-capteurs en zone urbaine afin d'améliorer la fiabilité de leurs mesures, et modéliser et estimer le biais des cartes de pollution issues de modèles déterministes.
Dans une première partie, nous constituons et diffusons plusieurs jeux de données construits à partir de mesures effectuées à Rouen. Ensuite, nous proposons plusieurs méthodologies de calibration ponctuelle des capteurs, que nous évaluons à partir de ces données. Une approche de calibration globale est également proposée à travers une régression géographiquement pondérée (GWR). Nous évoquons enfin les perspectives ouvertes par l'essor des micro-capteurs mobiles dans les stratégies de calibration.
Dans une seconde partie, nous proposons deux approches distinctes pour modéliser le biais des cartes de pollution issues de modèles déterministes, en fusionnant
des données hétérogènes, issues de modèles, de stations de référence et de micro-capteurs. Nous terminons par évoquer l'approche de multi-fidélité permettant d'améliorer les cartes de pollution à partir de plusieurs réseaux de mesures de qualité et de densité différentes.
Ces différents aspects mettent en lumière la contribution des micro-capteurs aux réseaux de surveillance de la qualité de l'air, tout en explorant de
nouvelles approches pour en garantir un meilleur usage à l'échelle urbaine.
Abstract
This thesis explores the challenges and prospects associated with the use of low-cost sensors for air quality monitoring, with a focus on two key pollutants : nitrogen dioxide (NO2) and particulate matter (PM10). It is embedded within the air quality ecosystem of the city of Rouen, through the exploitation and enhancement of data collected at the local scale. The thesis is structured around two main objectives: developing calibration methodologies for low-cost sensors in urban environments to improve the reliability of their measurements, and modeling and estimating the bias present in pollution maps generated by deterministic models.
In the first part, several datasets are built and shared, based on air quality measurements taken in Rouen. These datasets are then used to evaluate various pointwise calibration methods for the sensors. A global calibration approach is also proposed, based on Geographically Weighted Regression (GWR). Finally, we discuss the opportunities brought by the rise of mobile low-cost sensors in future calibration strategies.
In the second part, we propose two distinct approaches to model the bias in pollution maps derived from deterministic models, by integrating heterogeneous data sources including model outputs, reference stations, and low-cost sensors. We also explore a multi-fidelity data fusion approach aimed at improving pollution maps by combining information from multiple monitoring networks with varying levels of quality and spatial density.
Together, these contributions highlight the role of low-cost sensors in modern air quality monitoring systems and explore new methods to ensure their more effective use in urban-scale applications.
Ρrοgrammatiοn par cοntraintes et échantillοnnage pοur l'extractiοn de mοtifs d'intervalles
Doctorant·e
BEKKOUCHA Djawad
Direction de thèse
CREMILLEUX Bruno (Directeur·trice de thèse)
BOIZUMAULT Patrice (Co-directeur·trice de thèse)
OUALI Abdelkader (Co-encadrant·e de thèse)
Date de la soutenance
06/11/2025 à 09:00
Lieu de la soutenance
Université de Caen Normandie, bâtiment sciences 3 salle 102 (salle des thèses)
Rapporteurs de la thèse
NIJSSEN SIEGFRIED LOUVAIN
PLANTEVIT MARC Ecole pour info et tech avancés
Membres du jurys
CREMILLEUX Bruno,
,
UCN - Université de Caen Normandie
DAO THI-BICH-HAN,
,
Université d'Orléans
NIJSSEN SIEGFRIED,
,
LOUVAIN
OUALI Abdelkader,
,
UCN - Université de Caen Normandie
PLANTEVIT MARC,
,
Ecole pour info et tech avancés
SOLNON CHRISTINE,
,
Institut National des Sciences Appliquees de Lyon
SOULET ARNAUD,
,
Universite de Tours
Résumé
Cette thèse porte sur la découverte d’informations à partir de données numériques,
et plus particulièrement sur la fouille de motifs. Les motifs sont représentés sous forme
de vecteurs d’intervalles, ce qui permet une lecture intuitive des informations extraites.
Notre objectif est d’identifier, dans les données numériques, un ensemble restreint de
motifs d’intervalles pertinents en un temps très court, tout en offrant à l’utilisateur la
possibilité d’intégrer ses préférences sous forme de contraintes.
La programmation par contraintes a démontré son intérêt pour résoudre de nom-
breuses tâches de fouille de données. Grâce à sa généricité, un même modèle peut être
facilement adapté à différentes tâches, simplement en ajoutant ou en supprimant des
contraintes. Dans ce cadre, nous concevons GC4CIP, la première contrainte globale dé-
diée à l’extraction de motifs d’intervalles fréquents et fermés directement à partir de don-
nées numériques. Nous étendons ensuite cette contrainte globale par l’ajout de variables
supplémentaires dans sa signature afin d’accroître sa généricité. Enfin, nous illustrons
cette généricité à travers cp4hp, un modèle combinant GC4CIP à d’autres contraintes
pour répondre à la tâche d’extraction de motifs à partir de données hétérogènes.
Une alternative aux approches d’extraction exhaustive de motifs est l’échantillon-
nage en sortie de motifs. Notre objectif est d’identifier, dans les données numériques,
un ensemble restreint de motifs d’intervalles pertinents sans faire attendre l’utilisateur.
Nous introduisons Fips et HFips, les premières méthodes d’échantillonnage en sortie
de motifs d’intervalles. Fips échantillonne les motifs selon une distribution de proba-
bilité proportionnelle à leur fréquence. HFips étend Fips en combinant la fréquence
à l’hyper-volume, échantillonnant ainsi des motifs proportionnellement au produit fré-
quence × hyper-volume. Nous démontrons formellement que ces méthodes échantillonnent
les motifs selon les distributions de probabilité ciblées.
Enfin, afin de mieux répondre à des préférences exprimées sous forme de contraintes,
nous proposons CFips et CHfips, extensions respectives de Fips et HFips. Ces mé-
thodes poussent des contraintes syntaxiques dans la procédure d’échantillonnage. Elles
garantissent que seuls les motifs satisfaisant les contraintes sont tirés, tout en respectant
les distributions de probabilités définies.
Abstract
This thesis focuses on knowledge discovery from numerical data, with a particular
focus on pattern mining. Patterns are represented as vectors of intervals, which allows an
intuitive interpretation of the extracted information. Our objective is to identify, within
numerical data, a small set of relevant interval patterns in a very short time, while giving
the user the ability to integrate their preferences in the form of constraints.
Constraint programming has demonstrated its effectiveness in a wide range of data mi-
ning tasks. Thanks to its flexibility, a single model can easily be adapted to different tasks
by simply adding or removing constraints. In this context, we have introduced gc4cip,
the first global constraint for mining closed and frequent interval patterns directly from
numerical data. We then extended this global constraint by adding additional variables to
its signature to increase its flexibility. Finally, we demonstrate the generic nature of this
approach using cp4hp, a model that combines gc4cip with other constraints for pattern
mining from heterogeneous data.
An alternative to exhaustive pattern extraction approaches is pattern sampling. Our
goal is to identify, from numerical data, a restricted set of relevant interval patterns wi-
thout making the user wait. We introduce Fips and HFips, the first output space sampling
methods for interval patterns. Fips samples patterns according to a probability distribu-
tion proportional to their frequency. HFips extends Fips by combining frequency with
hyper-volume, thus sampling patterns proportionally to the product frequency × hyper-
volume. We formally prove that these methods sample patterns according to the targeted
probability distributions.
Finally, to better address preferences expressed as constraints, we introduce CFips and
CHfips, extensions of Fips and HFips. These methods incorporate syntactic constraints
directly into the sampling procedure, ensuring that only patterns satisfying the constraints
are selected, while preserving the targeted probability distributions.
Οptimized data structure and query system fοr static cοde analysis
Doctorant·e
DAUPRAT Quentin
Direction de thèse
DORBEC Paul (Directeur·trice de thèse)
RICHARD Gaetan (Co-encadrant·e de thèse)
CHALLOUX EMMANUEL,
,
Sorbonne Université
DORBEC Paul,
,
UCN - Université de Caen Normandie
MINÉ ANTOINE,
,
Sorbonne Université
PEKERGIN NIHAL,
,
UNIVERSITE PARIS 12 VAL DE MARNE
RICHARD Gaetan,
,
UCN - Université de Caen Normandie
ROSEN Jean-Pierre,
,
ADALOG
SINGHOFF FRANCK,
,
Universite Bret. Occidentale Ubo
Résumé
L'analyse statique de code englobe diverses techniques pour améliorer la qualité et la sécurité des logiciels. Dans notre recherche, nous nous concentrons exclusivement sur un aspect important : la vérification des règles de codage. Nous avons identifié que les approches conventionnelles pour la vérification des règles de codage peinent à analyser efficacement des bases de code volumineuses et complexes. Nous explorons le potentiel des bases de données orientées graphe pour améliorer les performances de cette tâche spécifique d'analyse statique.
Nous proposons une méthodologie basée sur les graphes pour représenter le code source sous forme de graphe de propriétés, permettant une modélisation intuitive de la syntaxe, de la sémantique et du comportement spécifiquement pour la vérification des règles de codage. Nous analysons la base de code et l'intégrons dans une base de données orientée graphe. Nous évaluons ensuite les règles de codage par des traversées de graphe exprimées en langage de requête Cypher, convertissant les vérifications traditionnelles en motifs de graphe optimisés.
Nous avons implémenté cette approche par l'intermédiaire d'un prototype, appelé Cogralys, pour le langage Ada et l'avons évaluée sur des benchmarks du monde réel. Nos expériences démontrent des améliorations significatives en temps d'exécution pour la vérification des règles de codage : Cogralys effectue les analyses 6,3 fois plus rapidement qu'AdaControl et 17,6 fois plus rapidement que GNATcheck. Pour certaines catégories de règles, nous avons obtenu des améliorations encore plus importantes – jusqu'à 195 fois plus rapide pour les règles locales par rapport aux analyseurs traditionnels. Ces résultats confirment la capacité des bases de données graphe à accélérer la vérification des règles de codage grâce à des structures de données optimisées et à un traitement parallèle des requêtes.
Cependant, nous reconnaissons que les surcharges introduites par la population de la base de données sont à prendre en compte. Nous avons constaté que la technique est mieux adaptée pour du code volumineux et fréquemment analysé. Bien que prometteuse pour la vérification des règles de codage, nous identifions que des recherches supplémentaires sont nécessaires pour traiter la prise en charge d'autres langages, l'intégration dans les flux de développement et les requêtes pour des règles plus complexes.
Globalement, dans cette thèse nous proposons un cadre basé sur les graphes pour la vérification des règles de codage tout en présentant les avantages, les inconvénients et les opportunités futures de l'utilisation des technologies graphes pour une vérification efficace et évolutive des standards de codage.
Abstract
Static code analysis encompasses various techniques for improving software quality and security. In this research, we focus exclusively on one important aspect: the verification of coding rules.
Conventional approaches for coding rule verification face challenges in efficiently analyzing large, complex codebases. We thus explore the potential of graph databases to enhance the performance of this specific static analysis task.
We propose a graph-based methodology that represents source code as rich property graphs, enabling intuitive modeling of syntax, semantics, and behavior specifically for coding rule verification. We parse the codebase and populate it into a graph database. Then, we evaluate coding rules through graph traversals expressed in the Cypher query language, converting traditional rule checks into optimized graph patterns.
We implemented this approach in a prototype tool, entitled Cogralys, for Ada and evaluated it on real-world benchmarks. Our experiments demonstrate significant runtime improvements in coding rule verification: Cogralys completes analyses 6.3 times faster than AdaControl and 17.6 times faster than GNATcheck. For specific rule categories, we achieved even greater improvements– up to 195 times faster for local rules compared to traditional analyzers. These results confirm graph databases’ capacity to accelerate coding rule verification through optimized data structures and parallel query processing.
However, overheads introduced by database population should be considered. We found the technique is best suited for sizable, frequently analyzed code. While showing significant promise for coding rule verification, more research is needed to address language support, integration with developers’ workflows, and queries for more complex rules.
Overall, in this thesis we deliver a practical graph-based framework for coding rule verification while presenting the advantages, trade-offs and future opportunities of leveraging graph technologies for efficient, scalable verification of coding standards.
Fabricatiοn and mechanical characterizatiοn οf micrο-electrοmechanical systems (ΜEΜS) based οn La0.7Sr0.3ΜnΟ3, applicatiοn tο resοnant bοlοmeters
CARRETERO ADRIEN Université de Montpellier
TIERCELIN NICOLAS Ecole centrale de Lille
Membres du jurys
AGNUS GUILLAUME,
,
Université Paris Saclay
BERGAUD CHRISTIAN,
,
LAAS Toulouse
CARRETERO ADRIEN,
,
Université de Montpellier
MANCA NICOLA,
,
CNR-SPIN de Gênes
MECHIN Laurence,
,
ENSICAEN
TIERCELIN NICOLAS,
,
Ecole centrale de Lille
Résumé
Cette thèse propose une nouvelle approche de l’électronique grâce à l’utilisation d’oxydes fonctionnels. Depuis une vingtaine d’années, le domaine de l’électronique a connu un essor considérable, reposant principalement sur l’utilisation du silicium comme matériau de base. L’évolution vers des dimensions micro- et nanométriques a donné naissance à la microélectronique, apportant des avantages remarquables mais aussi de nombreux défis techniques.
Récemment, de nouveaux matériaux innovants tels que les oxydes fonctionnels ont été introduits, ouvrant des perspectives prometteuses, notamment dans le domaine des capteurs. Cependant, l’intégration de ces matériaux représente un véritable défi, car les procédés actuels sont optimisés pour le silicium. L’industrie reste encore prudente, en raison du manque de recherche approfondie et de la difficulté à maîtriser complètement leurs propriétés exotiques. Cela souligne la nécessité d’une étude rigoureuse et d’une caractérisation approfondie.
Dans ce travail, nous proposons l’intégration d’un oxyde pérovskite particulier, La\textsubscript{2/3}Sr\textsubscript{1/3}MnO\textsubscript{3} (LSMO), avec le silicium pour la fabrication d’un nouveau type de système microélectromécanique (MEMS). Une introduction générale à l’industrie des MEMS et à la complexité des procédés de fabrication est d’abord présentée, avec un accent particulier sur les capteurs à résonateurs mécaniques (MMR). Les principes de la nanomécanique sont expliqués, car ils sont essentiels à la compréhension et à la caractérisation des dispositifs.
La suite du manuscrit explore les oxydes pérovskites et le rôle de l’ingénierie de la contrainte dans l’optimisation de leurs propriétés. Le matériau principal utilisé dans cette étude, le LSMO, est présenté en détail, ainsi que ses applications potentielles dans les MEMS.
Les chapitres suivants décrivent deux études de cas : la caractérisation mécanique de micro-ponts suspendus à base de LSMO, réalisée dans deux laboratoires européens (CNR-SPIN à Gênes et TU Delft), et l’intégration d’une couche piézoélectrique PZT sur les dispositifs LSMO. Enfin, des mesures de la fréquence de résonance en fonction de la température et de la puissance du laser sont discutées, ouvrant la voie à l’utilisation de ces dispositifs comme bolomètres résonants.
Abstract
This thesis proposes a new approach to electronics through the use of functional oxides.
Over the past two decades, the field of electronics has experienced significant growth, primarily relying on silicon as the base material. The transition to micro- and nanoscale dimensions has led to the development of microelectronics, offering remarkable advantages but also numerous technical challenges.
Recently, innovative new materials such as functional oxides have been introduced, opening up promising prospects, particularly in the field of sensors. However, integrating these materials poses a real challenge, as current processes are optimized for silicon. The industry remains cautious due to the lack of in-depth research and the difficulty of fully mastering their exotic properties. This highlights the need for rigorous study and thorough characterization.
In this work, we propose the integration of a specific perovskite oxide, La\textsubscript{2/3}Sr\textsubscript{1/3}MnO\textsubscript{3} (LSMO), with silicon for the fabrication of a new type of microelectromechanical system (MEMS). A general introduction to the MEMS industry and the complexity of fabrication processes is first presented, with a particular focus on mechanical resonator sensors (MMR). The principles of nanomechanics are explained, as they are essential for understanding and characterizing the devices.
The following sections of the manuscript explore perovskite oxides and the role of strain engineering in optimizing their properties. The main material used in this study, LSMO, is described in detail, along with its potential applications in MEMS.
The subsequent chapters present two case studies: the mechanical characterization of suspended LSMO-based microbridges, conducted in two European laboratories (CNR-SPIN in Genoa and TU Delft), and the integration of a piezoelectric PZT layer on the LSMO devices. Finally, measurements of the resonance frequency as a function of temperature and laser power are discussed, paving the way for the use of these devices as resonant bolometers.
Ρrοbabilistic analyses οf the transversal hypergraph generatiοn prοblem
Doctorant·e
GHOLAMI Mostafa
Direction de thèse
LHOTE Loick (Directeur·trice de thèse)
DAVID Julien (Co-directeur·trice de thèse)
Date de la soutenance
03/10/2025 à 14:00
Lieu de la soutenance
Salle des thèses - Batîment Sciences 3
Rapporteurs de la thèse
BODINI OLIVIER Sorbonne Université
RAVELOMANA VLADY Université Paris Cité
Membres du jurys
BODINI OLIVIER,
,
Sorbonne Université
CREMILLEUX Bruno,
,
UCN - Université de Caen Normandie
DAVID Julien,
,
UCN - Université de Caen Normandie
LHOTE Loick,
,
UCN - Université de Caen Normandie
MARY ARNAUD,
,
Université Claude Bernard - Lyon 1
PIVOTEAU CARINE,
,
Université Gustave Eiffel
RAVELOMANA VLADY,
,
Université Paris Cité
Résumé
Le calcul des traverses minimales d’un hypergraphe, appelé problème de génération d’hypergraphes transversaux (THG), est un problème majeur en informatique théorique, dont la complexité reste ouverte. Cette thèse étudie la complexité en moyenne de l’algorithme classique de Berge, l’une des méthodes les plus anciennes.
Nous considérons deux modèles d’hypergraphes aléatoires : le modèle d’Erdős–Rényi et un modèle multiparamétrique. Par des outils de combinatoire analytique, nous obtenons des estimations asymptotiques de la probabilité qu’un ensemble soit un transversal minimal dans le modèle multiparamétrique. Pour le modèle d’Erdős–Rényi, nous calculons le nombre moyen de transversaux minimaux, puis nous démontrons que la complexité en moyenne de l’algorithme de Berge est quasi-linéaire en ce nombre moyen.
Enfin, nous comparons Berge à MTMiner, Dong–Li et RS. En moyenne, Berge surpasse MTMiner, et sa complexité en moyenne fournit aussi une borne supérieure pour Dong–Li et RS, renforçant ainsi la portée de notre analyse.
Abstract
The computation of minimal transversals of a hypergraph, known as the Transversal Hypergraph Generation (THG) problem, is a central challenge in theoretical computer science with unresolved complexity. This thesis analyzes the average-case complexity of Berge classical algorithm, one of the earliest methods for THG.
We study two random hypergraph models: the Erdős–Rényi model and a multiparametric model. Using analytic combinatorics, we derive asymptotic probabilities for minimal transversals in the multiparametric model. For the Erdős–Rényi model, we compute the average number of minimal transversals and then prove that the average-case complexity of Berge’s algorithm is quasi-linear in this average number.
Finally, we compare Berge algorithm with MTMiner, Dong–Li, and RS. On average, Berge outperforms MTMiner, and its computed average-case complexity also bounds that of Dong–Li and RS, highlighting the broader relevance of our results.
Explοitatiοn οf cοlοred 3D meshes using cοnvοlutiοnal netwοrks
Doctorant·e
IBORK Zaineb
Direction de thèse
CHARRIER Christophe (Directeur·trice de thèse)
NOURI Anass (Co-directeur·trice de thèse)
Date de la soutenance
01/10/2025 à 09:00
Lieu de la soutenance
Université Ibn Tofail de Kénitra, Maroc
Rapporteurs de la thèse
DABOUNOU JAOUAD Université Hassan 1er - Settat
GHOGHO MOUNIR Université Mohammed VI Polytechnique
LARABI MOHAMED-CHAKER Université Poitiers
Membres du jurys
AZZOUZI SALMA,
,
Université IBN TOFAIL de KENITRA
CHARRIER Christophe,
,
UCN - Université de Caen Normandie
DABOUNOU JAOUAD,
,
Université Hassan 1er - Settat
GHOGHO MOUNIR,
,
Université Mohammed VI Polytechnique
KARINE AYOUB,
,
Université Paris Cité
LARABI MOHAMED-CHAKER,
,
Université Poitiers
LEZORAY Olivier,
,
UCN - Université de Caen Normandie
NOURI Anass,
,
Université IBN TOFAIL de KENITRA
Résumé
Dans cette thèse, nous abordons la problématique de l’évaluation de la qualité visuelle des maillages 3D ainsi que celle de la saillance visuelle, en mettant en lumière l’importance croissante des méthodes d’évaluation aveugle dans des domaines en plein essor tels que l’infographie, la réalité virtuelle ou l’imagerie médicale. Ce travail met en évidence l’évolution rapide des besoins en traitement des maillages 3D et souligne le rôle clé des approches d’apprentissage profond dans l’analyse des contenus visuels tridimensionnels. L’étude s’intéresse aux principaux défis posés par la détection de la saillance et l’estimation de la qualité perçue des maillages 3D, tout en mettant en évidence les limites des métriques actuellement disponibles dans la littérature.
Cette recherche introduit une approche novatrice, intitulée CMDQA, destinée à l’éva\-lua\-tion de la qualité visuelle des maillages 3D, qu’ils soient colorés ou non. Pour surmonter les défis inhérents au traitement direct des données 3D, la méthode repose sur la projection des maillages en vues 2D, exploitant ainsi pleinement le potentiel des réseaux de neurones convolutifs profonds. En combinant des métriques classiques d’évaluation de la qualité d’images sans référence, comme BRISQUE, avec des représentations profondes extraites du réseau VGG16, à la fois à l’échelle des images et des patchs, CMDQA permet une modélisation plus fine et multi-échelle de la géométrie. Les résultats obtenus démontrent que les rendus 2D de contenus 3D constituent une modalité à la fois pertinente et efficace pour estimer la qualité perceptive des maillages.
Par ailleurs, nous proposons SARMA Index, une architecture novatrice reposant sur les réseaux de neurones à graphes (GNN) pour la détection de la saillance visuelle sur les maillages 3D non colorés. Cette approche consiste à représenter les maillages sous forme de graphes, en intégrant comme entrées les coordonnées spatiales des sommets ainsi que leurs courbures associées. En s’appuyant sur les principes de l’apprentissage résiduel, SARMA permet d’estimer de manière précise la saillance visuelle, surpassant les méthodes existantes à ce jour. En complément, nous présentons une méthode entièrement automatique de détection de la saillance colorimétrique pour les maillages 3D, qui affiche des résultats compétitifs face aux rares indicateurs existants abordant cette problématique de recherche particulièrement complexe.
Abstract
In this thesis, we address the challenges of visual quality assessment and visual saliency detection in 3D meshes, highlighting the growing importance of blind evaluation methods in rapidly evolving fields such as computer graphics, virtual reality, and medical imaging. This work underscores the increasing demand for advanced 3D mesh processing techniques and emphasizes the pivotal role of deep learning approaches in the analysis of three-dimensional visual content. The study explores the key challenges associated with saliency detection and perceptual quality estimation of 3D meshes, while identifying the limitations of existing metrics in the current literature.
The study mainly introduces an innovative approach, called CMDQA, designed to assess the visual quality of both colored and non-colored 3D meshes. To overcome the inherent difficulties of directly processing 3D data, the method relies on projecting meshes into 2D views, thereby leveraging the full potential of deep convolutional neural networks. By combining traditional no-reference image quality metrics such as BRISQUE with deep feature representations extracted from the VGG16 network, both at the image and patch levels. That way, CMDQA enables a more refined, multi-scale modeling of geometry. The results demonstrate that 2D renderings of 3D content provide a relevant and effective modality for estimating perceptual mesh quality.
Furthermore, we propose the SARMA Index, an original architecture based on Graph Neural Networks (GNNs) for visual saliency detection in non-colored 3D meshes. In this approach, meshes are modeled as graphs, using the spatial coordinates of vertices and their corresponding curvature as inputs. Leveraging residual learning, SARMA provides accurate predictions of perceptual saliency, outperforming current state-of-the-art methods. Additionally, we present a fully automated method for detecting color-based saliency on 3D meshes, achieving competitive performance compared to the few existing metrics addressing this particularly challenging research problem.
Andersοn mοdules and L-series: a Ρ-adic study
Doctorant·e
LUCAS Alexis
Direction de thèse
NGO DAC Tuan (Directeur·trice de thèse)
TAVARES RIBEIRO Floric (Co-directeur·trice de thèse)
TAVARES RIBEIRO Floric (Co-encadrant·e de thèse)
Date de la soutenance
26/09/2025 à 09:30
Lieu de la soutenance
Caen
Rapporteurs de la thèse
FOUQUET OLIVIER Université Marie et Louis Pasteur
PAPANIKOLAS MATTHEW UNIVERSITE TEXAS A&M ETATS-UNIS
Membres du jurys
ANGLES Bruno,
,
UCN - Université de Caen Normandie
FOUQUET OLIVIER,
,
Université Marie et Louis Pasteur
IM BO-HAE,
,
KAIST
LEBACQUE PHILIPPE,
,
Université de Limoges
NGO DAC Tuan,
,
UCN - Université de Caen Normandie
PAPANIKOLAS MATTHEW,
,
UNIVERSITE TEXAS A&M ETATS-UNIS
TAVARES RIBEIRO Floric,
,
UCN - Université de Caen Normandie
Résumé
Dans cette thèse, nous étudions des séries L P-adiques dans le contexte des modules d’Anderson, qui seront les analogues P-adiques des séries L de Taelman pour les modules de Drinfeld. Le point de départ est la construction des séries L avec une variable z introduite par Anglès et Tavares Ribeiro, et la formule des classes pour les t-modules d’Anderson avec cette variable z démontrée par Demeslay. Nous construisons d’abord ces séries L P-adiques, étudions leur convergence et démontrons une formule P-adique du nombre de classes. Nous étendons ensuite ces constructions au cas des modules d’Anderson sur des anneaux de base possédant plusieurs variables. Enfin, nous effectuons une étude approfondie de ces séries L P-adiques dans le cas des modules de Drinfeld.
Abstract
In this thesis, we study P-adic L-series in the context of Anderson modules, which are the P-adic analogues of Taelman L-series for Drinfeld modules. The starting point is the construction of L-series with a variable z introduced by Anglès and Tavares Ribeiro, and the class formula for Anderson t-modules with this variable z proved by Demeslay. We first construct these P-adic L-series, study their convergence, and prove a P-adic class number formula. We then extend these constructions to the case of Anderson modules over base rings with several variables. Finally, we study the case of Drinfeld modules.
Cοntributiοn au diagnοstic de défauts capteurs dans une chaine de cοnversiοn électrique. Applicatiοn sur les véhicules électriques.
Doctorant·e
AJRA Youssef
Direction de thèse
HOBLOS GHALEB (Directeur·trice de thèse)
MOUBAYED NAZIH (Co-directeur·trice de thèse)
Date de la soutenance
25/09/2025 à 14:00
Lieu de la soutenance
ESIGELEC
Rapporteurs de la thèse
ALONSO CORINNE Université de Toulouse 3 - Paul Sabatier
BOUKHNIFER MOUSSA Eni Metz
Membres du jurys
ALONSO CORINNE,
,
Université de Toulouse 3 - Paul Sabatier
BOUKHNIFER MOUSSA,
,
Eni Metz
DIALLO DEMBA,
,
Université Paris-Saclay
HOBLOS GHALEB,
,
ESIGELEC ROUEN
MOUBAYED NAZIH,
,
Université Libanaise
TARNINI MOHAMAD,
,
Université de Beyrouth (Liban)
Résumé
Mes recherches doctorales portent sur le diagnostic robuste des défauts capteurs dans la chaîne de conversion des véhicules électriques (VE).
L’objectif de ce travail est d’améliorer la fiabilité et la sécurité des systèmes de VE en détectant et en isolant les défauts capteurs à l’aide de techniques à base de modèles. L’étude cible spécifiquement la chaîne de conversion composée d’un onduleur de tension (VSI), d’un filtre LCL et d’un moteur électrique, surveillés par six capteurs de tension et de courant placés stratégiquement, conformément aux pratiques industrielles standards.
La thèse est structurée en quatre chapitres :
Chapitre 1 présente une revue de littérature complète sur les techniques de diagnostic de défauts basées sur les modèles, avec un accent particulier sur la comparaison entre les méthodes d’estimation d’état et d’estimation de paramètres. Différentes approches basées sur des observateurs et filtres de Kalman sont analysées de manière critique. Une revue des diverses topologies des sous-systèmes de la chaîne de conversion, à savoir le convertisseur DC-DC et l’onduleur DC-AC, est également incluse.
Chapitre 2 traite de la conception des paramètres de la chaîne de conversion en fonction de la puissance choisie pour l’ensemble des sous-systèmes. Il couvre également la modélisation en espace d’état de la chaîne de conversion du VE, à l’aide d’un modèle mathématique détaillé développé pour capturer la dynamique du convertisseur DC-DC (type Ćuk), de l’onduleur triphasé (type VSI) et du filtre LCL, qui sert de base au cadre de diagnostic des défauts.
Chapitre 3 propose une approche de diagnostic et d’isolement des défauts en utilisant une banque de filtres de Kalman. Ce chapitre inclut aussi une analyse comparative entre les configurations en boucle ouverte et en boucle fermée, démontrant que la conception en boucle fermée offre de meilleures performances de diagnostic. La détection de défauts est évaluée à l’aide de courbes ROC, ainsi que d’indicateurs de performance tels que la précision, la spécificité, la sensibilité, le taux de faux positifs (FPR), le taux de faux négatifs (FNR) et l’aire sous la courbe ROC (AUC). Ce chapitre examine également la robustesse du système de détection face aux incertitudes de modélisation. Les résultats révèlent l’apparition de fausses alarmes en l’absence de défauts capteurs, mettant en évidence les limites de l’approche classique. De plus, l’approche est testée sous des scénarios de défauts simples, doubles, triples et quadruples capteurs, en exploitant l’observabilité du système même en configuration réduite de capteurs.
Chapitre 4 répond à ces limites en introduisant une conception d’observateur robuste afin d’améliorer le diagnostic de défauts en présence d’incertitudes du système. La banque de filtres de Kalman initiale est modifiée pour intégrer des observateurs à découplage optimal des perturbations (ODDOs), permettant la génération de résidus robustes. Une comparaison approfondie entre la méthode classique basée sur les filtres de Kalman et l’approche robuste proposée est menée sur l’ensemble des scénarios de défauts, en utilisant les mêmes indicateurs de performance diagnostique. Les résultats confirment que l’observateur robuste surpasse largement la méthode classique, en particulier dans des environnements incertains et en présence de multiples défauts capteurs simultanés.
Cette recherche propose ainsi une solution complète et évolutive pour la détection robuste de défauts capteurs dans les véhicules électriques, contribuant à améliorer la tolérance aux défauts et la sécurité opérationnelle des systèmes de VE.
Abstract
My doctoral research focuses on robust sensor fault diagnosis in the conversion chain of electric vehicles (EVs). The work aims to enhance the reliability and safety of EV systems by detecting and isolating sensor faults using model-based techniques. The study specifically targets the conversion chain comprising a voltage source inverter (VSI), an LCL filter, and an electric motor, which is monitored by six strategically placed voltage and current sensors, consistent with standard industry practices.
The thesis is structured into four chapters:
Chapter 1 presents a comprehensive literature review on model-based fault diagnosis techniques, with an emphasis on comparing state estimation and parameter estimation methods. Various observer and Kalman filter-based approaches are critically analyzed. In addition to reviewing several topologies of the conversion chain sub-systems that are the DC-DC converter and the DC-AC inverter.
Chapter 2 covers the conversion chain parameter design based on the selected chain power for all of the sub-systems. Also it covers the state-space modeling of the EV conversion chain using a detailed mathematical model that is developed to capture the dynamics of the DC-DC converter (CUK type), the three-phase inverter (VSI type), and the LCL filter, which serves as the foundation for the fault diagnosis framework.
Chapter 3 proposes a fault diagnosis and isolation approach using a bank of KALMAN filters. The chapter also includes a comparative analysis between open-loop and closed-loop configurations, demonstrating that the closed-loop design yields superior diagnostic performance. Fault detection is evaluated using ROC curves, along with performance metrics such as accuracy, specificity, sensitivity, false positive rate (FPR), false negative rate (FNR), and the area under the ROC curve (AUC). This chapter also investigates the robustness of the fault detection system under modeling uncertainties. Results show occurrences of false alarms in the absence of sensor faults, revealing limitations of the classical approach. Furthermore, the approach is tested under single, double, triple, and quadruple sensor fault scenarios, leveraging the system's observability even under reduced sensor configurations.
Chapter 4 addresses these limitations by introducing a robust observer design to enhance fault diagnosis under system uncertainties. The original KALMAN filter bank is modified to incorporate optimal disturbance decoupling observers (ODDOs), enabling the generation of robust residuals. A thorough comparison between the classical KALMAN filter-based method and the proposed robust approach is conducted across all fault scenarios, using the same diagnostic performance metrics. The results confirm that the robust observer significantly outperforms the classical method, particularly in environments with uncertainty and multiple simultaneous sensor faults.
This research provides a comprehensive and scalable solution for robust sensor fault detection in electric vehicles, contributing to improved fault tolerance and operational safety in EV systems.
Ηοmοgénéisatiοn de prοblémes d’évοlutiοn dans des dοmaines à frοntiéres fοrtement οscillantes et avec des dοnnées peu réguliéres
Doctorant·e
BOVE Silvio
Direction de thèse
GUIBE OLIVIER (Directeur·trice de thèse)
Date de la soutenance
22/09/2025 à 10:30
Lieu de la soutenance
Université de Rouen Normandie
Rapporteurs de la thèse
BONNETIER ERIC Université de Grenoble Alpes
CASADO DIAZ JUAN Université de Seville (ESPAGNE)
Membres du jurys
BONNETIER ERIC,
,
Université de Grenoble Alpes
BUNOIU-SCHILTZ RENATA,
,
Université de Lorraine
CASADO DIAZ JUAN,
,
Université de Seville (ESPAGNE)
GUIBE OLIVIER,
,
URN - Université de Rouen Normandie
KIAN YAVAR,
,
URN - Université de Rouen Normandie
MURAT FRANCOIS,
,
UNIVERSITE PARIS 6 PIERRE ET MARIE CURIE
PISANTE GIOVANNI,
,
Seconde Université de Naples (ITA)
SANDIER ETIENNE,
,
UNIVERSITE PARIS 12 VAL DE MARNE
Résumé
Cette thèse est consacrée à l’étude du problème d’homogénéisation de la brosse (ou « brushproblem »). La question est d’étudier le comportement asymptotique d’une EDP (elliptique ouparabolique) dans un domaine présentant une structure de type brosse en dimension trois, oude type peigne en dimension deux, c’est-à-dire un ouvert constitué de dents cylindriques verti-cales réparties régulièrement au-dessus d’une base fixe. En particulier, on cherche à déterminerle problème limite, également appelé problème homogénéisé, et à démontrer des résultats deconvergence vers la solution limite.Le travail est divisé en deux parties : une première partie est consacrée à une classe deproblèmes elliptiques non linéaires, et une deuxième partie consacrée à une classe de problèmesparaboliques linéaires. Le point commun et l’originalité résident dans la géométrie fortementoscillante, non nécessairement périodique, et dans le fait que le second membre est uniquementsupposé appartenir à L1. Considérer une équation elliptique ou parabolique avec un secondmembre dans L1nécessite un cadre fonctionnel adapté. Dans cette thèse, nous utilisons etdéveloppons la notion de solution rénormalisée.Dans le premier chapitre, nous établissons l’existence de solutions lorsque le second membreappartient à L1, en utilisant le cadre des solutions rénormalisées. Cette approche est nécessaireen raison du manque de régularité des données, qui empêche l’utilisation des notions classiquesde solution. Dans le second chapitre, nous étudions l’homogénéisation du même problème el-liptique non linéaire avec données dans L1. Nous analysons le comportement asymptotique etprouvons que la solution rénormalisée du problème converge (dans un sens approprié) vers lasolution rénormalisée du problème homogénéisé. Les principales difficultés proviennent du ca-ractère non linéaire de l’équation, de la faible régularité des solutions due aux données dans L1,ainsi que de la nature fortement oscillante de la frontière du domaine.La deuxième partie de la thèse est dédiée à l’étude d’un problème parabolique linéaire,toujours avec des données dans L1. La première étape, objet du chapitre 3, consiste à définirune notion de solution rénormalisée pour un problème parabolique linéaire de transmissiondégénéré, et à démontrer des résultats d’existence, d’unicité et de stabilité. Par rapport auchapitre 2 et à la littérature sur le sujet, le caractère dégénéré de l’opérateur et la présencede la dérivée en temps compliquent notablement le problème. Grâce à ces résultats, nous nousintéressons dans le chapitre 4 à l’homogénéisation de l’équation parabolique linéaire. Commedans le cas elliptique, nous analysons le comportement asymptotique de la solution associée àun domaine dont la frontière est fortement oscillante. Nous identifions le problème homogénéiséet prouvons la convergence, en mettant en évidence l’interaction délicate entre la dépendanceen temps, la faible régularité des données et la structure oscillante de la frontiére du domaine.
Abstract
This thesis is devoted to the study of the homogenization problem in domains with a brush-like geometry.The aim is to analyze the asymptotic behavior of a partial differential equation (either ellipticor parabolic) posed in a domain that exhibits a brush-type structure in three dimensions ora comb-type structure in two dimensions; that is, an open set composed of vertically alignedcylindrical teeth distributed regularly over a fixed base. In particular, we seek to identify thelimiting problem, also called the homogenized problem, and to prove convergence results towardthe corresponding limit solution.The work is divided into two main parts: the first is dedicated to a class of nonlinear ellipticproblems, while the second focuses on a class of linear parabolic problems. The common threadand main novelty lie in the highly oscillatory, not necessarily periodic geometry of the domain,and in the fact that the source term is assumed to belong only to L1. Studying an elliptic orparabolic equation with an L1right-hand side requires a suitable functional framework. In thisthesis, we employ and develop the concept of renormalized solutions.In the first chapter, we establish the existence of solutions when the source term belongsto L1, using the framework of renormalized solutions. This approach is necessary due to thelack of regularity in the data, which prevents the use of classical notions of solutions. Inthe second chapter, we study the homogenization of the same nonlinear elliptic problem withL1data. We analyze the asymptotic behavior and prove that the renormalized solution ofthe original problem converges (in an appropriate sense) to the renormalized solution of thehomogenized problem. The main difficulties arise from the nonlinear nature of the equation,the low regularity of the solution due to the L1data, and the strongly oscillating boundary ofthe domain.The second part of the thesis is devoted to the study of a linear parabolic problem, againwith source terms in L1. The first step, addressed in Chapter 3, is to define a notion of renor-malized solution for a degenerate linear parabolic transmission problem and to prove resultsof existence, uniqueness, and stability. Compared to Chapter 2 and the existing literature,the degenerate character of the operator and the presence of the time derivative significantlyincrease the complexity of the problem. Building on these results, Chapter 4 is dedicated tothe homogenization of the linear parabolic equation. As in the elliptic case, we analyze theasymptotic behavior of the solution associated with a domain whose boundary exhibits strongoscillations. We identify the homogenized limit problem and establish convergence, highlightingthe delicate interplay between time dependence, low regularity of the data, and the oscillatorystructure of the domain boundary.
Μοdèles génératifs pοur la prédictiοn de la prοgressiοn du cancer à partir de dοnnées multimοdales
Doctorant·e
KEBAILI Aghiles
Direction de thèse
RUAN SU (Directeur·trice de thèse)
LAPUYADE-LAHORGUE JEROME (Co-encadrant·e de thèse)
Date de la soutenance
16/09/2025 à 14:00
Lieu de la soutenance
Centre Henri Becquerel
Rapporteurs de la thèse
BURGOS NINON Sorbonne Universite
MERIAUDEAU FABRICE Universite Bourgogne Europe
Membres du jurys
BURGOS NINON,
,
Hôpital Pitié-Salpêtrière
FRINDEL CAROLE,
,
Institut National des Sciences Appliquees de Lyon
KURTZ CAMILLE,
,
Université Paris Cité
LAPUYADE-LAHORGUE JEROME,
,
URN - Université de Rouen Normandie
MERIAUDEAU FABRICE,
,
Universite Bourgogne Europe
RUAN SU,
,
URN - Université de Rouen Normandie
VERA PIERRE,
,
URN - Université de Rouen Normandie
Résumé
L'apprentissage profond a révolutionné l'imagerie médicale, permettant une précision sans précédent dans des tâches telles que la segmentation d'organes, la détection de lésions et la classification tissulaire. Il devient de plus en plus essentiel d'appliquer ces méthodes à des prédictions cliniques complexes, notamment la progression du cancer et la réponse au traitement. Dans cette thèse, nous nous intéressons à la prédiction spatiale pixel à pixel de l'évolution des tumeurs cérébrales, en particulier des gliomes, en développant une framework novatrice pour la modélisation spatiale de la croissance tumorale. Ces tâches de prédiction sont intrinsèquement complexes et exigent de vastes jeux de données longitudinales et multimodales afin d'appréhender l'ensemble des paramètres cliniques, biologiques ou radiologiques qui régissent le comportement tumoral. Or, les données d'imagerie médicale restent très limitées : d'une part à cause de protocoles d'acquisition lourds et coûteux, de la réglementation sur la confidentialité, et de la survie restreinte des patients atteints de gliome, d'autre part en raison de la nature souvent irrégulière des suivis IRM en pratique clinique, qui aboutit à des séries incomplètes et déséquilibrées. Pour surmonter ces difficultés, nous proposons dans la première partie de notre travail deux méthodes d'augmentation générative, tirant parti des autoencodeurs variationnels et des modèles de diffusion pour synthétiser des images médicales longitudinales de haute fidélité ainsi que leurs masques de segmentation correspondants, offrant une représentation spatiale claire des tumeurs générées. En enrichissant le jeu de données d'entraînement de cette façon, nous améliorons significativement la qualité des modèles prédictifs en aval. En nous appuyant sur les données synthétiques générées précédemment, nous avons élaboré un modèle de diffusion multitâche, capable de prévoir l'évolution spatiale des gliomes à partir de deux acquisitions initiales uniquement. Lors de nos tests sur des cohortes publiques et privées, il atteint un coefficient de Dice moyen de 0,75 sur des prévisions s'étalant sur plusieurs mois, tout en conservant une robustesse remarquable entre différents centres d'imagerie. En combinant notre approche d'augmentation générative, cette approche démontre la possibilité de modéliser avec précision la progression des gliomes, sans être contraint par un repère temporel fixe, même lorsque les séries longitudinales restent limitées. Ces résultats représentent une avancée majeure pour la neuro-oncologie, en offrant aux cliniciens un outil de planification thérapeutique plus fin et adapté à chaque patient.
Abstract
Deep learning has revolutionized medical imaging, enabling unprecedented accuracy in tasks such as organ segmentation, lesion detection, and tissue classification. It becomes increasingly important to apply these methods to complex clinical predictions, such as prediction of cancer progression and treatment response. In this thesis, we focus on predicting spatial pixel-wise brain tumor evolution, particularly glioma progression, by developing a novel framework for spatial modeling of tumor growth. Such prediction tasks are inherently complex and rely on vast, multimodal, longitudinal datasets to capture the numerous factors influencing tumor behavior. However, medical imaging data are chronically scarce due to burdensome acquisition protocols, privacy regulations, and the limited survival time of glioma patients, further exacerbated by the irregularly acquired longitudinal MRI data in clinical practice, leading to incomplete follow-up sequences and data imbalances. To address these challenges, we propose in the first part of our work two generative augmentation method, leveraging variational autoencoders and diffusion-based models to synthesize high-fidelity longitudinal medical images and their corresponding segmentation masks, providing a clear spatial representation of generated tumors. The augmented datasets substantially improve training for downstream prediction models. Building on these enriched datasets, we propose in the second part of our work, an end-to-end multitask diffusion framework that integrates synthetic medical images and uncertainty quantification to forecast spatial tumor progression from as few as two early MRI timepoints. Our model accurately predicts future tumor extent up to several months ahead, achieving a mean Dice similarity coefficient of 0.75 on held-out public and private test sets, and demonstrating robust generalization across imaging centers. By combining generative augmentation approaches with a multi-task diffusion-based predictor, we show the possibility of accurate, time-agnostic glioma progression modeling from limited longitudinal MRI data. This work represents a significant step toward improving clinical decision-making in neuro-oncology, enabling personalized treatment planning and better patient outcomes.
Οptimal Cοntrοl Ρrοblems gοverned by Stοchastic Ρartial Differential Equatiοns
Doctorant·e
VISCONTI RONCAGLIOLO PIERO
Direction de thèse
ZIDANI HOUSNAA (Directeur·trice de thèse)
FORCADEL NICOLAS (Co-directeur·trice de thèse)
CIOTIR IOANA (Co-encadrant·e de thèse)
Date de la soutenance
10/09/2025 à 13:30
Lieu de la soutenance
INSA Rouen Normandie
Rapporteurs de la thèse
DE LOS REYES JUAN CARLOS Escuela Politécnica Nacional,Quito, Ecuador
WOLLNER WINNIFRIED Universität Hamburg, Allemagne
Membres du jurys
CALKA PIERRE,
,
URN - Université de Rouen Normandie
CIOTIR IOANA,
,
INSA Rouen Normandie
DE LOS REYES JUAN CARLOS,
,
Escuela Politécnica Nacional,Quito, Ecuador
FORCADEL NICOLAS,
,
INSA Rouen Normandie
GEIERSBACH CAROLINE,
,
Alpen-Adria-Universität Klagenfurt, Autriche
RUSSO FRANCESCO,
,
ENSTA-ParisTech
WOLLNER WINNIFRIED,
,
Universität Hamburg, Allemagne
ZIDANI HOUSNAA,
,
INSA Rouen Normandie
Résumé
La commande optimale est une discipline mathématique qui étudie quelle décision de contrôle, pour un système dynamique, optimise un indicateur de performance précisément défini. Ces systèmes doivent souvent être analysés en présence d’incertitudes. Cette thèse examine plusieurs classes de problèmes de contrôle optimale régis par des systèmes d’évolution de dimension infinie, soumis à une certaine forme d’aléa. Nous trouvons les conditions d’optimalité pour ces systèmes dans l’esprit du célèbre principe du maximum de Pontryagin.
La première partie de la thèse concerne les problèmes de contrôle optimal régis par des équations d’évolution stochastiques de type parabolique, où contrôle et bruit sont présents et peuvent interagir à la frontière. Pour établir des conditions d’optimalité adéquates, il est nécessaire d’établir une nouvelle régularité pour les processus adjoints, ce qui est réalisé par une approche de dualité qui étend la méthode de transposition stochastique.
La deuxième partie traite des problèmes de contrôle optimal régis par des équations d’évolution stochastiques non linéaires, mais présentant certaines hypothèses de monotonie. Nous étudions les variations des trajectoires en fonction des perturbations des commandes. Le principe du maximum stochastique peut ensuite être étendu à ce cadre. Des applications à plusieurs classes d’équations sont données.
La dernière partie concerne le contrôle optimal des équations aux dérivées partielles paraboliques à paramètres aléatoires soumises à des contraintes d’état presque sûres dans l’espace des fonctions continues. Un principe du maximum est obtenu ; pour gérer cette contrainte, il faut introduire un multiplicateur prenant ses valeurs dans l’espace des mesures de Radon, qui n’est qu’une variable aléatoire mesurable faible∗ .
Abstract
Optimal control is a mathematical discipline which studies which control decision for a dynamical system optimizes some precisely defined performance indicator. Often times, this systems need to be analyzed in the presence of uncertainties. This dissertation examines several classes of optimal control problems governed by infinite dimensional evolution systems which are subject to randomness in some way. We find optimality conditions for such systems in the spirit of the celebrated Pontryagin Maximum Principle.
The first part of the thesis concerns optimal control problems which are governed by stochastic evolution equations of parabolic type, where control and noise are present and may interact on the boundary. To establish suitable optimality conditions, it is necessary to establish some new regularity for the adjoint processes, which is done by a duality approach which extends the stochastic transposition method.
The second part deals with optimal control problems governed by stochastic evolution equations which are nonlinear, but which present certain monotonicity assumtions. We study the variations of the trajectories with respect to perturbations in the controls. The stochastic maximum principle can then be extended to this setting. Applications to several classes of equations are given.
The last part concerns the optimal control of parabolic partial differential equations with random parameters which are subject to almost sure state constraints in the space of continuous functions. A maximum principle is obtained, in order to handle the constraint a multiplier must be introduced which takes its values in the space of Radon measures, which is only a weak* -measurable random variable.
Adaptatiοn dynamique de la gestiοn de charge cοmputatiοnnelle par criticalité autο-οrganisée
Doctorant·e
HELEINE Paulin
Direction de thèse
OLIVIER DAMIEN (Directeur·trice de thèse)
JIMENEZ LAREDO JUAN LUIS (Co-encadrant·e de thèse)
Date de la soutenance
19/09/2025 à 15:00
Lieu de la soutenance
amphi Lesueur UFRST universite Le Havre
Rapporteurs de la thèse
JOHNEN COLETTE Université de Bordeaux
LANG CHRISTOPHE Université Bourgogne Franche-Comté
Membres du jurys
JIMENEZ LAREDO JUAN LUIS,
,
UNIVERSIDAD DE GRANADA
JOHNEN COLETTE,
,
Université de Bordeaux
LANG CHRISTOPHE,
,
Université Bourgogne Franche-Comté
MARILLEAU NICOLAS,
,
UMMISCO Unité de Modélisation Mathématique et Informatique des Systèmes Complexes
OLIVIER DAMIEN,
,
ULHN - Université Le Havre Normandie
Résumé
De nombreux systèmes, naturels ou artificiels, s'appuient sur des mécanismes d'équilibrage de charge pour fonctionner efficacement, mécanismes qui dépendent directement de l'organisation de leurs composants. Cette organisation peut être centralisée, contrôlée par une entité unique, ou émerger à partir de décisions prises localement, conduisant à une auto-organisation du système. Nous nous intéressons dans cette thèse à la criticalité auto-organisée, un phénomène où des instabilités locales génèrent spontanément des organisations. Nous explorons ainsi comment ce phénomène peut être exploité pour équilibrer la charge dans des systèmes informatiques distribués. Dans un premier temps, nous examinons la robustesse des systèmes qui présentent de la criticalité auto-organisée à l'aide du modèle du tas de sable proposé par Bak, Tang et Wiesenfeld. Nos résultats montrent que l'introduction d'une quantité minimale d'aléatoire dans la structure du système augmente notablement sa résistance aux défaillances, repoussant ainsi les seuils critiques d'effondrement. Dans un second temps des mécanismes d'auto-adaptation, utilisant un modèle dérivé du tas de sable où chaque élément est susceptible de traiter des tâches, sont développés. Ces mécanismes s'adaptent efficacement aux surcharges tout en présentant des atouts et des limites propres. Ces travaux ouvrent des perspectives vers des systèmes distribués robustes et adaptatifs inspirés de l'auto-organisation.
Abstract
Many natural and artificial systems rely on load-balancing mechanisms to operate efficiently, mechanisms that are directly influenced by the organization of their components. This organization can be either centralized, governed by a single controlling entity, or it can emerge from local decision-making processes, leading to self-organization within the system. This dissertation focuses on self-organized criticality, a phenomenon in which local instabilities spontaneously give rise to organized behavior. We investigate how this phenomenon can be leveraged to balance load in distributed computing systems. First, we examine the robustness of systems exhibiting self-organized criticality through the sandpile model introduced by Bak, Tang, and Wiesenfeld. Our results show that introducing a minimal amount of randomness into the system's structure significantly enhances its resilience to failures, thereby increasing the critical thresholds at which collapse occurs. Second, we develop self-adaptive mechanisms based on a modified sandpile model, in which each component is capable of processing tasks. These mechanisms adapt efficiently to overload conditions while exhibiting specific advantages and limitations. This work opens new perspectives for the design of robust and adaptive distributed systems inspired by self-organization.
Ιntercοnnexiοn d’un système de transpοrt pοint à pοint et d’un réseau de transpοrt en cοmmun
Doctorant·e
PENZ Louise
Direction de thèse
SANLAVILLE ERIC (Directeur·trice de thèse)
DUHAMEL CHRISTOPHE (Co-encadrant·e de thèse)
Date de la soutenance
05/09/2025 à 10:30
Lieu de la soutenance
AMPHI NORMAND 25 RUE PHILIPPE LEBON UFR ST
Rapporteurs de la thèse
PETON OLIVIER IMT ATLANTIQUE NANTES
PRODHON CAROLINE Université de technologie de Troyes
Membres du jurys
BRAUNER NADIA,
,
Université de Grenoble Alpes
DUHAMEL CHRISTOPHE,
,
ULHN - Université Le Havre Normandie
LACOMME PHILIPPE,
,
UNIVERSITE CLERMONT FERRAND 1 AUVERGNE
PETON OLIVIER,
,
Ecole nationale supérieure Mines-Télcom Atlantique Bretagne (IMT)
PRODHON CAROLINE,
,
Université de technologie de Troyes
SANLAVILLE ERIC,
,
ULHN - Université Le Havre Normandie
VERCRAENE SAMUEL,
,
Institut National des Sciences Appliquees de Lyon
Résumé
Le Dial-A-Ride Problem (DARP) consiste à planifier le transport à la demande de personnes, d’un point à un autre, en respectant des contraintes de temps de trajet et d’horaires. Deux variantes sont étudiées: le Integrated DARP (IDARP) et le walk and IDARP (wIDARP), qui intègrent l’usage combiné de véhicules et de transports en commun, avec la possibilité de débuter ou terminer à pied. Ces approches visent à offrir une solution flexible pour les zones périurbaines mal desservies, tout en limitant l’accès des véhicules aux centres urbains congestionnés.
Le premier objectif est de déterminer le nombre minimal de véhicules assurant la faisabilité des demandes. Pour cela, plusieurs méthodes sont développées: la Programmation Par Contraintes (PPC), efficace pour de petites instances, et des heuristiques et métaheuristiques plus adaptées aux cas complexes. La PPC permet de garantir l’optimalité du nombre de véhicules, tandis que les métaheuristiques fournissent rapidement de bonnes solutions.
Le second objectif porte sur la minimisation du temps de route. Une métaheuristique principale, ainsi que plusieurs variantes, sont explorées. Malgré les alternatives testées, la méthode de base s’avère la plus performante.
Une autre contribution de la thèse est la création d’instances réalistes basées sur la ville du Havre. Ces instances permettent de simuler des problèmes de transports avec des données réalistes, en prenant en compte les trams et les temps de route.
Abstract
The Dial-A-Ride Problem (DARP) involves planning on-demand passenger transportation from an origin to a destination, while respecting time windows and maximum ride durations. This work focuses on two variants: Integrated DARP (IDARP) and walk and IDARP (wIDARP), which combine the use of private vehicles with public transit, allowing users to walk at the start or end of their trip when the nearest transit stop is within reasonable distance. These approaches aim to provide flexible mobility solutions for poorly served suburban areas while reducing vehicle access to congested city centers.
The first objective is to determine the minimal number of vehicles required to ensure feasibility. Several methods are developed for this purpose: Constraint Programming (CP), which is effective for small instances and guarantees optimality, and heuristic and metaheuristic approaches better suited to larger, more complex problems. While CP ensures the minimum number of vehicles, metaheuristics generate good-quality solutions in shorter computational times.
The second objective focuses on minimizing total travel time. A primary metaheuristic and several variants are explored. Despite the different strategies tested, the base method proves to be the most effective.
Another key contribution of this thesis is the development of realistic instances based on the city of Le Havre. These instances allow for the simulation of transport scenarios using real-world data, including tram networks and actual travel times.
Τοwards intelligent and Lightweight Security and Ρrivacy Sοlutiοns fοr Ιndustrial ΙοΤ Systems
Doctorant·e
SELAMNIA Aymene
Direction de thèse
KHOUKHI LYES (Directeur·trice de thèse)
Date de la soutenance
03/09/2025 à 14:00
Lieu de la soutenance
Salle de soutenances de thèses (Caen, Unicaen, campus 2)
Rapporteurs de la thèse
LORENZ PASCAL Université de Haute-Alsace
MOUNGLA HASSINE Université Paris Cité
Membres du jurys
ABOU EL HOUDA ZAKARIA,
,
Université du Québec - INRS
AHMED ABDELKADER BOUAZIZ,
,
Numeryx Technologies
AYADI MONDHER,
,
Numeryx Technologies
KHOUKHI LYES,
,
ENSICAEN
LORENZ PASCAL,
,
Université de Haute-Alsace
MOKDAD LYNDA,
,
UNIVERSITE PARIS 12 VAL DE MARNE
MOUDOUD HAJAR,
,
Université du Québec en Outaouais
MOUNGLA HASSINE,
,
Université Paris Cité
Résumé
Face à la croissance rapide des systèmes industriels connectés, la sécurité de l’Internet des Objets Industriels (IIoT) devient une priorité, en particulier en ce qui concerne la détection d’intrusions dans des environnements contraints en ressources. Cette thèse s’intéresse à la conception de mécanismes intelligents et efficaces capables d’assurer cette détection sans compromettre ni la confidentialité des données ni la performance. Elle présente une progression de solutions techniques allant de la modélisation stochastique pour la détection d’anomalies à des classificateurs profonds guidés par la confiance, jusqu’à des architectures d’apprentissage scindé et des variantes hybrides intégrant des circuits quantiques variationnels. Ces approches ont été implémentées et évaluées sur des données réelles issues de réseaux IIoT, démontrant des gains notables en précision, en robustesse et en capacité de déploiement à l’échelle de l’edge. Les résultats soulignent l’intérêt de paradigmes d’apprentissage adaptés, enrichis par des optimisations spécifiques au domaine et des techniques issues de l’informatique quantique. Ce travail ouvre ainsi la voie à des architectures de sécurité IIoT plus souples, distribuées et respectueuses de la vie privée.
Abstract
The increasing reliance on Industrial Internet of Things (IIoT) systems has amplified the need for scalable and efficient cybersecurity mechanisms, particularly intrusion detection systems capable of operating under severe resource constraints. This thesis explored how intelligent yet lightweight detection frameworks can be developed to protect IIoT networks without sacrificing performance or privacy. A series of progressively refined solutions were introduced, ranging from stochastic models for state-based anomaly detection to deep learning classifiers guided by confidence evaluation, and from distributed split learning architectures to hybrid quantum-classical schemes. These methods were implemented and assessed using real-world IIoT traffic datasets, demonstrating improvements in classification accuracy, model robustness, and deployment feasibility at the edge. The findings reveal that tailored learning paradigms—especially when combined with domain-specific optimizations and quantum enhancements—can overcome limitations of traditional intrusion detection systems in complex industrial settings. This work lays the foundation for adaptive and privacy-preserving security architectures in future IIoT ecosystems.
Artificial Ιntelligence in DDοS Μitigatiοn
Doctorant·e
KADI Adam
Direction de thèse
KHOUKHI LYES (Directeur·trice de thèse)
Date de la soutenance
03/09/2025 à 09:00
Lieu de la soutenance
Salle de soutenances de thèses (Caen, Unicaen, campus 2)
Rapporteurs de la thèse
LORENZ PASCAL Université de Haute-Alsace
MOUNGLA HASSINE Université Paris Cité
Membres du jurys
ABOU EL HOUDA ZAKARIA,
,
Université du Québec - INRS
KHOUKHI LYES,
,
ENSICAEN
LORENZ PASCAL,
,
Université de Haute-Alsace
MOKDAD LYNDA,
,
UNIVERSITE MARNE LA VALLEE UNIV PARIS EST MARNE LA VALLEE
MOUDOUD HAJAR,
,
Université du Québec en Outaouais
MOUNGLA HASSINE,
,
Université Paris Cité
VIINIKKA Jouni,
,
6cure - Service de sécurité informatique
Résumé
Les attaques par déni de service distribué (DDoS) représentent une menace croissante pour la cybersécurité, s’appuyant sur des techniques toujours plus sophistiquées pour perturber les services en ligne. L’intelligence artificielle (IA) et l’apprentissage automatique (ML) sont de plus en plus étudiés pour contrer ces attaques, mais un écart persiste entre la recherche académique et les applications industrielles concrètes. Cette thèse explore ce fossé, en mettant l’accent sur le développement de solutions d’IA adaptées aux contraintes des environnements de production : traitement en temps réel, décisions explicables, intégration avec les infrastructures existantes. Elle vise à proposer des méthodologies robustes et applicables, capables de détecter efficacement des schémas d’attaques complexes tout en restant déployables et interprétables dans un cadre opérationnel.
Abstract
Distributed Denial of Service (DDoS) attacks continue to evolve as a major cybersecurity threat, leveraging increasingly sophisticated techniques to disrupt online services
through high-volume traffic floods, protocol vulnerabilities, and targeted application-layer attacks. While Artificial Intelligence (AI) and Machine Learning (ML) have
emerged as promising solutions for DDoS mitigation, a significant disconnect persists between academic research and practical industrial applications. This thesis investi-
gates the gap between theoretical AI/ML approaches and their real-world implementation in DDoS mitigation systems. Academic studies often focus on idealized scenarios
using outdated datasets, failing to address operational constraints such as real-time processing requirements, explainable decision-making, and integration with existing
mitigation infrastructure. Meanwhile, industrial solutions frequently lack transparency and struggle to adapt to emerging attack vectors. A central focus involves developing
practical AI solutions that meet the stringent requirements of production environments,particularly the need for real-time analysis and actionable mitigation strategies. The
study emphasizes creating interpretable systems that security teams can trust and deploy effectively, while maintaining high detection accuracy against complex attack
patterns. Through comprehensive testing and validation, this work aims to establish methodologies for implementing AI-powered DDoS defenses that are both theoretically
robust and operationally viable. The results will provide valuable insights for bridging the gap between academic innovation and industrial cybersecurity needs, ultimately
contributing to more resilient network protection frameworks.
Expressive Ροwer οf Graph Νeural Νetwοrks
Doctorant·e
PIQUENOT Jason
Direction de thèse
ADAM SÉBASTIEN (Directeur·trice de thèse)
RAVEAUX ROMAIN (Co-directeur·trice de thèse)
Date de la soutenance
28/08/2025 à 14:00
Lieu de la soutenance
Amphi D
Rapporteurs de la thèse
GEERTS FLORIS Université Centrale d'Anvers (BELGIQUE)
MALLIAROS FRAGKISKOS Université Paris-Saclay
Membres du jurys
ADAM SÉBASTIEN,
,
URN - Université de Rouen Normandie
FADILI JALAL,
,
ENSICAEN
FLAMARY REMI,
,
ECOLE POLYTECHNIQUE
GEERTS FLORIS,
,
Université Centrale d'Anvers (BELGIQUE)
LACLAU CHARLOTTE,
,
ENST PARIS
MALLIAROS FRAGKISKOS,
,
Université Paris-Saclay
RAVEAUX ROMAIN,
,
Universite de Tours
Résumé
Les graphes sont des structures fondamentales dans de nombreux domaines scientifiques. Face à leur complexité croissante, les réseaux de neurones sur graphes (GNNs) permettent d’en apprendre des représentations utiles, mais sont limités dans leur expressivité. Cette thèse propose un nouveau cadre formel basé sur les \textit{grammaires algébriques} pour concevoir des GNNs plus puissants.
Nous introduisons plusieurs contributions : un formalisme grammatical pour dériver des architectures expressives, un modèle équivalent au test 3-WL, un GNN pour le comptage dynamique de sous-structures, un algorithme d'apprentissage par renforcement pour chercher dans une grammaire algébrique, de nouvelles formules de comptage de chemins et de cycles dans un graphe qui divisent le temps de calcul par 6. Ces travaux ouvrent la voie à une nouvelle génération de modèles neuronaux explicables, efficaces et flexibles ainsi qu'à la découverte de nouveaux algorithmes.
Abstract
Graphs are fundamental structures in many scientific fields. As their complexity increases, Graph Neural Networks (GNNs) have emerged as a useful way to learn representations from such data, but they remain limited in their expressivity. This thesis introduces a new formal framework based on algebraic grammars to design more powerful GNNs.
We present several contributions: a grammatical formalism for deriving expressive architectures, a model equivalent to the 3-WL test, a GNN capable of dynamically counting substructures, a reinforcement learning algorithm for exploring an algebraic grammar to discover new counting formulas for paths and cycles in graphs—leading to a six-fold reduction in computation time. This work paves the way for a new generation of explainable, efficient, and flexible neural models, as well as for the discovery of new algorithms.
Sécurité d'un système d'authentificatiοn biοmétrique basé sur les cοdes cοrrecteurs d'erreurs
Doctorant·e
MAJBOUR Sara
Direction de thèse
LE BARS Jean Marie (Directeur·trice de thèse)
Date de la soutenance
18/07/2025 à 10:00
Lieu de la soutenance
le campus 2 Bât sciences 3 Boulevard du Maréchal Juin CS 14032 · 14032 Caen cedex 05
Rapporteurs de la thèse
CANARD Sebastien Telecom Paris
CAYREL PIERRE-LOUIS Université Jean Monnet, Saint-Etienne
Membres du jurys
BARBIER Morgan,
,
UCN - Université de Caen Normandie
CANARD Sebastien,
,
Telecom Paris
CAYREL PIERRE-LOUIS,
,
Université Jean Monnet, Saint-Etienne
CHARRIER Christophe,
,
UCN - Université de Caen Normandie
LE BARS Jean Marie,
,
UCN - Université de Caen Normandie
MINIER MARINE,
,
Université de Lorraine
Résumé
Cette thèse étudie les limites et les améliorations possibles du schéma original du \textit{Fuzzy Vault}, proposé par Juels et Sudan pour l'authentification biométrique. Ce schéma repose sur la transformation des templates en ensembles non ordonnés, ce qui empêche l'accès direct aux données biométriques et limite l'exposition des informations sensibles. Cependant, sa structure introduit des biais exploitables compromettant la sécurité des ensembles stockés. De plus, l’utilisation des codes correcteurs dans ce contexte soulève des questions quant à leur adaptation et leur impact sur la capacité du système à tolérer les variations biométriques.
Nous montrons que l'exploitation de ces biais réduit la sécurité du \textit{Fuzzy Vault}. Une analyse sur trois bases de données biométriques de différentes modalités et qualités évalue la vulnérabilité du schéma face à ces attaques. Nous proposons une contre-mesure n'utilisant pas d'informations supplémentaires pour limiter ces faiblesses.
La transformation des templates en ensembles pose des difficultés liées à la structure du schéma et à la gestion de la confidentialité. Nous définissons une construction générique applicable à tout template biométrique, respectant les contraintes d'authentification, de sécurité et de confidentialité.
Enfin, le schéma original repose sur les codes de Reed-Solomon. Nous généralisons cette approche en définissant les opérations de codage et de décodage pour d'autres codes linéaires, en précisant les contraintes liées à leur choix et leur impact sur l'authentification.
Abstract
This thesis examines the limitations and possible modifications of the original \textit{Fuzzy Vault} scheme, proposed by Juels and Sudan for biometric authentication. This scheme transforms templates into unordered sets, preventing direct access to biometric data and limiting the exposure of sensitive information. However, its structure introduces exploitable biases that compromise the security of stored sets. Additionally, the use of error correction codes in this context raises questions about their adaptability and their impact on the system's ability to tolerate biometric variability.
We show that exploiting these biases reduces the security of the \textit{Fuzzy Vault}. An analysis on three biometric datasets of different modalities and quality levels assesses the scheme’s vulnerability to such attacks. We propose a countermeasure that does not require additional information to mitigate these weaknesses.
The transformation of templates into sets presents structural challenges related to the scheme’s design and data privacy. We define a generic construction applicable to any biometric template while maintaining authentication, security, and confidentiality constraints.
Finally, the original scheme relies on Reed-Solomon codes. We generalize this approach by defining encoding and decoding operations for other linear codes, specifying the constraints related to their selection and their impact on authentication.
Cοmbinatοrics οf cactus grοups, interesting subgrοups and generalisatiοns
Doctorant·e
CHEMIN Hugo
Direction de thèse
GUASCHI John (Directeur·trice de thèse)
BELLINGERI Paolo (Co-directeur·trice de thèse)
Date de la soutenance
11/07/2025 à 15:00
Lieu de la soutenance
Caen
Rapporteurs de la thèse
AUDOUX BENJAMIN Aix-Marseille université
KAMNITZER JOËL MC GILL UNIVERSITE MC GILL QUEBEC
Membres du jurys
AUDOUX BENJAMIN,
,
Aix-Marseille université
BELLINGERI Paolo,
,
UCN - Université de Caen Normandie
FROMENTIN Jean,
,
ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
GUASCHI John,
,
UCN - Université de Caen Normandie
HALACHEVA IVA,
,
Université Northeastern
KAMNITZER JOËL,
,
MC GILL UNIVERSITE MC GILL QUEBEC
LEBED Victoria,
,
UCN - Université de Caen Normandie
Résumé
Dans cette thèse, nous nous intéressons à l'étude des groupes de cactus, de certains de leurs sous-groupes et de leurs extensions. Les groupes de cactus ont été introduits par Devadoss sous le nom de `quasi-tresses' et sont reliés aux catégories de cobordisme et aux espaces de modules. Par ailleurs, leurs similitudes avec les groupes de tresses et les groupes de Coxeter ont mené à l'étude de familles de groupes généralisant les groupes de cactus. Nous étudions donc les propriétés combinatoires des groupes de cactus, tel que l'existence d'une solution au problème du mot, d'éléments centraux ou d'éléments possédant de la torsion. Par ailleurs, nous nous intéresserons à certains sous-groupes remarquables, tel que les groupes de cactus purs, pour lesquels nous étudions des questions similaires à celles posées pour les groupes de cactus. De plus, nous donnons une nouvelle présentation des groupes de cactus, ce qui nous permet de construire certains quotients remarquables, ainsi que de calculer les quotients de la série centrale descendante des groupes de cactus. Enfin, nous nous intéressons aux propriétés combinatoires d'une extension des groupes de cactus, nommée groupe de cactus affine, pour lesquels nous étudions des questions similaires à celles posées pour les groupes de cactus.
Abstract
In this thesis, we are interested in the study of cactus groups, some of their subgroups and their extensions. Cactus groups were introduced by Devadoss under the name `quasi-braids' and are related to cobordism categories and moduli spaces. Moreover, their similarities with braid groups and Coxeter groups have led to the study of families of groups generalizing cactus groups. We therefore study the combinatorial properties of cactus groups, such as the existence of a solution to the word problem, central elements or elements possessing torsion. Furthermore, we will be interested in some remarkable subgroups, such as pure cactus groups, for which we study questions similar to those asked for cactus groups. In addition, we give a new presentation of cactus groups, which allows us to construct some remarkable quotients, as well as to compute the quotients of the lower central series of cactus groups. In the last chapter of this thesis, we discuss the combinatorial properties of an extension of cactus groups, called the affine cactus group, for which we study questions similar to those posed for cactus groups.
AUBRY MATHIEU Ecole Nationale des Ponts et Chaussées
MOKRAOUI ANISSA UNIVERSITE PARIS 13 PARIS-NORD
Membres du jurys
AUBRY MATHIEU,
,
Ecole Nationale des Ponts et Chaussées
EGLIN VERONIQUE,
,
Institut National des Sciences Appliquees de Lyon
HEUTTE LAURENT,
,
URN - Université de Rouen Normandie
MOKRAOUI ANISSA,
,
UNIVERSITE PARIS 13 PARIS-NORD
NICOLAS STEPHANE,
,
URN - Université de Rouen Normandie
Résumé
Les documents historiques possèdent une valeur culturelle immense, mais leur exploitation soulève de nombreux défis en matière d’accès à l’information et d’analyse. Cette thèse s’intéresse à deux tâches spécifiques dans le contexte des images de documents historiques : la recherche de sous-images (sub-image retrieval) et la détection de motifs (pattern spotting). La recherche de sous-images consiste à retrouver les images contenant une requête image donnée, tandis que la détection de motifs va plus loin en localisant les occurrences de cette requête image au sein des images retrouvées. Ces tâches présentent deux défis majeurs : i) les requêtes de recherche sont arbitraires et ne se limitent pas à un ensemble prédéfini de motifs, ce qui impose à l’approche proposée de pouvoir traiter des requêtes non connues à l’avance ; ii) la plupart des méthodes modernes d’apprentissage profond reposent sur des données annotées, qui sont rares, voire inexistantes, dans le domaine des documents historiques.
En raison de ces contraintes, les travaux antérieurs sur ces tâches se sont limités à des approches sans apprentissage, s’appuyant uniquement sur des réseaux pré-entraînés disponibles. Dans cette thèse, nous proposons la première approche basée sur l’apprentissage pour traiter ces problématiques. Cela implique de relever le défi de concevoir une solution d’apprentissage dans un contexte sans données d’entraînement disponibles et sans ensemble fixe de motifs à détecter ou à retrouver. Notre objectif est d’ouvrir une nouvelle voie pour aborder ces tâches, que nous considérons comme plus évolutive et pérenne, car l’apprentissage de représentations spécifiques au domaine et à la tâche devrait permettre des solutions plus flexibles et adaptables.
À cette fin, nous développons un nouveau modèle pour le repérage de motifs, nommé OS-DETR. Ce modèle adapte l’architecture performante DETR, à base de transformeurs et initialement conçue pour la détection d’objets, afin de répondre aux tâches de recherche de sous-image et de détection de motifs.
Pour pallier le manque de données étiquetées, nous proposons une méthode simple de génération de données synthétiques annotées, adaptées à ces tâches. Ces données synthétiques sont ensuite utilisées pour entraîner notre modèle OS-DETR, et différentes variantes et choix de conception sont explorés.
Un ensemble de techniques de généralisation est ensuite introduit, visant à améliorer les performances du modèle au-delà du domaine synthétique. Ces techniques interviennent à plusieurs niveaux du pipeline, allant de l’architecture du modèle et des stratégies d’entraînement jusqu’à la génération des données synthétiques et les étapes de post-traitement.
Nous montrons l'impact de ces techniques et le bien fondé de notre démarche via de nombreuses expérimentations, à la fois sur un ensemble de tests générés synthétiquement, et sur un ensemble de données de référence publiquement disponible pour les images de documents historiques.
Enfin, nous présentons des expérimentations préliminaires explorant une approche alternative pour la génération de données d’entraînement, ouvrant ainsi des perspectives de recherche prometteuses.
Abstract
Historical documents hold immense cultural value, yet working with them poses numerous challenges for information access and analysis. This thesis addresses two such tasks in the context of historical document images: sub-image retrieval and pattern spotting. While sub-image retrieval involves retrieving images that contain a given query image, pattern spotting extends this further by localizing occurrences of that query image within the retrieved images. These tasks present two major challenges: i) search queries are arbitrary and not limited to a predefined set of patterns, requiring the proposed approach to handle previously unseen queries; ii) most modern deep learning methods rely on labeled training data, which is scarce or nonexistent in the domain of historical documents.
Due to these constraints, prior work on these tasks has been limited to learning-free approaches, relying exclusively on off-the-shelf pre-trained networks. In this thesis, we propose the first learning-based approach to address these tasks. This involves the challenge of developing a learning-based solution in a setting with no available training data and no fixed set of patterns to detect or retrieve. Our aim is to open a new direction for tackling these problems — one that we believe is more scalable and future-proof, as learning task-specific and domain-specific representations should enable more flexible and adaptable solutions.
To this aim, we develop a novel model for pattern spotting, dubbed OS-DETR. This model adapts the competitive transformer-based DETR architecture, originally designed for object detection, to address the tasks of sub-image retrieval and pattern spotting.
To overcome the scarcity of labelled data, we propose a simple technique for generating annotated synthetic data tailored to these tasks. This synthetic data is then used to train our OS-DETR model, and we investigate various design choices and their impact.
A set of generalization techniques is then introduced, that aims to improve the performance of the model beyond the source domain. These techniques span multiple aspects of the pipeline, from adjustments to the model architecture and training schedule to improvements in synthetic data generation and post-processing strategies.
We show the impact of these techniques and the validity of our approach via numerous experiments, both on a synthetically generated testing set as well as on a publicly available benchmark dataset for historical document images.
Finally, we present preliminary experiments exploring an alternative approach to training data generation, which opens promising avenues for future research.
Décimatiοn hiérarchique pοur l'apprentissage sur graphes
Doctorant·e
STANOVIC Stevan
Direction de thèse
BRUN Luc (Directeur·trice de thèse)
Date de la soutenance
27/06/2025 à 13:00
Lieu de la soutenance
Salle des thèses
Rapporteurs de la thèse
LLADOS CANET JOSEP l'Université autonome de Barcelone
RAMEL JEAN-YVES Université Savoie Mont Blanc
Membres du jurys
BRUN Luc,
,
ENSICAEN
GAUZERE BENOIT,
,
INSA Rouen Normandie
LLADOS CANET JOSEP,
,
l'Université autonome de Barcelone
RAMEL JEAN-YVES,
,
Université Savoie Mont Blanc
SOLNON CHRISTINE,
,
Institut National des Sciences Appliquees de Lyon
Résumé
Cette thèse s’intéresse au pooling hiérarchique dans les réseaux de neurones sur graphes (GNNs), une opération essentielle visant à réduire la taille des graphes tout en préservant leurs informations pertinentes. Les méthodes existantes reposent généralement soit sur la sélection d’un sous-ensemble de sommets, en supprimant les autres, soit sur un regroupement peu contraint, ignorant la structure initiale du graphe. Ces approches souffrent de plusieurs limitations : perte d’information, absence de prise en compte de la structure initiale du graphe, et densification excessive des graphes réduits. Par ailleurs, les GNNs profonds sont confrontés à deux phénomènes majeurs : l’over-smoothing, où les représentations des sommets tendent à converger vers une représentation prédéterminée, indépendamment de leurs représentations initiales, et l’over-squashing, qui désigne la difficulté à propager efficacement des informations sur de longues distances dans le graphe. Dans ce manuscrit, nous proposons plusieurs méthodes de pooling hiérarchique fondées sur les ensembles indépendants maximaux, qui permettent de respecter la structure du graphe tout en préservant les attributs des sommets. Par ailleurs, nous fournissons une étude théorique et empirique de ces approches, en mettant en lumière leur impact positif sur les phénomènes d’over-smoothing et d’over-squashing. Nos résultats expérimentaux confirment non seulement l’intérêt de l’utilisation d’ensembles indépendants maximaux pour définir des opérations de pooling, mais démontrent également leur rôle crucial dans l’atténuation de l’over-smoothing et de l’over-squashing.
Abstract
This thesis focuses on hierarchical pooling in graph neural networks (GNNs), a key operation aimed at reducing the size of graphs while preserving their relevant information. Existing methods typically rely either on selecting a subset of vertices, discarding the others, or on loosely constrained clustering, which ignores the original graph structure. These approaches suffer from several limitations : loss of information, lack of consideration for the original graph structure, and excessive densification of the reduced graphs. Moreover, deep GNNs face two major phenomena : over-smoothing, where node representations tend to converge towards a predetermined representation regardless of their initial features, and over-squashing, which refers to the difficulty in efficiently propagating information across long distances within the graph. In this manuscript, we propose several hierarchical pooling methods based on maximal independent sets, which preserve the graph structure while maintaining vertex attributes. Additionally, we provide a theoretical and empirical study of these approaches, highlighting their positive impact on over-smoothing and over-squashing. Our experimental results not only confirm the value of using maximal independent sets for defining pooling operations but also demonstrate their crucial role in mitigating over-smoothing and over-squashing.
Sοficity οf multidimensiοnal subshifts
Doctorant·e
CALLARD Antonin
Direction de thèse
VANIER Pascal (Directeur·trice de thèse)
Date de la soutenance
24/06/2025 à 14:30
Lieu de la soutenance
campus 2
Rapporteurs de la thèse
KARI JARKKO TURKU - UNIVERSITY OF TURKU
ROMASHCHENKO ANDREI Université de Montpellier
Membres du jurys
KARI JARKKO,
,
TURKU - UNIVERSITY OF TURKU
LABBÉ SÉBASTIEN,
,
Université de Bordeaux
MARCOVICI IRENE,
,
URN - Université de Rouen Normandie
OLLINGER NICOLAS,
,
Université d'Orléans
ROMASHCHENKO ANDREI,
,
Université de Montpellier
THEYSSIER GUILLAUME,
,
Aix-Marseille université
VANIER Pascal,
,
UCN - Université de Caen Normandie
Résumé
En dynamique symbolique, un sous-shift multidimensionnel est un language formel de coloriages infinis de l'espace discret défini en termes de motifs interdits. Comme les langages de mots finis, pour lesquels ont été définies des classes de complexité (qui incluent classiquement les langages locaux, rationnels, algébriques ou calculablement énumérables…) en fonction de l'expressivité des différentes machines qui les reconnaissent (respectivement : les automates locaux, les automates finis, les automates à piles et les machines de Turing), les sous-shifts ont été classifiés en sous-shifts de types finis (définis par des familles finies de motifs interdits), sous-shifts effectifs (définis par des familles calculablement énumérables) et sous-shifts sofiques : ces derniers forment une classe intermédiaire entre les deux précédentes, et sont définis comme les images morphiques des sous-shifts de types finis par des automates cellulaires.
Nous nous intéressons à la question suivante : quand un sous-shift donné est-il sofique ? Autrement dit, comment prouve-t-on (ou réfute-t-on) la soficité d'un sous-shift ? Si cette question est résolue en dimension 1 (les sous-shifts sofiques en dimension 1 étant similaires aux langages rationnels, le théorème de Myhill-Nerode caractérise la soficité en dimension 1 par comptage du nombre de « contextes »), décrire la frontière entre les sous-shifts multidimensionnels sofiques et effectifs reste un problème ouvert en dynamique symbolique.
Cette thèse se divise en deux parties indépendantes, précédées de chapitres préliminaires d'introduction et de définitions des notions étudiées (de dynamique symbolique, calculabilité…). Dans la première partie, nous étudions les ensembles d'extensions des sous-shifts multidimensionnels (qui, informellement, comptent les classes de motifs qui peuvent être librement échangés dans les configurations d'un sous-shift) selon leur (in)calculabilité : en particulier, nous prouvons que les entropies d'extensions des sous-shifts (i.e. le taux de croissance du nombre d'ensemble d'extensions) peuvent être entièrement caractérisées calculablement dans la hiérarchie arithmétique des nombres réels, le niveau précis dépendant de la complexité et des propriétés dynamiques vérifiées par le sous-shift considéré. Dans la seconde partie, nous prouvons une condition suffisante pour la soficité des sous-shifts multidimensionnels s'appuyant sur une quantification de « l'information utile » contenue dans les motifs : plus précisément, nous introduisons une notion de représentation inductive (qui, informellement, décrit l'information échangée par des motifs adjacents d'une taille donnée pour vérifier la validité locale d'une configuration), et nous prouvons qu'admettre des représentations calculables de petites complexité est une condition suffisante pour la soficité d'un sous-shift. Enfin, nous présentons ces résultats comme une complexité de communication sur des coloriages infinis, et argumentons que la complexité de communication non-déterministe forme un cadre riche pour l'étude de la soficité des sous-shifts multidimensionnels.
Abstract
In symbolic dynamics, a multidimensional subshift is a formal language of infinite colorings of the discrete space defined in terms of forbidden patterns. As languages of finite words have been classified into several complexity classes (which, classically, include the local regular, context-free, and computably enumerable languages…) depending on the expressiveness of the various devices used for their descriptions (respectively: local automata, finite automata, pushdown automata, Turing machines…), subshifts have been classified into subshifts of finite type (definied by finite families of forbidden patterns), effective subshifts (defined by computably enumerable families of forbidden patterns) and the sofic subshifts: the latter form an intermediary class, and are defined as the morphic images of subshifts of finite type by cellular automata.
We are interested in the following question: when is a given subshift actually sofic? In other words, how does one prove or disprove the soficity of a subshift? While this question is entirely solved in the one-dimensional setting (as one-dimensional sofic subshifts are very similar to regular languages of finite words, the Myhill-Nerode theorem characterizes one-dimensional soficity by counting the number of possible “contexts”), describing the frontier between sofic and effective multidimensional subshifts is still an open problem in symbolic dynamics.
This thesis is divided in two independent parts, with preliminary chapters of introduction and definitions of the relevant notions being considered (from symbolic dynamics, computability theory…). In the first part, we study the extender sets of multidimensional subshifts (which, informally, count the classes of patterns that can be freely exchanged in the configurations of a subshift) using computability theory: in particular, we prove that extender entropies of multidimensional subshifts (i.e. the growth rate of the number of extender sets) can be fully characterized computationally in the arithmetical hierarchy of real numbers, the precise level depending on the complexity and the dynamical properties verified by the considered subshifts. In the second part, we prove a sufficient condition for multidimensional soficity based on a quantification of the “useful information” contained in patterns: more precisely, we introduce a notion of inductive representations (which, informally, describe the information exchanged between adjacent patterns of a given size to check the local validity of a configuration), and prove that admitting computable representations of small complexity is a sufficient condition for soficity. Finally, we describe these results as a variant of communication complexity on infinite colorings, and argue that non-deterministic communication complexity is a fruitful context of the study of multidimensional soficity.
Equatiοns de Ηamiltοn-Jacοbi sur des graphes
Doctorant·e
ZANTOUT RITA
Direction de thèse
FORCADEL NICOLAS (Directeur·trice de thèse)
IBRAHIM HASSAN (Co-directeur·trice de thèse)
Date de la soutenance
20/06/2025 à 14:00
Lieu de la soutenance
INSA Rouen, Amphi Marie Curie, 685 avenue de l'université 76801 SAINT ETIENNE DU ROUVRAY
Rapporteurs de la thèse
CARLINI ELISABETTA Sapienza Università di Roma, Italy
TOLEDO JULIAN University of Valencia, Espagne
Membres du jurys
BALLESTER COLOMA,
,
Universitat Pompeu Fabra in Barcelona, Espagne
CARLINI ELISABETTA,
,
Sapienza Università di Roma, Italy
ELMOATAZ ABDERRAHIM,
,
Université de Caen Normandie
FADILI JALAL,
,
Université de Caen Normandie
FORCADEL NICOLAS,
,
INSA Rouen Normandie
IGBIDA NOUREDDINE,
,
Université de Limoges
THORPE MATTHEW,
,
University of Warwick, Royaume Uni
TOLEDO JULIAN,
,
University of Valencia, Espagne
Résumé
Ce manuscrit s’intéresse à l’analyse mathématique rigoureuse d’équations aux dérivées partielles (EDP) posées sur des graphes et des variétés riemanniennes discrètes, avec un accent particulier sur les équations d’Eikonal et d’osmose. Ces équations apparaissent naturellement dans de nombreuses applications, notamment en traitement d’images, apprentissage semi-supervisé et physique mathématique.
Nous développons d’abord une théorie de la solution de viscosité adaptée à un cadre non local pour l’équation d’Eikonal dans un domaine euclidien. Nous prouvons l’existence, l’unicité et la régularité des solutions pour les équations locales et non locales. Nous établissons ensuite des bornes d’erreur explicites entre les solutions des problèmes non locaux et leurs analogues locaux, à la fois en temps continu et sous discrétisation temporelle (Euler explicite et implicite). Ces résultats sont ensuite appliqués à des graphes pondérés aléatoires, démontrant que la solution discrète converge uniformément vers la solution de viscosité du problème local lorsque le nombre de sommets croît et que le pas de temps tend vers zéro.
Le chapitre suivant étend cette analyse au cadre des variétés riemanniennes compactes, permettant de généraliser l’équation d’Eikonal à des graphes définis sur des espaces non-euclidiens. Sous des hypothèses naturelles sur la géométrie de la variété et l’échelle du noyau, nous prouvons la consistance des modèles non-locaux et la convergence quasi-sûre de la solution discrète vers la solution de viscosité locale, avec des bornes d’erreur explicites en fonction de la taille du graphe et du pas de temps.
Enfin, le manuscrit traite de l’équation d’osmose, une EDP linéaire de type diffusion-transport asymétrique, couramment utilisée en traitement d’images. Nous introduisons une version non locale de ce modèle et démontrons sa bien-poséité. Nous établissons la convergence des solutions non locales vers celles du modèle local, puis nous proposons une discrétisation sur graphe qui conserve la positivité, la moyenne et l’unicité de l’état stationnaire. Des résultats numériques illustrent l’efficacité du modèle pour des tâches d’édition de couleur sur des maillages.
Abstract
This thesis presents a rigorous mathematical analysis of partial differential equations (PDEs) defined on graphs and discrete Riemannian manifolds, with a particular focus on Eikonal and osmosis equations. These equations are central in applications such as image processing, semi-supervised learning, and mathematical physics.
We first develop a theory of viscosity solutions adapted to a nonlocal framework for the Eikonal equation posed on Euclidean domains. We establish existence, uniqueness, and regularity results for both local and nonlocal problems. We then derive explicit error bounds between the nonlocal and local solutions in both continuous and discretized time (using forward and backward Euler schemes). These results are extended to fully discretized nonlocal Eikonal problems defined on sequences of random weighted graphs, where we prove that under suitable scaling of the kernel, the discrete solutions converge uniformly almost surely to the viscosity solution of the local problem.
Next, we generalize this analysis to compact Riemannian manifolds, allowing for Eikonal equations on graph structures embedded in non-Euclidean spaces. Under natural geometric and regularity assumptions, we prove that the nonlocal problem is well-posed, and we obtain convergence results with explicit rates as the number of graph nodes increases and the time step vanishes.
Finally, the manuscript addresses the osmosis equation, a linear, non-symmetric diffusion-transport PDE originally motivated by physical osmosis and adapted for image analysis. We introduce a nonlocal version of the model and analyze its well-posedness and convergence toward the local version. A graph-based discretization is proposed, ensuring positivity, conservation of average intensity, and uniqueness of the steady state. Numerical simulations demonstrate its utility for color manipulation tasks on meshes.
Οptimal cοntrοl prοblems and Ηamiltοn-Jacοbi-Bellman equatiοns in sοme curved metric spaces
Doctorant·e
AUSSEDAT AVERIL
Direction de thèse
FORCADEL NICOLAS (Directeur·trice de thèse)
ZIDANI HOUSNAA (Co-directeur·trice de thèse)
Date de la soutenance
19/06/2025 à 14:00
Lieu de la soutenance
INSA Rouen Normandie
Rapporteurs de la thèse
GIGLI NICOLA Scuola Internazionale Superiore di Studi Avanzati (SISSA), Trieste, Italie
MERIGOT QUENTIN Université Paris-Saclay
Membres du jurys
ACHDOU YVES,
,
Université Paris-Diderot
CARDALIAGUET PIERRE,
,
Université Paris-Dauphine
FORCADEL NICOLAS,
,
INSA Rouen Normandie
GIGLI NICOLA,
,
Scuola Internazionale Superiore di Studi Avanzati (SISSA), Trieste, Italie
JIMENEZ CHLOÉ,
,
Université de Bretagne Occidentale
MERIGOT QUENTIN,
,
Université Paris-Saclay
SANTAMBROGIO FILIPPO,
,
Université Claude Bernard Lyon 1
ZIDANI HOUSNAA,
,
INSA Rouen Normandie
Résumé
Cette thèse est dédiée aux problèmes de contrôle dans certains espaces non vectoriels, avec pour objectif d'en étendre le lien avec les équations de Hamilton-Jacobi-Bellman prises au sens de viscosité. Le choix des espaces considérés est guidé par le contrôle de populations évoluant sur un réseau routier. Dans un premier temps, nous considérons le cas d'un seul conducteur, pour reporter toute la difficulté sur l'irrégularité de l'espace ambiant. Nous proposons un cadre de résolution des problèmes de contrôle avec dynamique Cauchy-Lipschitz sur les espaces de type CAT(0), via lequel il est possible de donner des conditions suffisantes pour l'existence d'un contrôle optimal, et de caractériser la fonction valeur via une équation de Hamilton-Jacobi-Bellman. Dans un second temps, nous considérons cette fois une mesure de probabilité représentant une population de conducteurs sur un espace euclidien. Nous donnons un principe de comparaison applicable à des équations posées sur les mesures ; les arguments utilisés se transposent au cas plus général d'espaces à courbure bornée inférieurement au sens d'Alexandrov, et les résultats sont formulés dans ce cadre. Une troisième partie vient joindre les deux premières en s'intéressant au cas d'une mesure évoluant sur un réseau. Ce type d'espace n'est pas courbe, et les résultats des premiers chapitres ne s'y appliquent pas. Nous prouvons que le carré de la distance de Wasserstein est différentiable au sens directionnel, ce qui permet de généraliser la formulation au sens de viscosité des équations de Hamilton-Jacobi-Bellman des chapitres précédents. Enfin, une dernière partie développe certains résultats techniques nécessaires à l'emploi des équations de continuité dans la formulation des problèmes de contrôle, et plus généralement quelques résultats sur la géométrie induite par le transport optimal.
Abstract
The thesis studies optimal control problems in some spaces that are not vector spaces, with a focus on the link with Hamilton-Jacobi-Bellman equations understood in the viscosity sense. The red wire is the control of a population of drivers in a traffic network. At first, we focus on a single driver, addressing the difficulty of the lack of regularity of the ambient space. We propose a framework for Cauchy-Lipschitz control problems in CAT(0) spaces, in which we are able to give sufficient conditions for the existence of an optimal control, and characterize the value function as the unique viscosity solution to a Hamilton-Jacobi-Bellman equation. Secondly, we consider a probability measure evolving on the Euclidean space, representing a population of drivers. We obtain a comparison principle that is applicable to the control of such a population, that we prove in more generality in spaces with curvature bounded from below. Thirdly, we provide a first step towards the treatment of populations evolving on networks, by proving that the squared Wasserstein distance over a network is directionally differentiable. In formulating the Hamilton-Jacobi-Bellman equation in the Wasserstein space using solely the metric structure, one needs some technical argument to use continuity equations as characteristics; this is developed in a last chapter, focussing in more details about the geometry induced by optimal transport on measures.
Οn zeta and multizeta values in pοsitive characteristic
Doctorant·e
LE Khac Nhuan
Direction de thèse
NGO DAC Tuan (Directeur·trice de thèse)
Date de la soutenance
18/06/2025 à 09:30
Lieu de la soutenance
Salle des thèses Campus 2 Bâtiment S3
Rapporteurs de la thèse
MAURISCHAT ANDREAS UNIVERSITE AACHEN ALLEMAGNE
OUKHABA HASSAN Université Bourgogne Franche-Comté
Membres du jurys
ANGLES Bruno,
,
UCN - Université de Caen Normandie
CARUSO XAVIER,
,
Université de Bordeaux
IM BO-HAE,
,
KAIST
MAURISCHAT ANDREAS,
,
UNIVERSITE AACHEN ALLEMAGNE
NGO DAC Tuan,
,
UCN - Université de Caen Normandie
OUKHABA HASSAN,
,
Université Bourgogne Franche-Comté
PELLARIN Federico,
,
ROME - UNIVERSITA ROMA "LA SPIENZA"
Résumé
Dans cette thèse, nous étudions les valeurs zêta multiples dans les algèbres de Tate, telles qu'introduites par Pellarin. Récemment, Gezmis et Pellarin ont formulé une conjecture concernant l'injectivité d'une certaine application qui relie les valeurs zêta multiples de Pellarin aux valeurs zêta multiples en caractéristique positive. Nous déterminons d'abord la structure du noyau et de l'image de cette application. Puis, nous donnons une réponse à la conjecture de Gezmis et Pellarin. Enfin, nous montrons que les valeurs zêta multiples de Pellarin possèdent une structure d'algèbre.
Abstract
In this thesis, we study multiple zeta values in Tate algebras as introduced by Pellarin. Recently, Gezmis and Pellarin formulated a conjecture regarding the injectivity of a certain map that relates Pellarin's multiple zeta values to multiple zeta values in positive characteristic. We first determine the structure of the kernel and the image of this map. As a consequence, we provide an answer to the Gezmis-Pellarin conjecture. Finally, we show that Pellarin's multiple zeta values carry the structure of an algebra.
Aspects οf the p-adic Κudla prοgram fοr the unitary grοup GU(2, 1)
Doctorant·e
IUDICA Francesco Maria
Direction de thèse
NICOLE Marc-Hubert (Directeur·trice de thèse)
Date de la soutenance
17/06/2025 à 14:00
Lieu de la soutenance
Université de Caen Normandie
Rapporteurs de la thèse
ANDREATTA FABRIZIO MILAN - UNIVERSITA DEGLI STUDI
FREIXAS I MONTPLET GÉRARD ECOLE POLYTECHNIQUE DE PALAISEAU
Membres du jurys
ANDREATTA FABRIZIO,
,
MILAN - UNIVERSITA DEGLI STUDI
FREIXAS I MONTPLET GÉRARD,
,
ECOLE POLYTECHNIQUE DE PALAISEAU
GEHRMANN LENNART,
,
Universität Bielefeld
LONGO MATTEO,
,
PADOUE -UNIVERSITA DEGLI STUDI DI PADOVA
NICOLE Marc-Hubert,
,
UCN - Université de Caen Normandie
PATI MARIA ROSARIA,
,
GENES - UNIVERSITA DI GENOVA
VONK JAN,
,
Universiteit Leiden
Résumé
Ce manuscrit explore quelques aspects du programme de Kudla p-adique pour les surfaces modulaires de Picard associées au groupe GU(2,1). En particulier, nous nous intéressons à la variation p-adique du théorème de Cogdell, qui est l'analogue du résultat célèbre de Hirzebruch et Zagier pour les surfaces modulaires de Hilbert. Cette thèse suit l'exemple de Longo--Nicole visant à relier le programme de Kudla aux familles p-adiques de Hida. Après avoir interpolé p-adiquement le relèvement de Kudla et son adjoint, nous construisons des cycles spéciaux de poids supérieurs sur des variétés de Kuga--Sato, et nous appliquons le formalisme de Loeffler, en obtenant des familles Lambda-adiques de classes de cohomologie de cycles spéciaux. Enfin, nous construisons une série génératrice Lambda-adique des "gros cycles" ci-dessus, qui a la propriété d'interpoler les formes modulaires étudiés par Cogdell.
Abstract
In this thesis, we explore some aspects of the p-adic Kudla program for Picard modular surfaces associated to the group GU(2,1). In particular, we are interested in the p-adic variation of Cogdell's theorem, the latter being the analogue of the celebrated result of Hirzebruch and Zagier for Hilbert modular surfaces. This work treads in the footsteps of Longo--Nicole in the attempt of relating the program initiated by Kudla to the p-adic families of Hida. After having p-adically interpolated the Kudla lift and its adjoint, we focus on the construction of special cycles on Kuga--Sato varieties and we apply Loeffler's formalism to our setting, obtaining Lambda-adic families of cohomology classes of special cycles. Finally, we construct a Lambda-adic generating series of such "big cycles", which interpolates the modular forms appearing in Cogdell's theorem.
Améliοratiοn de la Détectiοn d'Οbjets 3D Μοnοculaire basée sur l'ΙA: Applicatiοn au Τrain Autοnοme Μοnοrail par Stabilisatiοn Gyrοscοpique
Doctorant·e
EVAIN Alexandre
Direction de thèse
KHEMMAR REDOUANE (Directeur·trice de thèse)
AHMED ALI SOFIANE (Co-directeur·trice de thèse)
Date de la soutenance
05/05/2025 à 14:00
Lieu de la soutenance
ESIGELEC, Bâtiment Turing, Amphi Robert Vallée
Rapporteurs de la thèse
CHECCHIN PAUL Université Clermont Auvergne
GRUYER DOMINIQUE Ifsttar (Champs Sur Marne)
Cette thèse présente plusieurs contributions au développement de la détection monoculaire d'objets en 3D pour des applications autonomes de monorail. Tout d'abord, une plateforme expérimentale de monorail a été conçue et mise en œuvre, ainsi que des lois de contrôle pour assurer sa stabilisation. Sur cette base, des améliorations ont été apportées aux systèmes de détection monoculaire d'objets en 3D en mettant en œuvre les améliorations existantes pour les méthodes de détection d'objets en 2D. Pour améliorer encore les performances de détection, de nouvelles fonctions de transition de perte ont été développées et évaluées, permettant de donner la priorité à des métriques spécifiques pendant l'apprentissage du modèle. En outre, des méthodes ont été proposées pour combiner efficacement des ensembles de données réelles et synthétiques, en relevant des défis tels que les incohérences dans les matrices intrinsèques des caméras, la normalisation des ensembles de données et l'augmentation des données. Ces approches visent à améliorer les capacités d'apprentissage et de généralisation des modèles. Enfin, des techniques de transfert de style ont été employées pour augmenter les ensembles de données de formation en simulant diverses conditions environnementales, telles que les changements d'éclairage et de temps.
Abstract
This thesis presents several contributions to the development of monocular 3D object detection for autonomous monorail applications. First, an experimental monorail platform was designed and implemented, along with control laws to ensure its stabilization. Building upon this foundation, improvements were made to monocular 3D object detection systems by implementing existing improvements for 2D object detection methods. To further enhance detection performance, novel loss transition functions were developed and evaluated, allowing the prioritization of specific metrics during model training. Additionally, methods were proposed to effectively combine real and synthetic datasets, addressing challenges such as inconsistencies in camera intrinsic matrices, dataset normalization, and data augmentation. These approaches aim to improve model learning and generalization capabilities. Finally, style transfer techniques were employed to augment training datasets by simulating various environmental conditions, such as changes in lighting and weather.
ΡreDiViD Τοwards the Ρredictiοn οf the Disseminatiοn οf Viral Disease cοntagiοn in a pandemic setting
Doctorant·e
ALENCAR MEDEIROS Gabriel Henrique
Direction de thèse
SOUALMIA FATIMA (Directeur·trice de thèse)
ZANNI-MERK CECILIA (Co-directeur·trice de thèse)
Date de la soutenance
31/03/2025 à 14:00
Lieu de la soutenance
Université de Rouen Normandie
Rapporteurs de la thèse
LAMY JEAN-BAPTISTE Sorbonne Universite
LE BER FLORENCE Engees (Strasbourg)
Les systèmes de surveillance basés sur les événements (EBS) sont essentiels pour détecter et suivre les phénomènes de santé émergents tels que les épidémies et crises sanitaires. Cependant, ils souffrent de limitations, notamment une forte dépendance à l’expertise humaine, des difficultés à traiter des données textuelles hétérogènes et une prise en compte insuffisante des dynamiques spatio-temporelles. Pour pallier ces limites, nous proposons une approche hybride combinant des méthodologies guidées par les connaissances et les données, ancrée dans l’ontologie des phénomènes de propagation (PropaPhen) et le cadre Description-Detection-Prediction Framework (DDPF), afin d’améliorer la description, la détection et la prédiction des phénomènes de propagation. PropaPhen est une ontologie FAIR conçue pour modéliser la propagation spatio-temporelle des phénomènes et a été spécialisée pour le biomédical grâce à l’intégration de UMLS et World-KG, menant à la création du graphe BioPropaPhenKG. Le cadre DDPF repose sur trois modules : la description, générant des ontologies spécifiques ; la détection, appliquant des techniques d'extraction de relations sur des textes hétérogènes ; et la prédiction, utilisant des méthodes avancées de clustering. Expérimenté sur des données du COVID-19 et de la variole du singe et validé avec les données de l’OMS, DDPF a démontré son efficacité dans la détection et la prédiction de clusters spatio-temporels. Son architecture modulaire assure son évolutivité et son adaptabilité à divers domaines, ouvrant des perspectives en santé publique, environnement et phénomènes sociaux.
Abstract
Event-Based Surveillance (EBS) systems are essential for detecting and tracking emerging health phenomena such as epidemics and public health crises. However, they face limitations, including strong dependence on human expertise, challenges processing heterogeneous textual data, and insufficient consideration of spatiotemporal dynamics. To overcome these issues, we propose a hybrid approach combining knowledge-driven and data-driven methodologies, anchored in the Propagation Phenomena Ontology (PropaPhen) and the Description-Detection-Prediction Framework (DDPF), to enhance the description, detection, and prediction of propagation phenomena. PropaPhen is a FAIR ontology designed to model the spatiotemporal spread of phenomena. It has been specialized in the biomedical domain through the integration of UMLS and World-KG, leading to the creation of the BioPropaPhenKG knowledge graph. The DDPF framework consists of three modules: description, which generates domain-specific ontologies; detection, which applies relation extraction techniques to heterogeneous textual sources; and prediction, which uses advanced clustering methods. Tested on COVID-19 and Monkeypox datasets and validated against WHO data, DDPF demonstrated its effectiveness in detecting and predicting spatiotemporal clusters. Its modular architecture ensures scalability and adaptability to various domains, opening perspectives in public health, environmental monitoring, and social phenomena.
Les agents conversationnels se sont largement répandus ces dernières années. Aujourd'hui, ils ont dépassé leur objectif initial de simuler une conversation avec un programme informatique et sont désormais des outils précieux pour accéder à l'information et effectuer diverses tâches, allant du service client à l'assistance personnelle. Avec l'essor des modèles génératifs et des grands modèles de langage (LLM), les capacités des agents conversationnels ont été décuplées. Cependant, ils sont désormais sujets à des hallucinations, générant ainsi des informations erronées. Une technique populaire pour limiter le risque d'hallucinations est la génération augmentée par récupération (RAG), qui permet d'injecter des connaissances lors de la génération de texte. Ces connaissances peuvent être extraites de graphes de connaissances (KG), qui sont des représentations structurées et accessibles pour les systèmes informatiques. Ainsi, nous explorons les architectures de KG-RAG pour construire des agents conversationnels de confiance. Nous démontrons l'intérêt de notre approche pour un cas d'usage réel de support citoyen·ne en construisant un agent conversationnel traitant les mesures autour du handicap dans des villes françaises.
Nous présentons d'abord un historique des agents conversationnels, en introduisant les méthodes mises en œuvre au fil des années et les techniques d'évaluation. Nous définissons ensuite les KG et les ontologies, et explorons les techniques de construction et d'évaluation. Ne trouvant pas de KG directement exploitable, notre première contribution introduit OLAF : Ontology Learning Applied Framework. Ce système modulaire est conçu pour une construction automatisée et reproductible de KG à partir de textes non structurés. OLAF intègre des techniques linguistiques, statistiques et basées sur des LLM pour générer des ontologies minimales viables sur des domaines spécifiques. Appliqué à des ensembles de données réels, OLAF démontre des performances robustes grâce à des évaluations basées sur des ontologies de référence et des questions de compétence spécifiques à une tâche. Nous détaillons le processus de construction d'un KG sur la thématique du handicap dans une ville française. Nous proposons ensuite une architecture pour les systèmes de KG-RAG afin d'améliorer la recherche d'information en alignant les requêtes des utilisateur·rice·s avec les structures des graphes via la liaison d'entités, les patrons de requêtes et les méthodes de récupération basées sur les LLM. Nous démontrons l'intérêt de notre architecture sur différents cas d'utilisation, que nous évaluons selon des critères tels que la performance, les préférences humaines et l'impact environnemental. Bien que les préférences des utilisateur·rice·s avantagent l'architecture de Text-RAG, l'impact environnemental réduit de l'architecture de KG-RAG souligne son potentiel pour des pratiques d'IA durables. Enfin, nous identifions comme élément clé de l'architecture la partie concernant la recherche d'information. Nous abordons donc cette tâche dans notre architecture en explorant les techniques de vectorisation dans divers contextes, c'est-à-dire en améliorant la liaison d'entités, la recherche des données contextuelles et en fournissant un système de cache. Nous proposons également des mécanismes pour gérer les conversations multi-tours.
Ce travail établit un cadre complet pour les systèmes de KG-RAG, combinant la sémantique des KG avec les capacités génératives des LLM pour construire des agents conversationnels précis, spécialisés et durables. Les contributions incluent OLAF pour une construction automatisée de KG, un pipeline de KG-RAG robuste, et des améliorations basées sur des représentations vectorielles pour la précision de la recherche d'information et la qualité des interactions. En répondant aux défis industriels des agents conversationnels, ces travaux posent les bases du déploiement de systèmes de KG-RAG dans des domaines spécialisés et variés.
Abstract
Conversational agents have become widespread in recent years. Today, they have transcended their initial purpose of simulating a conversation with a computer program and are now valuable tools for accessing information and carrying out various tasks, from customer service to personal assistance. With the rise of text-generative models and Large Language Models (LLMs), the capabilities of conversational agents have increased tenfold. However, they are now subject to hallucinations, producing false information. A popular technique to limit the risk of hallucinations is Retrieval Augmented Generation (RAG), which injects knowledge into a text generation process. Such injected knowledge can be drawn from Knowledge Graphs (KGs), which are structured machine-readable knowledge representations. Therefore, we explore Knowledge Graph-based Retrieval Augmented Generation (KG-RAG) to build trusted conversational agents. We demonstrate our approach on a real-world use case for citizen support by building conversational agents for disability management in cities.
We first present a history of conversational agents, introducing the approaches implemented over the years and the evaluation techniques. We then define KGs and ontologies, and explore construction and evaluation techniques. As we could not find a directly exploitable KG, our first contribution introduces the Ontology Learning Applied Framework (OLAF). This modular system is built for automated and repeatable KG construction from unstructured text. OLAF integrates linguistic, statistical, and LLM-based techniques to generate Minimum Viable Ontologies for specific domains. Applied to real-world datasets, OLAF demonstrates robust performance through gold-standard evaluations and task-specific Competency Questions. We detail the construction process for a KG about disability management in a French city. We then propose an architecture for KG-RAG systems to enhance information retrieval by aligning user queries with KG structures through entity linking, graph queries, and LLM-based retrieval approaches. We demonstrate our architecture on different use cases, which we evaluate using criteria such as performance, human preference, and environmental impact. While user preferences advantage Text-RAG, KG-RAG's reduced computational footprint underscores its potential for sustainable AI practices. Finally, we identify the critical part of the architecture as the retriever. Therefore, we tackle the retrieval task in our architecture by exploring embeddings in various contexts, i.e. improving EL, retrieval, and providing a caching system. We also propose mechanisms for handling multi-turn conversations.
This work establishes a comprehensive framework for KG-RAG systems, combining the semantic depth of KGs with the generative capabilities of LLMs to deliver accurate, contextual, and sustainable conversational agents. Contributions include OLAF for scalable KG construction, a robust KG-RAG pipeline, and embedding-based enhancements for retrieval and interaction quality. By addressing conversational agents' industrial challenges, such as scalability, retrieval precision, and conversational coherence, this research lays the foundation for deploying KG-RAG systems in diverse and specialised domains.
Μulti-dοmain translatiοn in a semi-supervised setting
Doctorant·e
MAYET TSIRY
Direction de thèse
CHATELAIN CLEMENT (Directeur·trice de thèse)
HERAULT ROMAIN (Co-directeur·trice de thèse)
BERNARD SIMON (Co-encadrant·e de thèse)
Date de la soutenance
19/12/2024 à 09:30
Lieu de la soutenance
INSA de Rouen au campus du Madrillet
Rapporteurs de la thèse
KURTZ CAMILLE Université Paris Cité
TALBOT HUGUES CentraleSupélec
Membres du jurys
BERNARD SIMON,
,
URN - Université de Rouen Normandie
CHATELAIN CLEMENT,
,
INSA Rouen Normandie
GALASSI FRANCESCA,
,
ESIR Rennes
HERAULT ROMAIN,
,
Université de Caen Normandie
KURTZ CAMILLE,
,
Université Paris Cité
MOUCHERE HAROLD,
,
Université de Nantes
TALBOT HUGUES,
,
CentraleSupélec
Résumé
Cette thèse explore la génération multi-modale dans un contexte d'apprentissage semi-supervisé, en abordant deux défis cruciaux: la prise en charge de configurations flexibles d'entrées et de sorties à travers plusieurs domaines, et le développement d'une stratégie d'entraînement efficace des données semi-supervisées.
Alors que les systèmes d'intelligence artificielle progressent, il existe un besoin croissant de modèles capables d'intégrer et de générer de manière flexible plusieurs modalités, reflétant les capacités cognitives humaines. Les systèmes d'apprentissage profond conventionnels peinent souvent lorsqu'ils s'écartent de leur configuration d'entraînement, notamment lorsque certaines modalités sont indisponibles dans les applications réelles. Par exemple, dans le domaine médical, les patients pourraient ne pas faire tous les examens possibles pour un système d'analyse complet. Obtenir un contrôle plus fin sur les modalités générées est crucial pour améliorer les capacités de génération et fournir des informations contextuelles plus riches. De plus, l'augmentation du nombre de domaines rend plus difficile l'obtention d'une supervision simultanée.
Nous nous concentrons sur la translation multi-domaine dans un contexte semi-supervisé, étendant le paradigme classique de translation de domaine. Plutôt que de considérer une direction de translation spécifique ou de les limiter entre paires de domaines, nous développons des méthodes facilitant les translations entre toutes les configurations possibles de domaines. L'aspect semi-supervisé reflète des scénarios réels où une annotation complète des données est souvent infaisable ou prohibitivement coûteuse.
Notre travail présente trois contributions: (1) l'étude des fonctions de régularisation pour l'espace latent avec une supervision limitée, (2) l'étude de la mise à l'échelle et de la flexibilité des modèles de translation basés sur les modèles de diffusion, et (3) l'amélioration de la vitesse de génération des modèles d'inpainting par diffusion.
Premièrement, nous proposons LSM, un modèle de translation semi-supervisé exploitant des données d'entrée supplémentaires et des données de sortie structurées pour régulariser les dépendances inter-domaines et intra-domaines.
Deuxièmement, nous développons MDD, un modèle semi-supervisé de translation multi-domaine basé sur la diffusion. MDD transforme la fonction de perte classique des modèles de diffusion d'une fonction de reconstruction vers une fonction de translations en modélisant différents niveaux de bruit par domaine. Le modèle exploite les domaines moins bruités pour reconstruire les domaines plus bruités, permettant de modéliser les données manquantes comme du bruit pur et d'obtenir une configuration flexible des domaines condition et cible.
Enfin, nous introduisons TD-Paint, un modèle d'inpainting basé sur la diffusion améliorant la vitesse de génération et à réduire la charge de calcul associée à la génération. Notre étude révèle que les modèles d'inpainting par diffusion souffrent d'une désynchronisation entre génération et conditionnement. Les solutions existantes, reposant sur le rééchantillonnage ou des régularisations supplémentaires, augmentent la complexité computationnelle. TD-Paint résout ce problème en modélisant des niveaux de bruit variables au niveau des pixels, permettant une utilisation efficace de la condition dès le début du processus.
Abstract
This thesis explores multi-modal generation and semi-supervised learning, addressing two critical challenges: supporting flexible configurations of input and output across multiple domains, and developing efficient training strategies for semi-supervised data settings.
As artificial intelligence systems advance, there is growing need for models that can flexibly integrate and generate multiple modalities, mirroring human cognitive abilities. Conventional deep learning systems often struggle when deviating from their training configuration, which occurs when certain modalities are unavailable in real-world applications. For instance, in medical settings, patients might not undergo all possible scans for a comprehensive analysis system. Additionally, obtaining finer control over generated modalities is crucial for enhancing generation capabilities and providing richer contextual information. As the number of domains increases, obtaining simultaneous supervision across all domains becomes increasingly challenging.
We focus on multi-domain translation in a semi-supervised setting, extending the classical domain translation paradigm. Rather than addressing specific translation directions or limiting translations to domain pairs, we develop methods facilitating translations between any possible domain configurations, determined at test time. The semi-supervised aspect reflects real-world scenarios where complete data annotation is often infeasible or prohibitively expensive.
Our work explores three main areas: (1) studying latent space regularization functions to enhance domain translation learning with limited supervision, (2) examining the scalability and flexibility of diffusion-based translation models, and (3) improving the generation speed of diffusion-based inpainting models.
First, we propose LSM, a semi-supervised translation framework leveraging additional input and structured output data to regularize inter-domain and intra-domain dependencies.
Second, we develop MDD, a novel diffusion-based multi-domain translation semi-supervised framework. MDD shifts the classical reconstruction loss of diffusion models to a translation loss by modeling different noise levels per domain. The model leverages less noisy domains to reconstruct noisier ones, modeling missing data from the semi-supervised setting as pure noise and enabling flexible configuration of condition and target domains.
Finally, we introduce TD-Paint, a novel diffusion-based inpainting model improving generation speed and reducing computational burden. Through investigation of the generation sampling process, we observe that diffusion-based inpainting models suffer from unsynchronized generation and conditioning. Existing models often rely on resampling steps or additional regularization losses to realign condition and generation, increasing time and computational complexity. TD-Paint addresses this by modeling variable noise levels at the pixel level, enabling efficient use of the condition from the generation onset.
BOUKACHOUR JAOUAD (Directeur·trice de thèse)
BENAINI ABDELHAMID (Co-directeur·trice de thèse)
Date de la soutenance
19/12/2024 à 15:00
Lieu de la soutenance
PIL
Rapporteurs de la thèse
FONLUPT CYRIL ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
ZARGAYOUNA MAHDI Université Marne La Vallée
Membres du jurys
BENAINI ABDELHAMID,
,
ULHN - Université Le Havre Normandie
BOUDEBOUS DALILA,
,
ULHN - Université Le Havre Normandie
BOUKACHOUR JAOUAD,
,
ULHN - Université Le Havre Normandie
FONLUPT CYRIL,
,
ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
SALLEZ YVES,
,
UNIVERSITE POLYTECHNIQUE HAUTS DE FRANCE
ZARGAYOUNA MAHDI,
,
Université Marne La Vallée
Résumé
Cette thèse explore la mise en œuvre de la synchromodalité dans le transport de conteneurs en arrière-pays. La synchromodalité, une forme avancée de transport multimodal, offre une flexibilité et une résilience accrues pour le transport de fret conteneurisé. Bien que le transport routier ait traditionnellement dominé ce secteur, la synchromodalité vise à promouvoir un transfert modal stratégique vers des modes de transport plus durables, tels que le rail et les voies navigables intérieures. Le principal défi opérationnel réside dans la détermination de l’itinéraire optimal pour le transport des marchandises entre les terminaux d’origine et de destination. Dans la première partie de cette thèse, un modèle mathématique est développé pour identifier les meilleurs itinéraires de transport, en minimisant à la fois les émissions de carbone et la durée de transit. Compte tenu de la complexité NP-difficile de ce problème de chemin le plus court capacitaire, un algorithme génétique est proposé pour résoudre des instances de grande taille. Ces instances sont basées sur le corridor de fret de l’Axe Seine en France. Les résultats montrent qu’un transfert modal du camion vers le rail et les voies navigables intérieures peut permettre de réduire les émissions de carbone jusqu’à 80 %. La deuxième partie étend le modèle mathématique en intégrant des impacts environnementaux supplémentaires, appelés coûts externes. Un cadre d’optimisation multi-objectifs basé sur la métaheuristique NSGA-II est mis en œuvre pour résoudre efficacement le problème à grande échelle. Dans la troisième partie, le modèle prend en compte les incertitudes liées aux temps de trajet et de transport. Pour y faire face, une approche d’optimisation robuste basée sur une formulation min-max est employée, permettant de résoudre le problème de transport multimodal dans des conditions incertaines.
Abstract
This thesis explores the implementation of synchromodality in hinterland container transportation. Synchromodality, an advanced form of multimodal transportation, offers enhanced flexibility and resilience for containerized freight movement. While road transport has traditionally dominated this sector, synchromodality aims to promote a strategic modal shift toward more sustainable modes of transportation, such as rail and inland waterways. The primary operational challenge lies in determining the optimal route for transporting shipments between origin and destination terminals. In the first part of this thesis, a mathematical model is developed to identify the best transportation routes, minimizing both carbon emissions and transit duration. Given the NP-hard complexity of this capacitated shortest path problem, a genetic algorithm is proposed to solve large-scale problem instances. These instances are based on the Seine Axis freight corridor in France. The results demonstrate that a modal shift from truck to rail and inland waterways can achieve up to an 80% reduction in carbon emissions. The second part extends the mathematical model to incorporate additional environmental impacts, known as external costs. A multi-objective optimization framework using the NSGA-II metaheuristic is implemented to solve the problem for large-scale scenarios effectively. In the third part, the model accounts for uncertainties in travel and transportation times. To address this, a robust optimization approach based on a min-max formulation is employed, enabling the solution of the multimodal transportation problem under uncertain conditions.
Synthèse d'algοrithmes d'estimatiοn intelligents en vue du cοntrοle de trajectοire d'une flοtte de véhicules autοnοmes en platοοning (cοnvοi)
Doctorant·e
ABDL GHANI Hasan
Direction de thèse
CRAYE ETIENNE (Directeur·trice de thèse)
AHMED ALI SOFIANE (Co-directeur·trice de thèse)
Date de la soutenance
19/12/2024 à 14:00
Lieu de la soutenance
IRSEEM, ESIGELEC, Technopôle du Madrillet, Av. Galilée, 76800 Saint-Étienne-du-Rouvray
Rapporteurs de la thèse
BASSET MICHEL Ens Ingenieurs Sud Alsace Universite Mulhouse
NEJJARI-AKHI-ELARAB FATIHA Univ. Polytechnique de Barcelone (ESP)
Membres du jurys
AHMED ALI SOFIANE,
,
Université d'Evry Paris-Saclay
AINOUZ SAMIA,
,
INSA Rouen Normandie
BASSET MICHEL,
,
Ens Ingenieurs Sud Alsace Universite Mulhouse
CRAYE ETIENNE,
,
ESIGELEC ROUEN
NEJJARI-AKHI-ELARAB FATIHA,
,
Univ. Polytechnique de Barcelone (ESP)
TELJ REINE,
,
UNIV TECHNOLOGIE COMPIEGNE UTC COMPIEGNE
TRAN NGUYEN ANH-TU,
,
UNIVERSITE VALENCIENNES UPHF
Résumé
Cette thèse présente une exploration complète de la conception d’observateurs avancés pour les systèmes de véhicules terrestres, en mettant particulièrement l’accent sur l’intégration de techniques de réseaux neuronaux pour relever les défis liés à la dynamique non linéaireet aux complexités de mesure. La recherche est systématiquement divisée en trois parties distinctes, chacune se concentrant sur un aspect spécifique de la conception d’observateurset de leur application pratique aux véhicules terrestres.
La première partie introduit une conception d’observateur novatrice utilisant un réseau neuronal multicouche pour les véhicules terrestres autonomes. Ce segment de l’étude propose un observateur en réseau neuronal continu-discret (NSNNO), particulièrement adapté aux systèmes caractérisés par une non-linéarité significative et sans nécessité de connaissances préalables sur la dynamique du système. L’observateur, conçu comme un réseau neuronal feedforward à trois couches, est méticuleusement entraîné en utilisant l’algorithme d’apprentissage par rétropropagation de l’erreur, amélioré par un terme de modification e pour la robustesse. Cette partie aborde efficacement les défis associés à la mesure en temps discret dans les systèmes de véhicules.
La deuxième partie se penche sur l’amélioration de l’estimation de l’état dans la dynamique des véhicules terrestres grâce à l’application de réseaux neuronaux à fonction de base radiale (RBF). Cette section est articulée à travers trois articles pivots, chacun apportant une perspective et une solution uniques. Ces articles abordent collectivement divers défis en matière de mesure et de modélisation, démontrant la polyvalence et l’efficacité des réseaux RBF dans l’estimation de la dynamique complexe des véhicules.
La troisième partie s’appuie sur la conception réussie d’observateurs basés sur des réseaux neuronaux pour des véhicules terrestres individuels et étend leur application au contexte du pelotonnage de véhicules sous des mesures retardées. Cette partie de la recherche se concentre sur les défis uniques inhérents à l’environnement de pelotonnage, en particulier l’impact des retards de communication entre les véhicules. Elle montre comment les conceptions d’observateurs avancés peuvent être adaptées à l’environnement interconnecté et dynamique des pelotons de véhicules, garantissant la stabilité et la précision de la formation, même en présence de retards de communication.
Dans l’ensemble, cette thèse apporte une contribution significative au domaine des systèmes de contrôle de véhicules terrestres, offrant des perspectives précieuses et des solutions pratiques pour le développement de systèmes d’observateurs avancés et fiables capables de naviguer dans les complexités de la dynamique véhiculaire moderne.
Abstract
This thesis explores advanced observer designs to improve state estimation and system performance in vehicle dynamic environments. The research is divided into three parts, where each part focuses on a specific aspect of observer design and its practical application to ground vehicles.
Part One introduces a novel observer design using a multi-layer neural network for autonomous ground vehicles. This part of the study proposes a continuous-discrete time neural network observer, that is designed for systems that have significant non-linearity and without the necessity for prior knowledge of system dynamics. The observer, which is designed as a three-layer feedforward neural network, trained using the error backpropagation learning algorithm, and enhanced with an e-modification term for robustness. A closed-loop output predictor is added to the design of the neural network observer to solve the challenge of discrete time measurement in vehicle systems.
Part two of this thesis introduces a novel approach using radial basis function neural networks, which is used to enhance observer designs for nonlinear dynamic systems. In this part, we propose a new weight updating function that improves the performance of RBF networks, which was designed for systems with both partially or completely unknown dynamics. The proposed observers are also designed to manage the discrete-time measurements with delay measurements to ensure accurate state estimation and improved performance of the system under these conditions.
Part Three focuses on robust platooning in multi-agent systems to address the challenges that are posed by internal and communication delays, measurements uncertainties, and the system heterogeneity. A consensus-based high-gain observer and a novel-based observer are presented to enhance the stability and coordination of platoons under different conditions. These methods here are validated by extensive simulations that shows the efficiency of the observers to maintain synchronization and robustness under challenging scenarios.
Overall, this thesis contributes in the field of ground vehicle control systems that offers valuable understanding and practical solutions for developing advanced observer systems that are capable of solving the complexities of modern vehicle dynamics
Μοdèles affines généralisées et symétries d'équatiοns aux dérivés partielles
Doctorant·e
OUKNINE Anas
Direction de thèse
LESCOT PAUL (Directeur·trice de thèse)
Date de la soutenance
19/12/2024 à 14:00
Lieu de la soutenance
UFR sciences et techniques salle des séminaires
Rapporteurs de la thèse
LORINCZI JOZSEF Institut de Mathématiques Alfred Renyi
THIEULLEN MICHELE UNIVERSITE PARIS 6 PIERRE ET MARIE CURIE
Membres du jurys
CALKA PIERRE,
,
URN - Université de Rouen Normandie
LEONARD CHRISTIAN,
,
Université Paris 10 Paris-Nanterre
LESCOT PAUL,
,
URN - Université de Rouen Normandie
LORINCZI JOZSEF,
,
Institut de Mathématiques Alfred Renyi
THIEULLEN MICHELE,
,
UNIVERSITE PARIS 6 PIERRE ET MARIE CURIE
Résumé
Cette thèse se consacre à étudier les symétries de Lie d'une classe particulière d'équations différentielles partielles (EDP), désignée sous le nom d'équation de Kolmogorov rétrograde. Cette équation joue un rôle essentiel dans le cadre des modèles financiers, notamment en lien avec le modèle de Longstaff-Schwartz, qui est largement utilisé pour la valorisation des options et des produits dérivés.
Dans un contexte plus générale, notre étude s'oriente vers l'analyse des symétries de Lie de l'équation de Kolmogorov rétrograde, en introduisant un terme non linéaire. Cette généralisation est significative, car l'équation ainsi modifiée est liée à une équation différentielle stochastique rétrograde et progressive (EDSRP) via la formule de Feynman-Kac généralisée (non linéaire). Nous nous intéressons également à l'exploration des symétries de cette équation stochastique, ainsi qu'à la manière dont les symétries de l'EDP sont connectées à celles de l'EDSRP.
Enfin, nous proposons un recalcul des symétries de l'équation différentielle stochastique rétrograde (EDSR) et de l'EDSRP, en adoptant une nouvelle approche. Cette approche se distingue par le fait que le groupe de symétries qui opère sur le temps dépend lui-même du processus $Y$, qui constitue la solution de l'EDSR. Cette dépendance ouvre de nouvelles perspectives sur l'interaction entre les symétries temporelles et les solutions des équations.
Abstract
This thesis is dedicated to studying the Lie symmetries of a particular class of partial
differential equations (PDEs), known as the backward Kolmogorov equation. This equa-
tion plays a crucial role in financial modeling, particularly in relation to the Longstaff-
Schwartz model, which is widely used for pricing options and derivatives.
In a broader context, our study focuses on analyzing the Lie symmetries of the
backward Kolmogorov equation by introducing a nonlinear term. This generalization is
significant, as the modified equation is linked to a forward backward stochastic differ-
ential equation (FBSDE) through the generalized (nonlinear) Feynman-Kac formula.
We also examine the symmetries of this stochastic equation and how the symmetries
of the PDE are connected to those of the BSDE.
Finally, we propose a recalculation of the symmetries of the BSDE and FBSDE,
adopting a new approach. This approach is distinguished by the fact that the symme-
try group acting on time itself depends also on the process Y , which is the solution
of the BSDE. This dependence opens up new perspectives on the interaction between
temporal symmetries and the solutions of the equations.
HOBLOS GHALEB (Directeur·trice de thèse)
BEN SAID LAMJED (Co-directeur·trice de thèse)
Date de la soutenance
18/12/2024 à 14:30
Lieu de la soutenance
ESIGELEC
Rapporteurs de la thèse
AYACHI GANNOUCHI SONIA Université de Sousse
GUESSOUM ZAHIA Université de Reims Champagne Ardenne
Membres du jurys
AYACHI GANNOUCHI SONIA,
,
Université de Sousse
BEN SAID LAMJED,
,
Université de Tunis (Tunisie)
ELOUEDI ZIED,
,
Université de Tunis (Tunisie)
GUESSOUM ZAHIA,
,
Université de Reims Champagne Ardenne
HOBLOS GHALEB,
,
ESIGELEC ROUEN
SAHLI NABIL,
,
German University of Technology
Résumé
La congestion routière constitue un défi majeur pour les zones urbaines, car le volume de véhicules continue de croître plus rapidement que la capacité globale du réseau routier. Cette croissance a des répercussions sur l'activité économique, la durabilité environnementale et la qualité de vie. Bien que des stratégies visant à atténuer la congestion routière ont connu des améliorations au cours des dernières décennies, de nombreux pays ont encore du mal à la gérer efficacement.
Divers modèles ont été développés pour aborder ce problème. Cependant, les approches existantes peinent souvent à fournir des prédictions en temps réel et localisées qui peuvent s'adapter à des conditions de trafic complexes et dynamiques. La plupart de ces approches s'appuient sur des horizons de prédiction fixes et manquent de l'infrastructure intelligente nécessaire à la flexibilité. Cette thèse comble ces lacunes en proposant une approche intelligente, décentralisée et basée sur l'infrastructure pour l'estimation et la prédiction de la congestion routière.
Nous commençons par étudier l'Estimation du Trafic. Nous examinons les mesures de congestion possibles et les sources de données requises pour différents contextes pouvant être étudiés. Nous établissons une relation tridimensionnelle entre ces axes. Un système de recommandation basé sur des règles est développé pour aider les chercheurs et les opérateurs du trafic à choisir les mesures de congestion les plus appropriées en fonction du contexte étudié.
Nous passons ensuite à la Prédiction du Trafic, où nous introduisons notre approche DECOTRIVMS. Cette dernière utilise des panneaux intelligents à messages variables pour collecter des données de
trafic en temps réel et fournir des prédictions à court terme avec des horizons de prédiction variables.
Nous avons utilisé des Réseaux de Graphes avec Attention en raison de leur capacité à capturer des relations complexes et à gérer des données structurées en graphes. Ils sont bien adaptés pour modéliser les interactions entre différents segments routiers étudiés.
Nous avons aussi employé des méthodes d'apprentissage en ligne, spécifiquement la Descente de Gradient Stochastique et la Descente de Gradient Adaptative. Bien que ces méthodes ont été utilisées avec succès dans divers autres domaines, leur application à la prédiction de la congestion routière reste sous-explorée. Dans notre thèse, nous visons à combler cette lacune en explorant leur efficacité dans le contexte de la prédiction de la congestion routière en temps réel.
Enfin, nous validons l'efficacité de notre approche à travers deux études de cas réalisées à Mascate, Oman, et à Rouen, France. Une analyse comparative est effectuée, évaluant divers modèles de prédiction, y compris les Réseaux de Graphes avec Attention, les Réseaux de Graphes Convolutionnels et des méthodes d'apprentissage en ligne. Les résultats obtenus soulignent le potentiel de DECOTRIVMS, démontrant son efficacité pour une prédiction précise et efficace de la congestion routière dans divers contextes urbains.
Abstract
Traffic congestion presents a critical challenge to urban areas, as the volume of vehicles continues to grow faster than the system’s overall capacity. This growth impacts economic activity, environmental sustainability, and overall quality of life. Although strategies for mitigating traffic congestion have seen improvements over the past few decades, many cities still struggle to manage it effectively. While various models have been developed to tackle this issue, existing approaches often fall short in providing real-time, localized predictions that can adapt to complex and dynamic traffic conditions. Most rely on fixed prediction horizons and lack the intelligent infrastructure needed for flexibility. This thesis addresses these gaps by proposing an intelligent, decentralized, infrastructure-based approach for traffic congestion estimation and prediction.
We start by studying Traffic Estimation. We examine the possible congestion measures and data sources required for different contexts that may be studied. We establish a three-dimensional relationship between these axes. A rule-based system is developed to assist researchers and traffic operators in recommending the most appropriate congestion measures based on the specific context under study. We then proceed to Traffic Prediction, introducing our DECentralized COngestion esTimation and pRediction model using Intelligent Variable Message Signs (DECOTRIVMS). This infrastructure-based model employs intelligent Variable Message Signs (VMSs) to collect real-time traffic data and provide short-term congestion predictions with variable prediction horizons.
We use Graph Attention Networks (GATs) due to their ability to capture complex relationships and handle graph-structured data. They are well-suited for modeling interactions between different road segments. In addition to GATs, we employ online learning methods, specifically, Stochastic Gradient Descent (SGD) and ADAptive GRAdient Descent (ADAGRAD). While these methods have been successfully used in various other domains, their application in traffic congestion prediction remains under-explored. In our thesis, we aim to bridge that gap by exploring their effectiveness within the context of real-time traffic congestion forecasting.
Finally, we validate our model’s effectiveness through two case studies conducted in Muscat, Oman, and Rouen, France. A comprehensive comparative analysis is performed, evaluating various prediction techniques, including GATs, Graph Convolutional Networks (GCNs), SGD and ADAGRAD. The achieved results underscore the potential of DECOTRIVMS, demonstrating its potential for accurate and effective traffic congestion prediction across diverse urban contexts.
Ιndécidabilité des invariants géοmétriques dans les pavages
Doctorant·e
PAVIET SALOMON Leo
Direction de thèse
VANIER Pascal (Directeur·trice de thèse)
Date de la soutenance
17/12/2024 à 14:30
Lieu de la soutenance
Bâtiment Sciences 3 - salle des thèses
Rapporteurs de la thèse
BEAL MARIE-PIERRE Université Gustave Eiffel
ROJAS CRISTOBAL Pontificia Universidad Católica de Chile
Membres du jurys
BEAL MARIE-PIERRE,
,
Université Gustave Eiffel
CERVELLE JULIEN,
,
UNIVERSITE PARIS 12 VAL DE MARNE
HOYRUP MATHIEU,
,
Université de Lorraine
OLLINGER NICOLAS,
,
Université d'Orléans
PETITE SAMUEL,
,
UNIVERSITE AMIENS PICARDIE JULES VERNE
VANIER Pascal,
,
UCN - Université de Caen Normandie
Résumé
Cette thèse est consacrée à l'étude des sous-décalages, et en particulier leurs propriétés calculatoires. De façon générale, un sous-décalage est défini par un ensemble fini de symboles, un ensemble de règles spécifiant les agencements valides et invalides de ces symboles, et un espace ambiant que l'on cherche à paver: une configuration valide consiste alors en un agencement de ces symboles couvrant l'espace entier et respectant toutes les contraintes. Le sous-décalage est alors défini comme l'ensemble de toutes les configurations valides. Dans le cas le plus simple, ces règles interdisent simplement à certains symboles d'être placés côte-à-côte, et sont donc en nombre fini. Cependant, même dans ce cas restreint, les pavages de Z^d pour d > 1 sont étonnament complexes, cette complexité se manifestant sous plusieurs aspects étudiés dans cette thèse.
Cette thèse est divisée en trois chapitres essentiellement indépendants, précédés d'une introduction générale aux différents objets étudiés. Dans un premier temps, nous étudierons l'entropie d'extension des pavages de Z^d, un nombre réel associé à un sous-décalage qui quantifie le nombre de motifs qui peuvent être librement interchangés dans n'importe quelle configuration valide. Nous montrerons que les entropies d'extension possibles sont caractérisées par des restrictions calculatoires, et correspondent exactement à des niveaux de la hiérarchie arithmétique, le niveau exact dépendant de la classe de sous-décalages considérée. Dans un second chapitre, nous nous intéresserons au Groupe Fondamental Projectif des pavages du plan Z^2. Il s'agit d'un groupe associé à certains sous-décalages, qui permet de classifier les obstructions possibles qu'ont certaines configurations partielles ne pouvant être étendues en configurations valides sur tout l'espace. Nous montrerons là aussi que des classes simples de pavages, notamment les sous-décalages de type fini, peuvent exhiber un comportement complexe, et en particulier peuvent avoir comme groupe fondamental n'importe quel groupe finiment présenté. Enfin, nous étudierons dans un troisième chapitre les sous-décalages substitutifs, dans le contexte particulier des graphes. Nous proposerons une définition de graphe substitutif, et de sous-décalage substitutif défini sur ces graphes, et montrerons qu'une large classe de ces sous-décalages peuvent être obtenus à l'aide d'un nombre fini de règles locales. Ce résultat généralise partiellement un résultat classique de Mozes, dans un cadre plus combinatoire et moins géométrique.
Abstract
This thesis is devoted to the study of subshifts, and in particular their computational properties. A subshift is defined by a finite set of symbols, a set of rules specifying authorized and forbidden arrangements of these symbols, and an ambient space that we try to tile: a valid configuration is then an arrangement of these symbols, covering the entire space and respecting all the rules. A subshift is then defined as the set of all the valid configurations. In the simplest case, the rules are adjacency rules, which prevent some symbols from being placed next to one another. However, even in this restricted setting, tilings of Z^d for d > 1 can be surprinsingly complicated, in several ways studied in this thesis.
The thesis is divided in three independent chapters, with a preliminary chapter introducing all the relevant background knowledge for the various objects being considered. In a first chapter, we study the extender entropy of Z^d subshifts, a real number which quantifies for any subshift the number of patterns that can freely be exchanged in all the valid configurations. We show that the possible values of extender entropies are fully characterized by computability restrictions, more precisely, they correspond exactly to levels in the arithmetical hierarchy of real numbers, the precise level depending on the specific class of subshifts being considered. In a second chapter, we study the Projective Fundamental Group of Z^2-subshifts, a group which aims at classifying the various kinds of obstructions encountered when trying to extend a partial configuration to a complete, valid configuration of the subshift. We show that even subshifts of finite type can have as fundamental group any finitely presented group. Finally, we study in a third chapter a kind of substitutive subshift defined on graphs. We propose a definition of substitutive graph, as well as substitutive graph subshift, and show that an important class of these subshifts can be obtained using only finitely many local rules. This partially generalizes a classical result from Mozes, in a more combinatorial but less geometrical setting.
Τraitement d'image pοur la valοrisatiοn et l'accessibilité des οeuvres muséales
Doctorant·e
REDON Marjorie
Direction de thèse
EL MOATAZ BILLAH Abderrahim (Directeur·trice de thèse)
Date de la soutenance
17/12/2024 à 09:00
Lieu de la soutenance
Caen
Rapporteurs de la thèse
GOUET-BRUNET VALÉRIE Directeur de recherche Université Gustave Eiffel
TREUILLET SYLVIE Maître de conférences HDR Université d'Orléans
Membres du jurys
EL MOATAZ BILLAH Abderrahim,
,
UCN - Université de Caen Normandie
GOUET-BRUNET VALÉRIE,
Directeur de recherche,
IGN
JOUFFRAIS CHRISTOPHE,
Directeur de recherche,
Institut de Recherche en Informatique de Toulouse
LECOMTE CHRISTELE,
Maître de conférences,
URN - Université de Rouen Normandie
MARZANI FRANCK,
,
Universite Bourgogne Europe
QUEAU Yvain,
Chargé de recherche,
UCN - Université de Caen Normandie
TREUILLET SYLVIE,
Maître de conférences HDR,
Université d'Orléans
Résumé
La question de l’accessibilité des œuvres muséales aux personnes présentant une incapacité visuelle (PPIVs) est régulièrement soulevée par les associations et les musées. De par leur nature, certaines œuvres, telles que les tapisseries médiévales, ne peuvent être touchées et ne sont que peu souvent accessibles via l’audio-description. Aussi, la création manuelle de représentations tactiles est coûteuse et complexe, limitant leur disponibilité dans les musées. La Tapisserie de l’Apocalypse et la Tapisserie de Bayeux sont deux exemples emblématiques. Ces deux œuvres d’art de grande envergure mesurant 104 m sur 4,5 m pour la première et 70 m sur 50 cm pour la deuxième, sont devenues au fil du temps les objets de nombreuses études. Bien que le Château d’Angers propose des visites guidées adaptées aux personnes aveugles et malvoyantes, celles-ci restent limitées et nécessitent la participation de plusieurs personnes. Au musée de la Tapisserie de Bayeux, un espace de découverte tactile est proposé mais seules trois des 58 scènes peuvent être explorées.
Cette thèse aborde les problématiques d'inclusion dans les musées. Ce travail a été mené dans une volonté de rendre la perception des tapisseries médiévales accessible à un plus grand nombre de personnes. Ce travail propose ainsi une méthodologie innovante de création semi-automatique d’objets 3D à partir d’une simple photographie. Nous nous intéressons dans ce manuscrit aux possibilités offertes par les outils d’intelligence artificielle pour la création de bas-reliefs imprimés en 3D, rapidement et à moindre coût. Pour cela, nous étudions des algorithmes de segmentation tels que les Mask R-CNN ; et d'autres réseaux de neurones permettant de générer des images, comme les réseaux génératifs antagonistes (GANs). En plus de la possible génération d'impressions 3D permettant une exploration tactile des œuvres, nous devons nous intéresser à la pertinence de telles représentations. Afin de nous assurer que la solution proposée permette une meilleure autonomie dans l’appréciation de l’art, nous menons également une campagne d'évaluation auprès de PPIVs. Au final, nous visons à améliorer l'expérience muséale des personnes aveugles et partiellement aveugles par une augmentation de leur autonomie dans ces lieux de culture et renforcer leur satisfaction et leur motivation à découvrir ces trésors culturels.
Abstract
The issue of accessibility to artworks in museums for visually impaired people (VIP) is frequently raised by associations and museums. Some works, such as medieval tapestries, by their very nature, cannot be touched and are often not accessible through audio-description. Moreover, the manual creation of tactile representations is costly and complex, limiting their availability in museums. The Apocalypse Tapestry and the Bayeux Tapestry are two iconic examples. These large-scale artefacts, measuring 104 m by 4.5 cm meters for the former and 70 m by 50 cm for the latter, have been the focus of numerous studies over the years. Although the Château d'Angers offers guided tours adapted for blind and partially sighted visitors, these remain limited and require the involvement of several people. At the Bayeux Tapestry Museum, there is a tactile discovery area, but only three of the 58 scenes have been adapted into tactile mock copies.
This work is motivated by the challenges of inclusion in museums and aims to make the perception of medieval tapestries accessible to as many people as possible. We propose an innovative methodology for the semi-automatic creation of 3D objects from simple photographs. In this manuscript, we explore the possibilities offered by artificial intelligence tools to quickly and affordably create 3D-printed bas-reliefs. Specifically, we study segmentation algorithms like Mask R-CNN and image-generating neural networks such as generative adversarial networks (GANs). In addition to generating 3D prints that enable tactile exploration of artefacts, we also evaluate the relevance of these representations through experimentation with VIPs. Overall, our goal is to improve the museum experience for blind and partially sighted visitors by enhancing their autonomy in cultural spaces and increasing their satisfaction and motivation to discover these cultural treasures.
Smart Rοad Signs based trust management mοdels fοr cοοperative Ιntelligent Τranspοrtatiοn Systems
Doctorant·e
ABIDI Rihab
Direction de thèse
HOBLOS GHALEB (Directeur·trice de thèse)
BEN AZZOUNA NADIA (Co-directeur·trice de thèse)
Date de la soutenance
16/12/2024 à 14:00
Lieu de la soutenance
ESIGELEC
Rapporteurs de la thèse
BONNIN JEAN-MARIE IRISA RENNES
SIALA CHAOUACHI JOUHAINA Université de Carthage
Membres du jurys
BEN AZZOUNA NADIA,
,
Université de Tunis (Tunisie)
BONNIN JEAN-MARIE,
,
IRISA RENNES
HOBLOS GHALEB,
,
ESIGELEC ROUEN
SIALA CHAOUACHI JOUHAINA,
,
Université de Carthage
Résumé
L'augmentation de la complexité des systèmes de circulation urbaine a rendu la congestion un défi majeur, entraînant des impacts économiques, environnementaux et sociaux considérables. Les Systèmes de Transport Intelligents (STIs) sont apparus comme une solution prometteuse pour atténuer ces défis en permettant une gestion dynamique du trafic. Cependant, la fiabilité des données au sein des STIs représente un enjeu de plus en plus important. L'introduction de données erronées par des capteurs défectueux ou malveillants peut entraîner des dysfonctionnements ou des perturbations intentionnelles du système. Dans ce contexte, les modèles de gestion de la confiance revêtent une importance cruciale.
La plupart des modèles de confiance existants proposent des approches centrées sur les véhicules. Cependant, la forte mobilité et la nature dynamique des environnements des STIs affectent la stabilité et la scalabilité de ces systèmes. En conséquence, la proposition de nouveaux modèles de confiance conçus spécifiquement pour les STIs, afin d'améliorer la précision, la sécurité, la scalabilité et la stabilité de la diffusion des informations sur le trafic, constitue l'objectif global de cette thèse.
Tout d'abord, nous avons proposé une architecture générique pour un cadre de modèle de gestion de la confiance, exploitant les Smart Road Signs (SRSs). La conception de cette architecture repose sur une étude approfondie de l'état de l'art. Cette architecture a ensuite été développée pour proposer deux nouveaux modèles de confiance. Le premier modèle, considère les informations contextuelles et l'agrégation. De plus, ce modèle prend en compte les informations contextuelles et l'agrégation des données provenant de multi-sources pour évaluer la fiabilité des événements de trafic signalés aux SRSs et des différents nœuds du réseau. De plus, le modèle applique une évaluation de confiance à deux niveaux en combinant l'inférence Bayésienne et une approche de somme pondérée dynamique. En outre, une inférence bayésienne basée sur la prédiction a été proposée pour améliorer la précision de l'évaluation de la confiance.
Par la suite, un modèle de confiance en communication a été proposé, pour compléter la contribution précédente, en utilisant des métriques de Quality of Service (QoS) pour évaluer le comportement des SRSs. Ce modèle introduit un modèle de confiance auto-organisé pour suivre les comportements des SRSs et établir des environnements stables en utilisant Dempster Shafer Theory (DST) basée sur la logique floue. En effet, nous considérons un scénario plus réaliste où tous les nœuds sont vulnérables aux attaques et aux pannes. Ainsi, l'objectif principal de ce modèle est de garantir que le système reste opérationnel même dans des environnements hostiles, en atténuant la vulnérabilité des architectures de réseau centralisées, qui est le point de défaillance unique.
Les modèles proposés ont été validés par des simulations, démontrant leur efficacité dans l'identification des nœuds malveillants et la réduction des rapports de trafic erronés. Les résultats montrent que la prise en compte de l'agrégation de données provenant de multi-sources et des informations contextuelles augmente la précision de l'évaluation de la confiance. De plus, l'adoption d'un modèle basé sur l'infrastructure, exploitant une architecture décentralisée et hiérarchique, améliore l'évolutivité et la stabilité des modèles de confiance, ce qui est adapté à un tel environnement.
Abstract
The increasing complexity of urban traffic systems has made congestion a significant challenge, leading to severe economic, environmental, and social impacts. Intelligent Transportation Systems (ITSs) have emerged as a promising solution to mitigate these challenges by enabling dynamic traffic management. However, the reliability of data within ITSs represents an increasingly significant challenge. The introduction of erroneous data by defective or malicious sensors can lead to malfunctions or intentional disruptions of the system. In this context, trust management models assume a crucial importance.
Most of the existing trust models propose vehicle-centric approaches. However, the high mobility and dynamic nature of the ITS environments affects the stability and scalabity of such systems. Accordingly, proposing novel trust models designed specifically for ITSs to enhance the accuracy, security, scalability and stabilty of traffic information dissemination constitutes the overall goal of this thesis.
First, we proposed a generic architecture for a trust framework, leveraging Smart Road Signs (SRSs). The conception of this architecture was built upon the output of a deep investigation of the state of the art. This framework has been, then, developed to propose two novel trust models. The first model, considers the contextual information and multi-source data aggregation to assess the trustworthiness of reported traffic events and the different nodes of the network. Additionally, the model applies a bi-level trust evaluation combining Bayesian Inference and a dynamic weighted sum approach. Furthermore, a predictive-based Baysian Inference was proposed to enhance the accuracy of trust evaluation.
Thereafter, a communication trust model was proposed, to complement the previous contribution, using Quality of Service (QoS) metrics to evaluate the SRSs behaviour. This model introduces a self-organizing trust model to track the SRSs' behaviours and establishes stable environments using a fuzzy-based Dempster Shafer Theory (DST). In fact, we consider a more realistic scenario where all the nodes are vulnerable to attacks and failure. Thus, the main objective of this model is to ensure that the system remains operational even in hostile environments, by mitigating the inherent single point of failure vulnerability characteristic of centralized network architectures.\\
The proposed models were validated through simulations, showing their effectiveness in identifying malicious nodes and mitigating erroneous traffic reports. The results demonstrate that considering multi-source data aggregation and context-aware information increases the accuracy of trust evaluation. Furthermore, the adoption of an infrastructure-based framework leveraging a decentralized and hierarchical architecture enhances the scalability and stability of the trust models, which is suitable for such environment.
Dévelοppement de détecteurs de rayοnnement ΤΗz nοn refrοidis à base de La0.7Sr0.3ΜnΟ3
Doctorant·e
QUINTEN Thomas
Direction de thèse
GUILLET Bruno (Directeur·trice de thèse)
Date de la soutenance
16/12/2024 à 14:00
Lieu de la soutenance
Campus 2, Caen
Rapporteurs de la thèse
BOUSSAHA FAOUZI OBSERVATOIRE DE PARIS
LECOEUR Philippe Université Paris Saclay
Membres du jurys
BOUSSAHA FAOUZI,
,
OBSERVATOIRE DE PARIS
GUILLET Bruno,
,
UCN - Université de Caen Normandie
LAMPIN JEAN-FRANÇOIS,
,
IEMN - Inst. d'Elec, de MIcro et de Nano
LECOEUR Philippe,
,
Université Paris Saclay
LOCQUET JEAN-PIERRE,
,
LEUVEN - KATHOLIEKE UNIVERSITEIT
ROY PASCALE,
,
Synchrotron SOLEIL
Résumé
Les propriétés des ondes térahertz (THz) offrent des perspectives pour relever les défis sociétaux du XXIᵉ siècle dans les domaines de la santé, de la sécurité et de l'énergie. Cette thèse examine l'utilisation de couches minces de La0.7Sr0.3MnO3 (LSMO) déposées sur silicium pour réaliser des détecteurs THz à température ambiante, en exploitant la variation de leur résistance électrique. Les détecteurs sont associés à des antennes planaires, exigeant une adaptation d’impédance optimale entre l’antenne et la couche mince. Dans ce but, les couches LSMO et leurs contacts électriques (Au/LSMO) ont été caractérisés en courant continu et dans le domaine radiofréquence (10 MHz à 325 GHz). En courant continu, l'étude révèle que de fortes résistances électriques de contact introduisent des comportements non-linéaires qui dégradent la lecture des détecteurs. Un recuit thermique associé à une géométrie adaptée du détecteur a permis de ramener les résistances de contact à un niveau négligeable, avec une résistance spécifique de 10⁻⁵ Ω·cm². L’analyse radiofréquence effectuée sur des lignes coplanaires chargées par du LSMO a montré que l’impédance du LSMO est réelle et que les résistances électriques de contact sont négligeables à ces fréquences. Ces résultats ont permis de concevoir des détecteurs couplés à une lentille diélectrique et de les tester à 640 GHz et 2.52 THz. Les performances mesurées se montrent prometteuses comparées à l’état de l’art, avec un NEP électrique de quelques pW/√Hz (limité par le bruit de phonons) et un temps de réponse de 0.1 ms. Le NEP optique, avoisinant 600 pW/√Hz dans la bande passante, pourrait être optimisé par une meilleure absorption du rayonnement.
Abstract
The properties of terahertz (THz) waves offer promising perspectives for addressing 21st-century societal challenges in the fields of health, security, and energy. This thesis investigates the use of La0.7Sr0.3MnO3 (LSMO) thin films deposited on silicon for the development of THz detectors operating at room temperature, by exploiting the variation in their electrical resistance. The films are coupled with planar antennas, requiring optimal impedance matching between the antenna and the thin film. In this context, the LSMO layers and their electrical contacts (Au/LSMO) were characterized in direct current and in the radiofrequency domain (10 MHz to 325 GHz). In direct current, the study reveals that high contact resistances introduce nonlinear behaviors that degrade detector reading. Thermal annealing combined with an optimized detector geometry allowed for contact resistances to be reduced to a negligible level, achieving a specific contact resistance of 10⁻⁵ Ω·cm². The radiofrequency analysis performed on coplanar lines loaded with LSMO showed that the LSMO impedance is real with no contact resistances. These findings enabled the design of detectors coupled with a dielectric lens, which were tested at 640 GHz and 2.52 THz. The performances are promising compared to the state of the art, with an electrical NEP of a few pW/√Hz (limited by phonons noise) and a response time of 0.1 ms. The optical NEP, around 600 pW/√Hz in the bandwidth, could be optimized through enhanced radiation absorption.
Ρarametric estimatiοn fοr a class οf multidimensiοnal affine prοcesses
Doctorant·e
DAHBI Houssem
Direction de thèse
BEN ALAYA MOHAMED (Directeur·trice de thèse)
KHENISSI MOEZ (Co-directeur·trice de thèse)
ALFONSI AURELIEN,
,
BEN ALAYA MOHAMED,
,
URN - Université de Rouen Normandie
CLEMENT EMMANUELLE,
,
Universite Gustave Eiffel
FATHALLAH HAMDI,
,
Université de Sousse
KHENISSI MOEZ,
,
Université de Sousse
LOUHICHI SANA,
,
Université de Grenoble Alpes
MASMOUDI AFIF,
,
Université de SFAX (Tunisie)
PERGAMENCHTCHIKOV SERGUEI,
,
URN - Université de Rouen Normandie
Résumé
Cette thèse traite l'inférence statistique de quelques processus de diffusion affine dans \( \R^m_+ \times \R^n \), avec $m,n\in\N$. Cette sous-classe de diffusions, notée par $\textit{AD}(m,n)$, est appliquée à la tarification des options sur obligations et des actions, ce qui est illustré pour les modèles de Vasicek, Cox-Ingersoll-Ross (CIR) et Heston. Dans cette thèse, nous considérons deux différents modèles: le premier lorsque \( m = 1 \) et \( n \in \mathbb{N} \) et le deuxième lorsque \( m = 2 \) et \( n = 1 \). Pour le modèle $\mathit{AD}(1, n)$, nous introduisons, au Chapitre 2, un résultat de classification où nous distinguons trois cas différents : sous-critique, critique et surcritique. Ensuite, nous étudions la stationnarité et l'ergodicité de sa solution sous certaines hypothèses sur les paramètres du drift. Pour le problème d'estimation paramétrique, nous utilisons deux méthodes différentes : l'estimation par maximum de vraisemblance (MLE) et l'estimation des moindres carrés conditionnels (CLSE). Au Chapitre 2, nous présentons l'estimateur obtenu par la méthode MLE basée sur des observations en temps continu et nous étudions sa consistance et son comportement asymptotique dans des cas ergodiques et non-ergodiques particuliers. Au Chapitre 3, nous présentons l'estimateur obtenu par la méthode CLSE basée sur des observations en temps continu puis discret avec haute fréquence et horizon infini et nous étudions sa consistance et son comportement asymptotique dans des cas ergodiques et non-ergodiques particuliers. Il est à noter ici que nous obtenons les mêmes résultats asymptotiques que dans le cas continu sous des hypothèses supplémentaires sur le pas de discrétisation \( \Delta_N \). Au Chapitre 4, nous étudions le modèle $\mathit{AD}(2, 1)$, également appelé modèle de double Heston. Dans un premier temps, nous introduisons sa classification suivant les cas sous-critique, critique et surcritique. Dans un second temps, nous établissons les théorèmes de stationnarité et d'ergodicité y associés. Dans la partie statistique de ce chapitre, nous étudions les éstimateurs par la méthode MLE et la méthode CLSE du modèle de double Heston en se basant sur des observations en temps continu dans le cas ergodique et nous introduisons les théorèmes de consistance et de normalité asymptotique pour chaque estimateur obtenu.
Abstract
This thesis deals with statistical inference of some particular affine diffusion processes in the state space $\R_+^m\times\R^n$, where $m,n\in\N$. Such subclass of diffusions, denoted by $\mathit{AD}(m,n)$, is applied to the pricing of bond and stock options, which is illustrated for the Vasicek, Cox-Ingersoll-Ross (CIR) and Heston models. In this thesis, we consider two different cases : the first one is when $m=1$ and $n\in\N$ and the second one is when $m=2$ and $n=1$. For the $\mathit{AD}(1,n)$ model, we introduce, in Chapter 2, a classification result where we distinguish three different cases : subcritical, critical and supercritical. Then, we study the stationarity and the ergodicity of its solution under some assumptions on the drift parameters. For the parameter estimation problem, we use two different methods: the maximum likelihood estimation (MLE) and the conditional least squares estimation (CLSE). In Chapter 2, we present the estimator obtained by the MLE method based on continuous time observations and we study its consistency and its asymptotic behavior in ergodic and particular non-ergodic cases. In Chapter 3, we present the estimator obtained by the CLSE method based on continuous then discrete time observations with high frequency and infinite horizon and we study its consistency and its asymptotic behavior in ergodic and particular non-ergodic cases. It is worth to note here that we obtain the same asymptotic results in both discrete and continuous sets under additional assumptions on the discretization step $\Delta_N$. In Chapter 4, we study the $\mathit{AD}(2,1)$ model, called also double Heston model, we introduce first its classification with respect to subcritical, critical and supercritical case and we establish the relative stationarity and ergodicity theorems. In the statistical part of this chapter, we study the MLE and the CLSE of the ergodic double Heston model based on continuous time observations and we introduce its consistency and asymtotic normality theorems for each estimation method.
Ηybrid mοdels cοmbining deep neural representatiοns and nοn-parametric patch-based methοds fοr phοtοrealistic image generatiοn
Doctorant·e
SAMUTH Benjamin
Direction de thèse
TSCHUMPERLE DAVID (Directeur·trice de thèse)
RABIN Julien (Co-directeur·trice de thèse)
Date de la soutenance
13/12/2024 à 14:30
Lieu de la soutenance
Salle des thèses, UFR Sciences, Campus 2, Caen
Rapporteurs de la thèse
CHAINAIS PIERRE Ecole centrale de Lille
GOUSSEAU YANN Telecom Paris
Membres du jurys
CHAINAIS PIERRE,
,
Ecole centrale de Lille
GOUSSEAU YANN,
,
Telecom Paris
JURIE Frederic,
,
UCN - Université de Caen Normandie
PAPADAKIS NICOLAS,
,
CNRS
RAAD LARA,
Maître de conférences,
Université publique - Montevideo
RABIN Julien,
Maître de conférences HDR,
ENSICAEN
TSCHUMPERLE DAVID,
,
CNRS
Résumé
Le domaine de la génération d'images a récemment connu de fortes
avancées grâce aux rapides évolutions des modèles neuronaux profonds.
Leur succès ayant atteint une portée au-delà de la sphère
scientifique, de multiples inquiétudes et questionnements se sont
légitimement soulevées quant à leur fonctionnement et notamment
l'usage de leurs données d'entraînement. En effet, ces modèles sont si
volumineux en paramètres et coûteux en énergie qu'il en devient
difficile d'offrir des garanties et des explications concrètes. À
l'inverse, des modèles légers et explicables seraient souhaitables
pour répondre à ces nouvelles problématiques, mais au coût d'une
qualité et flexibilité de génération moindre.
Cette thèse explore l'idée de construire des « modèles hybrides », qui
combineraient intelligemment les qualités des méthodes légères ou
frugales avec les performances des réseaux profonds. Nous étudions
d'abord le cas du transfert de style artistique à l'aide d'une méthode
contrainte, multi-échelle, et à patchs. Nous déterminons alors
qualitativement l'intérêt d'une métrique perceptuelle dans cette
opération. Par ailleurs, nous développons deux méthodes hybrides de
génération de visages photoréalistes, à l'aide d'un auto-encodeur
pré-entraîné. Le premier s'attaque à la génération de visages avec
peu d'échantillons à l'aide de patchs latents, montrant une notable
robustesse et des résultats convaincants avec un simple algorithme
séquentiel à patchs. Le second offre une solution à la généralisation
de la tâche à une plus grande variétés de visages grâce à des modèles
de mixtures de gaussiennes. En particulier, nous montrons que ces
modèles offrent des performances similaires à d'autres modèles
neuronaux, tout en s'affranchissant d'une quantité importante de
paramètres et d'étapes de calculs.
Abstract
Image generation has encountered great progress thanks to the quick
evolution of deep neural models. Their reach went beyond the
scientific domain and thus multiple legitimate concerns and questions
have been raised, in particular about how the training data are
treated. On the opposite, lightweight and explainable models would
be a fitting answer to these emerging problematics, but their quality
and range of applications are limited.
This thesis strives to build “hybrid models”. They would efficiently
combine the qualities of lightweight or frugal methods with the
performance of deep networks. We first study the case of artistic
style transfer with a multiscale and constrained patch-based
method. We qualitatively find out the potential of perceptual metrics
in the process. Besides, we develop two hybrid models for
photorealistic face generation, each built around a pretrained
auto-encoder. The first model tackles the problem of few-shot face
generation with the help of latent patches. Results shows a notable
robustness and convincing synthesis with a simple patch-based
sequential algorithm. The second model uses Gaussian mixtures models
as a way to generalize the previous method to wider varieties of
faces. In particular, we show that these models perform similarly to
other neural methods, while removing a non-negligible number of
parameters and computing steps at the same time.
Οbservatοire de la tactique en (e-)spοrt cοllectif
Doctorant·e
MORTELIER Alexis
Direction de thèse
RIOULT Francois (Directeur·trice de thèse)
Date de la soutenance
13/12/2024 à 14:00
Lieu de la soutenance
Salle des thèses
Rapporteurs de la thèse
DEVOGELE THOMAS Universite de Tours
IODICE PIERPAOLO UNIVERSITE LE MANS
KAYTOUE MEHDI Maître de conférences HDR INSA Lyon
Membres du jurys
BEN YAHIA SADOK,
Maître de conférences,
Université de Tunis - Tunisie
DEVOGELE THOMAS,
,
Universite de Tours
GUIGNARD BRICE,
Maître de conférences,
Université Claude Bernard - Lyon 1
IODICE PIERPAOLO,
,
UNIVERSITE LE MANS
KAYTOUE MEHDI,
Maître de conférences HDR,
INSA Lyon
LE BER FLORENCE,
Directeur de recherche,
Engees (Strasbourg)
RIOULT Francois,
Maître de conférences,
UCN - Université de Caen Normandie
Résumé
Cette thèse explore les dynamiques de jeu et les performances collectives en alternant entre les analyses de sports traditionnels, comme le handball, et des e-sports, tels que DotA2 et OverWatch. L'objectif est de segmenter le processus de traitement des données en plusieurs étapes, chacune apportant une compréhension spécifique. En adoptant une approche comparative entre sport et e-sport, ce travail non seulement distingue les différentes étapes de traitement des données, mais propose également une vue d'ensemble de l'analyse du (e-)sport. La première contribution réside dans le développement de techniques de représentation des matchs de handball à l’aide de graphes dynamiques, ainsi que dans la simplification des trajectoires dans DotA2 grâce à des indices géométriques. Ces méthodes permettent une meilleure visualisation et compréhension des mouvements collectifs.La deuxième contribution se concentre sur la définition et le calcul de métriques de performance, essentielles pour l'apprentissage automatique. Des modèles d’expected goal (xG) pour le handball et des facteurs d’engagement dans OverWatch ont été élaborés pour servir de cibles aux algorithmes. La troisième contribution est la création d’un observatoire tactique dédié au handball, et l'étude des configurations géométriques dans DotA2 qui mènent à des événements clés. Ces analyses approfondissent la compréhension des tactiques qui influencent le déroulement des matchs.
Abstract
This thesis explores game dynamics and collective performance by alternating between analyses of traditional sports, such as handball, and e-sports, such as DotA2 and OverWatch. The aim is to segment the data processing process into several stages, each providing a specific understanding. By adopting a comparative approach between sport and e-sport, this work not only distinguishes the different stages of data processing, but also offers an overview of (e-)sport analysis. The first contribution is the development of techniques for representing handball matches using dynamic graphs, and the simplification of trajectories in DotA2 using geometric indices. The second contribution focuses on the definition and calculation of performance metrics, essential for machine learning. Expected goal (xG) models for handball and commitment factors in OverWatch have been developed as targets for algorithms. The third contribution is the creation of a tactical observatory dedicated to handball, and the study of geometric configurations in DotA2 that lead to key events. These analyses deepen our understanding of the tactics that influence the course of matches.
ROUX-LANGLOIS Adeline (Directeur·trice de thèse)
GIRAUD CHRISTOPHE (Co-directeur·trice de thèse)
WALLET ALEXANDRE (Co-encadrant·e de thèse)
Date de la soutenance
12/12/2024 à 14:00
Lieu de la soutenance
Campus 2, Université Caen
Rapporteurs de la thèse
EL MRABET Nadia ENSM ST ETIENNE
LAGUILLAUMIE Fabien Université de Montpellier
Membres du jurys
COUVREUR ALAIN,
,
INRIA Paris
EL MRABET Nadia,
,
ENSM ST ETIENNE
GIRAUD CHRISTOPHE,
,
IDEMIA
LAGUILLAUMIE Fabien,
,
Université de Montpellier
PELLET-MARY ALICE,
Chargé de recherche,
CNRS
ROUX-LANGLOIS Adeline,
Directeur de recherche,
UCN - Université de Caen Normandie
WALLET ALEXANDRE,
Chargé de recherche,
IRISA/INRIA Rennes
Résumé
Cette thèse est préparée entre 2021 et 2024, période qui marque le début de la transition postquantique de la cryptographie à clé publique. De manière générale, la transition post-quantique se réfère à la migration de la cryptographie à clé publique classique vers une cryptographie résistante aux attaques quantiques. Cette thèse aborde certains sujets spécifiques dans la cryptographie fondées sur les réseaux Euclidiens, en particulier, la sécurité concrète de certaines constructions cryptographiques basées sur les réseaux: la signature Mitaka and le KEM Kyber. Dans l’ordre chronologique, nous avons examiné la possibilité d’améliorer la qualité de sécurité des trappes NTRU pour l’échantillonneur hybride (ce dernier étant l’échantillonneur Gaussien discret utilisé dans la signature Mitaka – une variante élégamment simplifiée du futur standard Falcon). Cela a conduit au nouveau algorithme de génération de trappes Antrag qui fournit à l’échantillonneur hybride de meilleures trappes, améliorant ainsi la sécurité des signatures produites par cet échantillonneur. La deuxième contribution concerne l’investigation de la possibilité de casser Kyber à partir d’une trace unique de puissance d’une fonction non protégée pendant le processus de génération de clés. Cela se conclut par une réponse positive pour le cas de Kyber-512.
Abstract
This thesis is prepared between 2021 and 2024 which is a period that witnesses the beginning of the post-quantum transition of the public-key cryptography. Generally speaking,
post-quantum transition refers to the migration from classical public-key cryptography to a quantum-resistant one. This thesis addresses some specific topics in lattice-based cryptography, in particular, the concrete security of some lattice-based cryptographic constructions: the signature Mitaka and and the KEM Kyber. In chronological order, we investigated the possibility of improving the security quality of NTRU trapdoors for hybrid sampler (the later is the discrete Gaussian sampler used in the signature Mitaka – an elegantly simplified variant of the future standard Falcon). This led to the new trapdoor generation algorithm Antrag that provides hybrid samplers with better trapdoors, improving the security of the signatures outputted from hybrid samplers. The second contribution involves the investigation of the possibility of breaking Kyber from a single power trace. More precisely, we analysed the power trace of an unprotected function in Kyber’s key generation. The investigation is concluded with a positive answer for the case of Kyber-512.
Cοοrdinatiοn d'une flοtte hétérοgène de rοbοts pοur la récοlte d'infοrmatiοn dans un envirοnnement incοnnu
Doctorant·e
GANDOIS Alvin
Direction de thèse
MOUADDIB Abdel-Illah (Directeur·trice de thèse)
AL FALOU Ayman (Co-directeur·trice de thèse)
Date de la soutenance
11/12/2024 à 10:30
Lieu de la soutenance
Université de Caen Normandie
Rapporteurs de la thèse
BEYNIER AURÉLIE Maître de conférences UNIVERSITE PARIS 6 PIERRE ET MARIE CURIE
CHARPILLET FRANCOIS UNIVERSITE NANCY 1 HENRI POINCARE
Membres du jurys
AL FALOU Ayman,
Directeur de recherche,
INST SUP D'ELECTRONIQUE, DU NUMERIQUE
BEYNIER AURÉLIE,
Maître de conférences,
UNIVERSITE PARIS 6 PIERRE ET MARIE CURIE
CHARPILLET FRANCOIS,
,
UNIVERSITE NANCY 1 HENRI POINCARE
LE GLOANNEC SIMON,
,
INST SUP D'ELECTRONIQUE, DU NUMERIQUE
MOUADDIB Abdel-Illah,
,
UCN - Université de Caen Normandie
SABBADIN REGIS,
,
INRA DE TOULOUSE
Résumé
Dans cette thèse, nous étudions le problème de la récolte d'information dans un environnement inconnu et partiellement observable avec des agents hétérogènes. Nous considérons un environnement composé de différents points d'intérêt, avec pour objectif de coordonner des agents hétérogènes dans le but de récolter de l'information sur ces points d'intérêt. L'hétérogénéité des agents peut apparaître sous différentes formes : plusieurs agents ayant des capacités d'observation différentes, des capacités d'embarquement différentes, des ressources différentes, ou bien un seul agent embarquant plusieurs capteurs hétérogènes. Dans un premier temps, nous avons proposé un modèle de récolte d'information avec plusieurs agents hétérogènes dans un environnement partiellement observable mais topologiquement connu. Ce modèle, que nous avons nommé Meta-MDP, est basé sur les processus décisionnels de Markov, et fonctionne en deux parties : premièrement, pour chaque agent et chaque point d'intérêt, nous calculons une politique pour récolter de l'information sur ce point. Ensuite, nous calculons une politique d'allocation des points d'intérêts aux agents de manière à optimiser la récolte d'information sur le long terme. Nous avons ensuite étendu ce modèle au cas où nous avons un agent embarquant plusieurs capteurs hétérogènes (typiquement un capteur laser et une caméra) dans un environnement inconnu dans le but de construire une carte de l'environnement tout en récoltant de l'information sur les éventuels points d'intérêt.
Abstract
In this thesis, we study the problem of information gathering in an unknown and partially observable environment with heterogeneous agents. We consider an environment containing a set of interest points, with the objective of coordinating heterogeneous agents in order to gather information on these points. The heterogeneity of the agents can manifest in various ways: multiple agents with different observation capacities, different transport capabilities, varying resources, or a single agent equipped with multiple heterogeneous sensors. We started by proposing a model to gather information with multiple heterogeneous agents in a partially observable yet topologically known environment. This model, which we have named Meta-MDP, is based on Markov decision processes and operates in two stages: first, for each agent and each interest point, we calculate a policy to gather information on that particular point. Then, we compute a policy for allocating interest points to agents in a way that optimizes long-term information gathering. Then, we extended this model to the case where a single agent, equipped with multiple heterogeneous sensors (typically a laser sensor and a camera), operates in an unknown environment with the goal of building a map of the environment while simultaneously gathering information on potential interest points.
Annοtatiοn autοmatique du sοmmeil par classifieurs définis sur la variété des matrices SDΡ
Doctorant·e
SERAPHIM Mathieu
Direction de thèse
BRUN Luc (Directeur·trice de thèse)
ETARD Olivier (Co-directeur·trice de thèse)
Date de la soutenance
11/12/2024 à 09:00
Lieu de la soutenance
Bât Science 3, salle des thèses 1er étage. Boulevard du Maréchal Juin CS 14032 14032 Caen Cedex 5
Rapporteurs de la thèse
ACHARD SOPHIE Université de Grenoble Alpes
CHEVALLIER SYLVAIN Université Paris Saclay
Membres du jurys
ACHARD SOPHIE,
,
Université de Grenoble Alpes
BRUN Luc,
,
ENSICAEN
CHEVALLIER SYLVAIN,
,
Université Paris Saclay
DUPÉ FRANÇOIS-XAVIER,
Maître de conférences,
Aix-Marseille université
ETARD Olivier,
,
UCN - Université de Caen Normandie
LECHERVY Alexis,
Maître de conférences,
UCN - Université de Caen Normandie
Résumé
L'annotation de l'état de sommeil d'un sujet à partir de signaux électroencéphalographiques (EEG) est un processus coûteux. Par conséquent, de nombreuses approches d'automatisation ont été proposées, notamment en apprentissage profond. Néanmoins, celles-ci n'ont pas encore atteint un niveau de performance suffisant pour voir une utilisation clinique, notamment au vu des différences entre enregistrements EEG, et des difficultés à classifier des enregistrements issus d'un environnement différent.
Dans cette thèse, nous nous attaquons à ce problème sous un nouvel angle, en représentant chaque subdivision temporelle (ou « époque ») des signaux EEG par une série de matrices de covariance. Ces matrices, pourtant utilisées en analyse EEG pour les interfaces cerveau-machine (ICM), sont absentes en annotation du sommeil.
Elles sont généralement symétriques définies positives (SDP), avec l'ensemble des matrices SDP formant un variété riemannienne non-euclidienne. De fait, analyser cet ensemble à l'aide d'opérations euclidiennes introduit des artefacts de calcul~; d'où la nécessité d'employer des opérations riemanniennes respectant la courbure de cet espace.
Pour ce faire, nous construisons un modèle profond de type Transformer, modifié pour permettre l'analyse de séquences de matrices SDP tout en respectant la structure de la variété. Nous démontrons que cette approche est non seulement performante, mais résulte également en un modèle résilient au changement de base de données.
Abstract
The scoring of a subject's sleep stages from electroencephalographic (EEG) signals is a costly process. As such, many approaches to its automation have been proposed, including ones based on Deep Learning. However, said approaches have yet to attain a level of performance good enough for use in clinical settings, in part due to the high variability between EEG recordings, and the challenges inherent to the classification of signals recorded in different environments.
In this thesis, we tackle this issue through a novel angle, by representing each epoch within our EEG signals as a timeseries of covariance matrices. Said matrices, although a common tool for EEG analysis in Brain-Computer Interfaces (BCI), are not typically utilized in sleep stage scoring.
Covariance matrices tend to be symmetric positive definite (SPD), with the set of SPD matrices forming a non-Euclidean Riemannian manifold. As such, a Euclidean analysis of SPD matrices leads to computational artifacts, hence the need to utilize Riemannian operations instead, i.e. operations that respect the curvature of the manifold.
To do so, we develop a Transformer-style deep neural network, modified to allow for the analysis of sequences of SPD matrices while still conforming to the structure of the manifold. From there, we demonstrate both the high level of performance of this approach, and its resilience to dataset changes.
A visiοn-based mixed-reality framewοrk fοr testing autοnοmοus driving systems
Doctorant·e
ARGUI IMANE
Direction de thèse
AINOUZ SAMIA (Directeur·trice de thèse)
GUERIAU MAXIME (Co-encadrant·e de thèse)
Date de la soutenance
10/12/2024 à 10:00
Lieu de la soutenance
INSA Rouen Normandie
Rapporteurs de la thèse
FREMONT VINCENT Ecole Centrale Nantes
STRAUSS OLIVIER Université de Montpellier
Cette thèse explore le développement et la validation des systèmes de navigation
autonome dans un environement de réalité mixte (RM), avec pour objectif de combler
l’écart entre la simulation virtuelle et les tests en conditions réelles. Les travaux mettent
l’accent sur le potentiel des environnements en réalité mixte pour tester les systèmes
autonomes de manière sûre, efficace et économique. La thèse est structurée en plusieurs
parties, et commence par une revue des technologies de pointe dans la navigation
autonome et les applications en réalité mixte. En utilisant des modèles à base de règles
et des modèles d’apprentissage, des expérimentations visent à évaluer les performances
des robots autonomes dans des environnements simulés, réels et de RM.
Un des objectifs principaux est de réduire le « reality gap »—c’est-à-dire la différence
entre les comportements observés en simulation et ceux observés dans des applications
réelles—en intégrant des éléments réels avec des composants virtuels dans des envi-
ronnements de RM. Cette approche permet des tests et une validation plus proche des
contraintes réelles sans les risques associés aux essais physiques. Une partie importante
du travail est consacrée à la mise en œuvre et au test d’une stratégie d’augmentation hors
ligne visant à améliorer les capacités de perception des systèmes autonomes à l’aide des
informations de profondeur.
De plus, l’apprentissage par renforcement est appliqué pour évaluer son potentiel dans
les environnements de RM. La thèse démontre que ces modèles peuvent apprendre effi-
cacement à naviguer et à éviter les obstacles dans des simulations virtuelles et obtenir des
résultats similaires lorsqu’ils sont transférés dans des environnements de RM, soulignant
la flexibilité du cadre pour différents modèles de systèmes autonomes.
À travers ces expériences, la thèse montre le potentiel des environnements de réalité
mixte comme une plateforme polyvalente et robuste pour faciliter le développement des
technologies de navigation autonome, offrant une approche plus sûre et plus évolutive
pour la validation des modèles avant leur déploiement dans le monde réel.
Abstract
This thesis explores the development and validation of autonomous navigation
systems within a mixed-reality (MR) framework, aiming to bridge the gap between
virtual simulation and real-world testing. The research emphasizes the potential of MR
environments for safely, efficiently, and cost-effectively testing autonomous systems. The
thesis is structured around several chapters, beginning with a review of state-of-the-art
technologies in autonomous navigation and mixed-reality applications. Through both
rule-based and learning-based models, the research investigates the performance of
autonomous robots within simulated, real, and MR environments.
One of the core objectives is to reduce the "reality gap"—the discrepancy between
behaviors observed in simulations versus real-world applications—by integrating real-
world elements with virtual components in MR environments. This approach allows
for more accurate testing and validation of algorithms without the risks associated
with physical trials. A significant part of the work is dedicated to implementing and
testing an offline augmentation strategy aimed at enhancing the perception capabilities
of autonomous systems using depth information.
Furthermore, reinforcement learning (RL) is applied to evaluate its potential within MR
environments. The thesis demonstrates that RL models can effectively learn to navigate
and avoid obstacles in virtual simulations and perform similarly well when transferred
to MR environments, highlighting the framework’s flexibility for different autonomous
system models.
Through these experiments, the thesis establishes MR environments as a versatile and
robust platform for advancing autonomous navigation technologies, offering a safer, more
scalable approach to model validation before real-world deployment.
UFR Sciences et Techniques (Madrillet) - Université de Rouen Normandie
Rapporteurs de la thèse
LOIDREAU PIERRE UNIVERSITE RENNES 1
SENDRIER NICOLAS
Membres du jurys
BARDET MAGALI,
,
URN - Université de Rouen Normandie
DEBRIS ALAZARD THOMAS,
,
Centre Regional de l'Inria Saclay Ile de France
GABORIT PHILIPPE,
,
Université de Limoges
LOIDREAU PIERRE,
,
UNIVERSITE RENNES 1
OTMANI AYOUB,
,
URN - Université de Rouen Normandie
SENDRIER NICOLAS,
,
TILLICH JEAN-PIERRE,
,
ZEMOR GILLES,
,
Université de Bordeaux
Résumé
La sécurité des schémas cryptographiques à clef publique couramment utilisés repose sur la difficulté de problèmes de théorie des nombres. Mais depuis la découverte de l'algorithme quantique de Shor en 1994, on sait qu'un ordinateur quantique pourrait résoudre ces problèmes en temps polynomial. De là la nécessité de construire des primitives cryptographiques dont la sécurité repose sur des problèmes qui résistent à l'ordinateur quantique. Un des principaux candidats est le problème de décodage, qui est à la base de la cryptographie basée sur les codes correcteurs d'erreur. Cette thèse est une contribution pour améliorer la confiance que l'on peut avoir en la difficulté de ce problème et en ses applications cryptographiques. En premier lieu, grâce à une réduction pire cas-cas moyen, nous démontrons qu'à partir d'un code arbitraire quelconque il est possible de générer des distributions pseudoaléatoires de codes aussi dures à décoder que le code arbitraire préalablement choisi. Nous prouvons ce résultat pour la métrique de Hamming, puis nous l'adaptons au problème de décodage en métrique rang. Dans les deux cas le principal outil pour obtenir la réduction est la construction de codes pseudoaléatoires dont la distance minimale est linéaire. En second lieu, nous construisons un schéma de chiffrement à clef publique en métrique rang dont la sécurité repose uniquement sur des hypothèses de sécurité classiques et qui possède la particularité d'avoir une clef publique statistiquement indistinguable de l'uniforme pour certaines zones de paramètres. Cette construction se base sur une généralisation des codes LRPC (Low Rank Parity Check) et sur l'approche multidimensionnelle qui consiste à décoder simultanément plusieurs mots de codes paratageant le même support. Nous améliorons également la borne supérieur théorique de la probabilité d'erreur lors du décodage des codes LRPC.
Abstract
The security of public key cryptographic schemes that are currently used rely on the hardness of number theory problems. However, we know that a quantum computer could solve these problems in polynomial time since the discovery of Shor's algorithm in 1994. That is why we need to construct cryptographic primitives whose security relies on problems which resist to quantum computers. For that purpose, one of the main candidate is the decoding problem which is at the basis of code-based cryptography. This thesis is a contribution to strengthen the trust we can have in the hardness of this problem and in its cryptographic applications. Firstly, we show that from any arbitrary code it is possible to construct a distribution of pseudorandom codes that are at least as hard to decode as the priorly chosen arbitrary code thanks to a worst-case to average-case reduction. We prove this result in Hamming metric before adapting it in the rank metric context. In both cases, the main tool for getting the reduction is the construction of pseudorandom codes whose minimum distance is linear. Secondly, we build a rank-based public key encryption scheme whose security relies only on classical security assumptions. This scheme also has the particularity to get public keys which are statistically indistinguishable from the uniform for some zones of parameters. Its construction is based on a generalisation of LRPC (Low Rank Parity Check) codes and on the multidimensional approach which consists in decoding simultaneously several codewords sharing the same support. We also improve the theoretical upper bound of the probability of failure when decoding LRPC codes.
Οptimisatiοn des stratégies d'anticipatiοn lοrs des cοups de pieds arrêtés en fοοtball
Doctorant·e
LIBREAU Clement
Direction de thèse
BENGUIGUI Nicolas (Directeur·trice de thèse)
Date de la soutenance
10/12/2024 à 14:00
Lieu de la soutenance
Université Caen Normandie
Rapporteurs de la thèse
CRAIG CATHY COLERAINE - UNIVERSITY OF ULSTER
MONTAGNE GILLES Aix-Marseille université
Membres du jurys
BENGUIGUI Nicolas,
,
UCN - Université de Caen Normandie
BUEKERS MARTINUS,
,
LEUVEN - KATHOLIEKE UNIVERSITEIT
CRAIG CATHY,
,
COLERAINE - UNIVERSITY OF ULSTER
MONTAGNE GILLES,
,
Aix-Marseille université
RIOULT Francois,
Maître de conférences,
UCN - Université de Caen Normandie
ZOUDJI BACHIR,
,
Université polytechnique Hauts de France
Résumé
Dans le sport moderne, l’analyse scientifique des performances s’est largement développée. Dans le football, ces analyses apportent de plus en plus de données à haut potentiel pour l’optimisation des performances. C’est le cas notamment pour l’analyse des performances sur coups de pieds arrêtés et particulièrement des corners, ce qui permet aujourd’hui de disposer de nombreuses données sur ces phases de jeu pour mieux les comprendre et potentiellement les améliorer à l’entrainement. Il faut noter que la plupart des études portent sur le football masculin et qu’il y a un vrai manque pour le football féminin. De plus, il existe très peu d’études qui ont abordé les possibilités d’amélioration des performances à partir de ces bases de données. Dans le cadre de cette thèse CIFRE, réalisée en collaboration entre l'Université de Caen-Normandie et le club de football du Montpellier Hérault Sport Club (MHSC), où je suis rattaché à l'équipe professionnelle féminine, nous avons structuré notre démarche empirique en nous appuyant sur la démarche d’analyse de la performance experte proposée par Williams et Ericsson (2005). Cette approche repose sur trois étapes : la capture de la performance experte, l’identification des mécanismes sous-jacents qui expliquent cette performance, et l'examen des processus d’entrainement qui contribuent au développement de cette expertise. Dans ce cadre, nous avons mené une première étude visant à analyser les différents corners tirés lors des matchs de championnat afin d'identifier les variables permettant de maximiser la performance en termes de tirs et de buts. Les meilleures performances sont réalisées quand le corner est tiré avec un effet rentrant (c’est-à-dire avec une courbe qui se rapproche du but) dans les zones du premier poteau et du point de penalty. Ces résultats ont ensuite été exploités dans le but d’améliorer la performance en mettant en place deux phases d’entraînement distinctes. La première phase consistait en un protocole d’entraînement global sur le terrain avec l'équipe féminine du MHSC, visant à optimiser leur performance lors des corners pendant les matchs de championnat. La seconde phase reposait sur un entraînement spécifique basé sur l’utilisation de la vidéo. Durant cette phase, les joueuses ont été entrainées avec des vidéos de corners filmées à la première personne dans lesquelles elles devaient de prédire la zone d'arrivée du ballon après occultation de la dernière partie de la trajectoire. L'objectif de ces deux phases d’entraînement était d'améliorer leur performance à travers l’optimisation de leurs capacités perceptivo-décisionnelles et motrices. Cela a non seulement permis d’améliorer les performances des joueuses lors des corners à l’entraînement, aussi dans les performances en matchs officiels. Ces résultats confirment le potentiel de ces protocoles d'entraînement et contribuent à une meilleure compréhension des stratégies d'anticipation, notamment en ce qui concerne la coordination avec la joueuse qui tire le corner et la prédiction des trajectoires de ballon.
Abstract
In modern sport, the scientific analysis of performance has developed considerably. In football, these analyses are providing more and more data with high potential for optimising performance. This is particularly the case for the analysis of set-piece performance, and corner kicks in particular, which means that we now have a wealth of data on these phases of the game, enabling us to understand them better and potentially improve them in training. It should be noted that most studies focus on men's football and that there is a real lack of data on women's football. In addition, there are very few studies that have looked at the potential for improving performance using these databases. As part of this CIFRE thesis, carried out in collaboration between the University of Caen-Normandie and the Montpellier Hérault Sport Club (MHSC) football club, where I am attached to the women's professional team, we structured our empirical approach based on the expert performance analysis approach proposed by Williams and Ericsson (2005). This approach is based on three stages: capturing expert performance, identifying the underlying mechanisms that explain this performance, and examining the training processes that contribute to the development of this expertise. Within this framework, we conducted an initial study aimed at analysing the various corners taken during league matches in order to identify the variables that maximise performance in terms of shots and goals. The best performances were achieved when the corner was taken with an inward curve (i.e. with a curve approaching the goal) in the areas of the near post and the penalty spot. These results were then used to improve performance by implementing two separate training phases. The first phase consisted of a comprehensive on-field training protocol with the MHSC women's team, aimed at optimising their performance during penalty corners in league matches. The second phase involved specific training based on the use of video. During this phase, the players were trained with videos of corners filmed in the first person to predict the ball’s arrival zone after the final part of the trajectory has been occluded. The aim of these two training phases was to improve their performance by optimising their perceptual-decisional and motor skills. This not only improved the players' performance in training corners, but also their performance in official matches. These results confirm the potential of these training protocols and contribute to a better understanding of anticipation strategies, particularly in terms of coordination with the player taking the corner and predicting ball trajectories.
Enrichissement et alignement sémantique d'οntοlοgies biοmédicales par mοdèles de langue
ABDEDDAIM SAID,
,
URN - Université de Rouen Normandie
ABROUK LYLIA,
,
Universite Bourgogne Europe
LECROQ THIERRY,
,
URN - Université de Rouen Normandie
SOUALMIA FATIMA,
,
URN - Université de Rouen Normandie
TANNIER XAVIER,
,
Sorbonne Universite
TROJAHN CASSIA,
,
Universite Toulouse 2 Jean Jaures
Résumé
La première partie de cette thèse traite de la conception de modèles neuronaux siamois entraînés pour la similarité sémantique entre textes biomédicaux et de leur application à des tâches de TAL sur des documents biomédicaux. L’entraînement de ces modèles a été réalisé en plongeant les titres et résumés du corpus PubMed avec le thésaurus MeSH dans un même espace de représentation. Dans la seconde partie nous utilisons ces modèles pour aligner et enrichir les terminologies de l’UMLS (Unified Medical Language System) et automatiser l’intégration de nouvelles relations entre concepts similaires provenant notamment de maladies (DOID), de médicaments (DRON) et de symptômes. Ces relations enrichies permettent d’améliorer l’exploitation de ces ontologies, facilitant ainsi leur utilisation dans diverses applications cliniques et scientifiques. Nous proposons de plus des approches de validation à l’aide des ressources telles que les LLMs, l’OpenFDA, le Métathésaurus et le réseau sémantique de l’UMLS que nous complétons par la validation manuelle d’experts du domaine.
Abstract
The first part of this thesis addresses the design of siamese neural models trained for semantic similarity between biomedical texts and their application to NLP tasks on
biomedical documents. The training of these models was performed by embedding the titles and abstracts from the PubMed corpus along with the MeSH thesaurus into a
common space. In the second part, we use these models to align and enrich the terminologies of UMLS (Unified Medical Language System) and automate the integration
of new relationships between similar concepts, particularly from diseases (DOID), drugs (DRON), and symptoms. These enriched relationships enhance the usability of
these ontologies, thereby facilitating their application in various clinical and scientific domains. Additionally, we propose validation approaches using resources such
as LLMs, OpenFDA, the UMLS Metathesaurus, and the UMLS semantic network, supplemented by manual validation from domain experts.
ADAM SÉBASTIEN (Directeur·trice de thèse)
CHATELAIN CLEMENT (Co-directeur·trice de thèse)
Date de la soutenance
06/12/2024 à 13:30
Lieu de la soutenance
UFR Sciences et Techniques, Amphithéâtre D, Av. de l'Université 76800 Saint-Étienne-du-Rouvray
Rapporteurs de la thèse
RAGOT NICOLAS Universite de Tours
RAMEL JEAN-YVES Université Savoie Mont Blanc
Membres du jurys
ADAM SÉBASTIEN,
,
URN - Université de Rouen Normandie
BRUN LUC,
,
ENSICAEN
CHATELAIN CLEMENT,
,
INSA Rouen Normandie
RAGOT NICOLAS,
,
Universite de Tours
RAMEL JEAN-YVES,
,
Université Savoie Mont Blanc
VERNET MATHILDE,
,
Universite Avignon Pays du Vaucluse
Résumé
Ce manuscrit présente les recherches menées dans le cadre d'une thèse CIFRE réalisée en partenariat entre le LITIS et Saagie. Les représentations à base de Graphes Dynamiques (DG), qui intègrent à la fois des informations topologiques et temporelles, sont de plus en plus utilisées pour modéliser des systèmes dynamiques tels que les réseaux sociaux, les systèmes de recommandation et les réseaux de transactions. Les réseaux de neurones sur graphes dynamiques (DGNN) sont récemment devenus l'approche à l'état de l’art dans ce domaine, avec une multitude de modèles proposés. Cependant, l'hétérogénéité et la complexité des DGs présentent des défis significatifs dans la formulation des tâches prédictives et la catégorisation des architectures DGNNs.
Dans cette thèse, nous abordons d'abord le manque d'un cadre global pour définir et catégoriser les tâches prédictives sur les graphes dynamiques. Nous proposons une taxonomie qui prend en compte des facteurs tels que le graphe dynamique soit en temps discret ou en temps continu, la nature transductive ou inductive de la tâche, et la granularité de la sortie. Cette taxonomie clarifie les distinctions entre les différents contextes d'apprentissage sur les graphes dynamiques et les aligne avec les applications et jeux de données pertinents.
En nous appuyant sur cette base, nous explorons la conception de modèles statistiques capables d'extraire les informations clés des graphes dynamiques. Nous introduisons une taxonomie des modèles DGNNs basée sur la manière dont ils intègrent l'information temporelle et examinons leur compatibilité avec différents contextes d'apprentissage, fournissant ainsi des pistes pour la conception et l'optimisation des DGNNs.
Malgré les avancées dans la conception des DGNNs, de nombreux encodeurs de graphes ont une expressivité limitée. Les convolutions de graphes conçues spectralement, connues pour offrir une plus grande expressivité sur les graphes statiques en filtrant les valeurs propres du Laplacien pour calculer les noyaux de convolution, restent largement inexplorées sur les graphes dynamiques en temps discret (DTDG). Pour améliorer l'expressivité des DGNNs, nous introduisons le Dynamic Spectral-Parsing Graph Neural Network (DspGNN), un nouveau modèle qui optimise la convolution de graphes statiques conçue spectralement sur les DTDGs et qui répond aux défis computationnels de la décomposition spectrale sur de grands DTDGs. Les résultats expérimentaux montrent que DspGNN surpasse les modèles de référence sur les tâches de régression d'attributs d'arêtes et atteint des performances à l'état de l'art sur les tâches de prédiction de liens.
Enfin, nous abordons la problématique de l'encodage des nouveaux nœuds émergents dans les graphes dynamiques sans attributs, une situation courante dans les tâches de détection d'anomalies. Nous proposons le Dual-Contextual Inductive Dynamic Graph Transformer (DCIDGT), qui capture à la fois les contextes global et local pour la détection d'anomalies. Au cœur de cette approche se trouve notre mécanisme d'Accumulative Causal Walk Alignment (ACWA), assurant l'alignement sémantique des embeddings de nœuds à travers les instantanés en résolvant le problème d'Orthogonal Procrustes. Les résultats expérimentaux montrent que DCIDGT surpasse significativement les modèles de référence dans la tâche de détection d'anomalies sur les arêtes, ouvrant de nouvelles perspectives pour gérer les nouveaux nœuds émergents ou les attributs incomplets dans les graphes dynamiques.
Abstract
This manuscript presents the research carried out within the framework of the CIFRE thesis conducted in partnership between LITIS and Saagie. Dynamic graph representations, integrating both topological and temporal information, are increasingly used to model dynamic systems such as social networks, recommender systems, and transaction networks. Dynamic Graph Neural Networks (DGNN) have become the state-of-the-art approach in this area, and a plethora of models have recently been proposed. However, the heterogeneity and complexity of dynamic graphs present significant challenges in formulating predictive tasks and categorising DGNN architectures.
In this thesis, we first address the lack of a comprehensive framework for defining and categorising predictive tasks on dynamic graphs by proposing a taxonomy that considers factors including whether the graph is in discrete or continuous time, whether the task is transductive or inductive, and the output granularity. This taxonomy clarifies distinctions between dynamic graph learning settings and aligns them with relevant applications and datasets.
Building upon this foundation, we explore the design of statistical models that learn key information from dynamic graphs. We introduce a taxonomy of DGNN models based on how they incorporate temporal information and examine their compatibility with different learning settings, providing guidelines for designing and optimising DGNNs.
Despite advances in the design of DGNNs, many graph encoders have limited expressive power. Spectral-designed graph convolutions, known to provide greater expressiveness on static graphs by filtering the Laplacian eigenvalues to compute convolutional kernels, remain largely unexplored on Discrete Time Dynamic Graphs (DTDG). To improve the expressiveness of DGNNs, we introduce the Dynamic Spectral-Parsing Graph Neural Network (DspGNN), a novel model that optimises spectral-designed static graph convolution on DTDGs and addresses the computational challenges of eigendecomposition on large DTDGs. Experimental results show that DspGNN outperforms baseline models on edge attribute regression tasks and achieves state-of-the-art performance on link prediction tasks.
Finally, we tackle unseen node encoding in unattributed dynamic graphs, which is a common problem in anomaly detection tasks. We propose the Dual-Contextual Inductive Dynamic Graph Transformer (DCIDGT), which effectively captures both global and local contexts for anomaly detection. Central to this approach is our proposed Accumulative Causal Walk Alignment (ACWA) mechanism, ensuring semantic alignment of random walk-based node embeddings across snapshots by solving the Orthogonal Procruste problem. Experimental results show that DCIDGT significantly outperforms existing baselines on the edge anomaly detection task, opening new avenues for handling newly emerging nodes or incomplete node attributes in dynamic graphs.
Generatiοn and Analysis οf Dynamic Graphs
Doctorant·e
BRIDONNEAU Vincent
Direction de thèse
GUINAND FREDERIC (Directeur·trice de thèse)
PIGNE YOANN (Co-directeur·trice de thèse)
PIGNE YOANN (Co-encadrant·e de thèse)
BUI-XUAN BINH-MINH,
,
Sorbonne Universite
GAITO SABRINA,
,
UNIVERSITE DE MILAN
GUINAND FREDERIC,
,
ULHN - Université Le Havre Normandie
INTERDONATO ROBERTO,
,
CIRAD MONTPELLIER
PIGNE YOANN,
,
ULHN - Université Le Havre Normandie
Résumé
La nature et les sociétés humaines offrent de nombreux exemples de systèmes composés d'entités qui interagissent, communiquent ou sont simplement connectées les unes aux autres.
La théorie des graphes offre un excellent formalisme pour modéliser ces systèmes complexes, allant des réseaux sociaux aux systèmes biologiques.
La plupart des phénomènes observés dans ces réseaux peuvent s'exprimer sous forme de propriétés sur les graphes.
On peut notamment citer le phénomène du « petit monde » ou les réseaux dits « sans échelle ».
Comprendre les mécanismes sous-jacents à leur évolution est essentiel pour saisir les dynamiques de ces réseaux.
Différents mécanismes existent pour reproduire les propriétés observées.
Parmi eux, on peut citer l'attachement préférentiel, utilisé notamment par le modèle de Barabasi-Albert (BA), qui permet de produire des séquences de graphes croissants sans échelle.
Dans une direction parallèle, on peut également étendre le concept de graphe en y ajoutant une dimension temporelle.
Dans ce cas, les propriétés statiques des graphes sont retravaillées pour tenir compte de l'évolution des graphes dans le temps.
Par exemple, on peut citer la notion de trajet qui, semblable à celle de chemin, traduit la possibilité de se déplacer d'un sommet à un autre en respectant des contraintes temporelles.
De même que dans le cas des réseaux complexes, la capacité à générer des graphes temporels est étudiée afin de produire des graphes aux propriétés spécifiques.
On peut par exemple évoquer le modèle Edge-Markovian Graph, un processus stochastique permettant de produire des graphes et d’étudier des problèmes de communication.
L'observation de ces mécanismes de génération donne naissance à la problématique de cette thèse, qui réside dans l'étude de processus itératifs de génération de graphes temporels.
Lorsqu'un graphe est obtenu par itérations successives d'un tel mécanisme, on parle d'un graphe dynamique.
Cette dénomination met en avant l'aspect itératif du processus pour produire une séquence ordonnée de graphes.
Une question nous a particulièrement intéressés dans le cadre de ce travail : que se passe-t-il lorsqu’un générateur n'est soumis à aucune contrainte, notamment en ce qui concerne l'évolution du nombre de sommets au fil du temps ?
Cette situation soulève deux problématiques : la possibilité qu'un processus conduise à des graphes périodiques au-delà d'un certain moment et la quantification des changements entre deux étapes consécutives du processus.
Pour répondre à ces interrogations, nous avons introduit deux métriques.
La première, que nous avons appelé sustainability, et que l'on peut traduire par pérennité, est une mesure qualitative : un générateur est dit sustainable s'il produit des graphes qui ne deviennent ni vides ni périodiques.
La seconde métrique, le DynamicScore, quantifie les changements entre deux instants successifs, à la fois au niveau des sommets (V-DynamicScore) et des arêtes (E-DynamicScore).
Pour démontrer la pertinence de la notion de pérennité, nous avons défini et étudié un générateur de graphes mettant en évidence les nombreux défis rencontrés lors de l'exploration de cette notion.
En ce qui concerne le DynamicScore, nous l'avons testé sur divers générateurs ainsi que sur des données réelles, démontrant sa capacité à capturer la dynamique d’un réseau, qu’il soit artificiel ou réel.
L’étude de ces deux concepts a ouvert la voie à de nombreuses nouvelles questions et renforcé les liens entre l’analyse des réseaux complexes et la théorie des graphes temporels.
Abstract
In this thesis, we investigate iterative processes producing a flow of graphs.
These processes find applications both in complex networks and time-varying graphs.
Starting from an initial configuration called a seed, these processes produce a continuous flow of graphs.
A key question arises when these processes impose no constraints on the size of the generated graphs: under what conditions can we ensure that the graphs do not become empty? And how can we account for the changes between successive steps of the process?
To address the first question, we introduced the concept of sustainability, which verifies whether an iterative process is likely to produce graphs with periodic behaviors.
We defined and studied a graph generator that highlights the many challenges encountered when exploring this notion.
Regarding the second question, we designed a metric to quantify the changes occurring between two consecutive steps of the process.
This metric was tested on various generators as well as on real-world data, demonstrating its ability to capture the dynamics of a network, whether artificial or real.
The study of these two concepts has opened the door to many new questions and strengthened the connections between complex network analysis and temporal graph theory.