Actualités Offres de thèses Soutenances actuelles

Soutenances autorisées pour l'ED « École Doctorale Mathématiques, Information, Ingénierie des Systèmes » (ED 590 MIIS)

Liste des soutenances actuelles 51

Apprοches Μοnο et Bi-οbjective pοur l'Οptimisatiοn Ιntégrée des Ροstes d'Amarrage et des Grues de Quai dans les Οpératiοns de Τransbοrdement

Doctorant·e
AL SAMROUT Marwa
Direction de thèse
YASSINE ADNAN (Directeur·trice de thèse)
Date de la soutenance
21/11/2024 à 14:00
Lieu de la soutenance
Bâtiment PIL (à coté de l'ISEL), 1er étage, salles 127-128-129
Rapporteurs de la thèse
FONLUPT CYRIL ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
ZEDDINI BESMA CY TECH CERGY PARIS
Membres du jurys
ALABBOUD HASSAN, , UNIVERSITE LIBANAISE
DIDI BIHA MOHAMED, , Université de Caen Normandie (UCN)
FONLUPT CYRIL, , ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
NAJA HALA, , UNIVERSITE LIBANAISE
SBIHI ABDELKADER, , BUSINESS AND MANAGEMENT SCHOOL EC SUP INT PR MANAGEMENT
YASSINE ADNAN, , Université Le Havre Normandie (ULHN)
ZEDDINI BESMA, , CY TECH CERGY PARIS
Résumé
Le transport maritime international est vital pour le commerce mondial, représentant plus de 85 % des échanges, avec 10,5 milliards de tonnes transportées chaque année. Ce mode de transport est le plus économique et durable, contribuant seulement à 2,6 % des émissions de CO2. En France, le secteur maritime représente 1,5 % du PIB et près de 525 000 emplois. Les ports maritimes, cruciaux pour la chaîne logistique, facilitent le transbordement des marchandises et adoptent de plus en plus des solutions numériques basées sur l'intelligence artificielle pour améliorer leur efficacité. La France compte onze Grands ports maritimes, dont sept en Métropole. La thèse se concentre sur l’optimisation des terminaux à conteneurs pour améliorer l’efficacité et la performance des ports.Ce mémoire aborde la problématique de la planification des postes d’accostage et de l’activation des portiques dans les terminaux à conteneurs des ports maritimes, en réponse aux changements récents dans la logistique maritime, tels que l’arrivée de méga-navires et l’automatisation. Il souligne les lacunes dans la littérature existante et propose une analyse approfondie des défis actuels. Le document se divise en trois chapitres : Le premier chapitre explore l’histoire de la conteneurisation, les types de conteneurs, et les défis de la planification opérationnelle. Il se concentre sur le problème d’attribution des postes d’amarrage (BAP), ses méthodes de résolution et l’intégration de l’intelligence artificielle (IA) pour optimiser les processus logistiques. Le 2ème chapitre introduit le problème d'allocation dynamique avec transbordement ship-to-ship. Il propose un programme linéaire en nombres entiers mixtes (MILP) pour optimiser l’ordonnancement d’accostage et le transbordement entre navires. L’objectif est de réduire les temps de séjour des navires dans le terminal, ainsi que les pénalités dues aux retards des navires, et de décider du mode de transbordement nécessaire. La méthode combine une heuristique de type packing et un algorithme génétique amélioré, démontrant une efficacité dans la réduction des temps de séjour des navires. Nous avons effectué une analyse statistique pour identifier les paramètres de contrôle efficaces du GA, puis nous avons appliqué cet algorithme avec les paramètres de contrôle déterminés pour réaliser des expériences numériques sur des instances générées aléatoirement. De plus, nous avons réalisé une étude comparative afin d’évaluer différents opérateurs de croisement, en utilisant le test d’analyse de variance (ANOVA). Ensuite, nous avons présenté une série d’exemples basés sur des données aléatoires, résolus à l’aide du solveur CPLEX, afin de confirmer la validité du modèle proposé. La méthode proposée est capable de résoudre le problème dans un temps de calcul acceptable pour des instances de taille moyenne et grande. Le dernier chapitre présente un problème intégré d’allocation des postes d’amarrage et des grues, avec un focus sur le transbordement ship-to-ship. Trois approches sont proposées . La première approche utilise l'algorithme génétique NSGA-III, complété par une analyse statistique pour optimiser les paramètres et évaluer différents opérateurs de croisement. En analysant des données de la base AIS, des tests numériques montrent l’efficacité de cette méthode au port du Havre, avec des résultats satisfaisants et un temps de calcul raisonnable. La deuxième approche implique deux modèles de régression, Gradient Boosting Regression (GBR) et Random Forest Regression (RFR), entraînés sur des caractéristiques sélectionnées. La méthodologie inclut des étapes de prétraitement et l'optimisation des hyperparamètres. Bien que NSGA-III offre la meilleure précision, il nécessite un temps d'exécution plus long. En revanche, GBR et RFR, bien que légèrement moins précis, améliorent l’efficacité, soulignant le compromis entre précision et temps d'exécution dans les applications pratiques.
Abstract
International maritime transport is vital for global trade, representing over 85% of exchanges, with 10.5 billion tons transported each year. This mode of transport is the most economical and sustainable, contributing only 2.6% of CO2 emissions. In France, the maritime sector accounts for 1.5% of GDP and nearly 525,000 jobs. Maritime ports, crucial for the logistics chain, facilitate the transshipment of goods and increasingly adopt digital solutions based on artificial intelligence to improve their efficiency. France has eleven major seaports, seven of which are located in mainland France. The thesis focuses on optimizing container terminals to enhance the efficiency and performance of ports. It addresses the issues of berth allocation planning and crane activation in container terminals in response to recent changes in maritime logistics, such as the arrival of mega-ships and automation. It highlights gaps in the existing literature and offers an in-depth analysis of current challenges. The document is divided into three chapters: The first chapter explores the history of containerization, types of containers, and challenges in operational planning. It focuses on the berth allocation problem (BAP), its resolution methods, and the integration of artificial intelligence (AI) to optimize logistical processes. The second chapter introduces the dynamic allocation problem with ship-to-ship transshipment. It proposes a mixed-integer linear program (MILP) to optimize the berthing schedule and transshipment between vessels. The objective is to reduce vessel stay times in the terminal, as well as penalties due to vessel delays, and to determine the necessary transshipment method. The method combines a packing-type heuristic and an improved genetic algorithm, demonstrating effectiveness in reducing vessel stay times. We conducted a statistical analysis to identify effective control parameters for the GA, then applied this algorithm with the determined control parameters to perform numerical experiments on randomly generated instances. Additionally, we conducted a comparative study to evaluate different crossover operators using ANOVA. We then presented a series of examples based on random data, solved using the CPLEX solver, to confirm the validity of the proposed model. The proposed method is capable of solving the problem in an acceptable computation time for medium and large instances. The final chapter presents an integrated berth and crane allocation problem, focusing on ship-to-ship transshipment. Three approaches are proposed. The first approach uses the NSGA-III genetic algorithm, supplemented by a statistical analysis to optimize parameters and evaluate different crossover operators. By analyzing AIS database data, numerical tests demonstrate the effectiveness of this method at the port of Le Havre, yielding satisfactory results within a reasonable computation time. The second approach involves two regression models, Gradient Boosting Regression (GBR) and Random Forest Regression (RFR), trained on selected features. The methodology includes preprocessing steps and hyperparameter optimization. While NSGA-III achieves the highest accuracy, it requires a longer execution time. In contrast, although GBR and RFR are slightly less precise, they significantly improve efficiency, highlighting the trade-off between accuracy and execution time in practical applications.

Architectures multi-échelles de type encοdeur-décοdeur pοur la stéréοphοtοmétrie

Doctorant·e
HARDY Clement
Direction de thèse
TSCHUMPERLE DAVID (Directeur·trice de thèse)
Date de la soutenance
18/11/2024 à 09:30
Lieu de la soutenance
Salle des thèses, UFR Sciences, Campus 2, Caen
Rapporteurs de la thèse
ALMANSA ANDRÈS Directeur de recherche UNIVERSITE PARIS 5 UNIVERSITE PARIS DESCARTES
DUROU JEAN-DENIS Maître de conférences HDR Université de Toulouse 3 - Paul Sabatier
Membres du jurys
ALMANSA ANDRÈS, Directeur de recherche, UNIVERSITE PARIS 5 UNIVERSITE PARIS DESCARTES
BRINGIER BENJAMIN, Maître de conférences, Université de Limoges
DIGNE JULIE, , Université Claude Bernard - Lyon 1
DUROU JEAN-DENIS, Maître de conférences HDR, Université de Toulouse 3 - Paul Sabatier
QUEAU Yvain, Chargé de recherche, Université de Caen Normandie (UCN)
TSCHUMPERLE DAVID, , CNRS
Résumé
La stéréophotométrie est une technique de reconstruction 3D de la surface d'un objet. De plus en plus de recherches s'intéressent à ce problème qui se veut prometteur dans le monde industriel. En effet, la stéréophotométrie peut être utilisée pour détecter les défauts d'usinage de pièces mécaniques ou pour de la reconnaissance faciale par exemple. Cette thèse explore les méthodes d'apprentissage profond pour la stéréophotométrie, notamment les différents aspects liés aux bases de données d'entraînement et aux architectures considérées. De manière générale, la sur-paramétrisation d'un réseau de neurones est souvent suffisante pour supporter la diversité des problèmes rencontrés. La base de données d'entraînement est alors considérée comme le point clé permettant de conditionner le réseau au problème traité. Par conséquent, pour répondre à ce besoin, nous proposons une nouvelle base de données d'entraînement synthétique. Cette base de données considère une très grande variété de géométries, de textures, de directions ou conditions lumineuses mais également d'environnements, permettant donc de générer un nombre de situation quasiment infini. Le second point décisif d'une bonne reconstruction concerne le choix de l'architecture. L'architecture d'un réseau doit assurer une bonne capacité de généralisation sur de nouvelles données pour générer de très bons résultats sur des données inédites. Et ce, quelle que soit l'application. En particulier, pour la stéréophotométrie, l'enjeu est d'être capable de reconstruire des images très haute résolution afin de ne pas perdre de détails. Nous proposons alors une architecture multi-échelles de type encodeur-décodeur afin de répondre à ce problème. Dans un premier temps, nous proposons une architecture fondée sur les réseaux convolutionnels pour répondre au problème de stéréophotométrie calibrée, i.e. quand la direction lumineuse est connue. Dans un second temps, nous proposons une version fondé sur les Transformers afin de répondre au problème de stéréophotométrie universelle. C'est-à-dire que nous sommes en capacité de gérer n'importe quel environnement, direction lumineuse, etc., sans aucune information préalable. Finalement, pour améliorer les reconstructions sur des matériaux difficiles (translucides ou brillants par exemple), nous proposons une nouvelle approche que nous appelons ``faiblement calibrée'' pour la stéréophotométrie. Dans ce contexte, nous n'avons qu'une connaissance approximative de la direction d'éclairage. L'ensemble des pistes que nous avons explorées ont conduit à des résultats convaincants, à la fois quantitatifs et visuels sur l'ensemble des bases de données de l'état-de-l'art. En effet, nous avons pu observer une amélioration notable de la précision de reconstruction des cartes de normales, contribuant ainsi à avancer l'état de l'art dans ce domaine.
Abstract
Photometric stereo is a technique for 3D surface reconstruction of objects. This field has seen a surge in research interest due to its potential applications in industry. Specifically, photometric stereo can be employed for tasks such as detecting machining defects in mechanical components or facial recognition. This thesis delves into deep learning methods for photometry stero, with a particular focus on training data and network architectures. While neural network over-parameterization is often adequate, the training dataset plays a pivotal role in task adaptation. To generate a highly diverse and extensible training set, we propose a new synthetic dataset. This dataset incorporates a broad spectrum of geometric, textural, lighting, and environmental variations, allowing for the creation of nearly infinite training instances. The second decisive point of a good reconstruction concerns the choice of architecture. The architecture of a network must ensure a good generalization capacity on new data to generate very good results on unseen data. And this, regardless of the application. In particular, for the photometric stereo problem, the challenge is to be able to reconstruct very high-resolution images in order not to lose any details. We therefore propose a multi-scale encoder-decoder architecture to address this problem. We first introduce a convolutional neural network architecture for calibrated photometric stereo, where the lighting direction is known. To handle unconstrained environments, we propose a Transformers-based approach for universal photometric stereo. Lastly, for challenging materials shiny like translucent or shiny surfaces, we introduce a ``weakly calibrated'' approach that assumes only approximate knowledge of the lighting direction. The approaches we have investigated have consistently demonstrated strong performance on standard benchmarks, as evidenced by both quantitative metrics and visual assessments. Our results, particularly the improved accuracy of reconstructed normal maps, represent a significant advancement in photometric stereo.

Grοupes de classes et de Ροlya d'extensiοns abéliennes

Doctorant·e
EMMELIN Etienne
Direction de thèse
ANGLES Bruno (Directeur·trice de thèse)
Date de la soutenance
15/11/2024 à 14:00
Lieu de la soutenance
Université de Caen, Campus 2, Bâtiment S3, Salle des Thèses
Rapporteurs de la thèse
MAIRE CHRISTIAN Université Besançon Franche Comté
PERRET MARC Universite Toulouse 2 Jean Jaures
Membres du jurys
ANGLES Bruno, , Université de Caen Normandie (UCN)
BOSSER Vincent, Maître de conférences, Université de Caen Normandie (UCN)
BOUCHER DELPHINE, Maître de conférences HDR, Université de Rennes
CHABERT JEAN-LUC, Professeur émérite, UNIVERSITE AMIENS PICARDIE JULES VERNE
MAIRE CHRISTIAN, , Université Besançon Franche Comté
PELLARIN Federico, , ROME - UNIVERSITA ROMA "LA SPIENZA"
PERRET MARC, , Universite Toulouse 2 Jean Jaures
Résumé
Pour des extensions galoisiennes $K/\mathbb{Q}$, le groupe de P\'olya de $K$ est un sous-groupe du groupe de classes d'idéaux de $K$ engendré par les idéaux ambiges. On démontre dans cette thèse l'existence d'une infinité d'extensions abéliennes $K/\mathbb{Q}$, dont le groupe de P\'olya est isomorphe à un groupe abélien fini $G$, prescrit. Pour cela on se ramène au cas des $l$-extensions cycliques et l'on utilise le théorème de structure des groupes abéliens finis. De plus, on étudie le comportement asymptotique du groupe de classes relatif d'extensions CM abéliennes $K/\mathbb{Q}$, défini comme étant le quotient du groupe de classes $Cl(K)$, par le groupe de P\'olya $Po(K)$ et l'on montre qu'il n'existe qu'un nombre fini de tels corps dont le groupe de classes relatif est trivial. Enfin, on démontre l'existence d'une infinité de corps quadratiques successifs en caractéristique strictement positive, dont le nombre de classes est divisible par un nombre premier, en montrant un analogue du théorème de Siegel pour les corps de fonctions.
Abstract
For Galois extensions $K/\mathbb{Q}$, the P\'olya group of $K$ is a subgroup of the ideal class group of $K$ generated by ambigous ideals. In this thesis, we prove the existence of infinitly many abelian extensions $K/\mathbb{Q}$, such that the P\'olya group of $K$ is isomorphic to a prescribed finite abelian group $G$. For this, we study the case of cyclic $l$-extensions and we show the existence using the theorem of finite abelian group structure. In addition, we study the asymptotic behavior of the relative class group of abelian CM extensions $K/\mathbb{Q}$, defined as the quotient of the class group $Cl(K)$ by the P\'olya group $Po(K)$ and we show that there exists a finite number of such fields whose relative class group is trivial. Finally, we prove the existence of infinitely many successive quadratic field in positive caracteristic, whose class number is divisible by a prime number, by showing an analogous of Siegel's theorem for function fields.

Unbalanced and Linear Οptimal Τranspοrt fοr Reliable Estimatiοn οf the Wasserstein Distance

Doctorant·e
MAHEY GUILLAUME
Direction de thèse
GASSO GILLES (Directeur·trice de thèse)
CHAPEL LAETITIA (Co-encadrant·e de thèse)
Date de la soutenance
13/11/2024 à 10:00
Lieu de la soutenance
INSA Rouen
Rapporteurs de la thèse
BONNEEL NICOLAS CNRS-Lyon1
DELON JULIE Université Paris Cité
Membres du jurys
BONNEEL NICOLAS, , CNRS-Lyon1
CAZELLES ELSA, , Institut de Recherche en informatique de Toulouse
CHAPEL LAETITIA, , Institut Agro Rennes-Angers
DELON JULIE, , Université Paris Cité
GASSO GILLES, , INSA de Rouen Normandie
NADJAHI KIMIA, , ENS ULM
RAKOTOMAMONJY ALAIN, , Criteo AI Lab
Résumé
Dans le contexte de l'apprentissage automatique, plusieurs problèmes peuvent se formuler comme des problèmes de comparaison entre distributions. La théorie mathématique du transport optimal permet une comparaison entre deux mesures de probabilité. Bien que très élégante en théorie, le transport optimal (TO) souffre de plusieurs inconvénients en pratique, notamment la charge de calcul, le risque de surapprentissage (overfitting) et sa sensibilité aux artefacts d'échantillonnage. Tout cela a motivé l'introduction de variantes à la fonction de perte associée au TO dans la communauté du machine learning. Dans cette thèse, nous proposons de nouvelles variantes afin, d'une part, de réduire la charge computationnelle et statistique et, d'autre part, la sensibilité aux artefacts d'échantillonnage de la perte TO. Pour ce faire, nous nous sommes appuyés sur les distributions intermédiaires introduites à la fois par les variantes de TO linéaire et de TO déséquilibré.
Abstract
In the context of machine learning, several problems can be formulated as distribution comparison problems. The mathematical theory of optimal transport allows for a comparison between two probability measures. Although very elegant in theory, optimal transport (OT) suffers from several practical drawbacks, notably the computational burden, the risk of overfitting, and its sensitivity to artifacts of sampling. All of this has motivated the introduction of variants to the loss function associated with OT in the machine learning community. In this thesis, we propose such variants in order, on one hand, to reduce the computational and statistical burden and, on the other hand, the sensitivity to sampling artifacts of the OT loss. To achieve this, we relied on intermediate distributions introduced by both the linear OT and unbalanced OT variants.

Νeural netwοrk based methοds fοr inverse prοblems: algοrithms and guarantees

Doctorant·e
BUSKULIC Nathan
Direction de thèse
FADILI Mohamed Jalal (Directeur·trice de thèse)
Date de la soutenance
12/11/2024 à 14:00
Lieu de la soutenance
Salle des thèses Sciences 3.
Rapporteurs de la thèse
AUJOL JEAN-FRANCOIS Universite de Bordeaux
DELON JULIE Université Paris Cité
Membres du jurys
AUJOL JEAN-FRANCOIS, , Universite de Bordeaux
CHOUZENOUX EMILIE, , INRIA Paris
DELON JULIE, , Université Paris Cité
FADILI Mohamed Jalal, , ENSICAEN
QUEAU Yvain, Chargé de recherche, Université de Caen Normandie (UCN)
SCHONLIEB CAROLA-BIBIANE, , University of CAMBRIDGE
VILLA SILVIA, , GENES - UNIVERSITA DI GENOVA
Résumé
Ce manuscrit est dédié à l'analyse des réseaux de neurones lorsqu'ils sont entraînés de manière non-supervisée pour résoudre des problèmes inverses. Ces méthodes sont devenues très populaires et développées empiriquement ces dernières années, avec des résultats qualitatifs impressionnants, mais leur compréhension théorique reste encore limitée, en particulier leurs garanties de reconstruction. Dans cette thèse, nous nous attelons à ce problème. A cette fin, la clé de voûte sera d'exploiter la régularisation implicite induite par la dynamique de la méthode d'optimisation. Ainsi, nous étudions les trajectoires des paramètres de ces réseaux de neurones lorsqu'ils sont entraînés avec différentes méthodes d'optimisation, et nous montrons comment cela amène diverses garanties liées aux problèmes inverses. Nous commençons par étudier l'optimisation par flot de gradient et son équivalent discret la descente de gradient, pour des fonctions de coûts suffisamment régulières et qui vérifient l'inégalité de Kurdyka-\L{}ojasiewicz. Nous montrons que sous une condition d'initialisation non-dégénérée, le réseau va converger vers une solution de risque empirique nul à un taux qui dépend explicitement de la fonction désingularisante de la fonction coût. Nous donnons aussi une borne d'arrêt anticipé qui empêche le sur-apprentissage du bruit. Nous montrons ensuite que sous une condition d'injectivité restreinte, une borne de reconstruction de l'objet original (e.g. signal/image, etc.) peut être obtenue. Dans un second temps, nous étendons les résultats précédents lorsque le réseau de neurones est optimisé avec un risque quadratique en utilisant une dynamique inertielle combinant un amortissement visqueux et un amortissement géométrique guidé par le Hessien. Nous démontrons que des vitesses de convergence accélérées et des garanties de reconstruction peuvent être obtenues avec un choix judicieux des paramètres de la dynamique inertielle mais au prix d'une condition d'initialisation plus subtile. Un algorithme inertiel est proposé par discrétisation de la dynamique continue en temps est ses garanties sont établies. Pour toutes ces méthodes d'optimisation, nous exhibons l'architecture nécessaire avec notamment une borne de sur-paramétrisation qui assure qu'un réseau deep inverse prior à deux couches va pouvoir bénéficier de toutes ces garanties avec grande probabilité. Nous vérifions numériquement tous nos résultats sur plusieurs instances, et décrivons des applications, notamment en shape-from-shading multivues.
Abstract
This manuscript is devoted to the analysis of neural networks when trained in an unsupervised way to solve inverse problems in finite dimension. While these methods have become popular and heavily developed in the last years, leading to some qualitatively impressive results, they are lacking a thorough theoretical understanding, in particular of their recovery guarantees. In this thesis, our goal is to partly close that gap. For this, the key idea is to exploit the implicit regularization induced by the dynamic of the optimization method. Therefore, we study the trajectories of neural networks parameters under different optimization methods, and show how this leads to various inverse problem related recovery guarantees. We first study optimization through continuous gradient-flow, and its discrete counterpart gradient descent, for general sufficiently smooth loss functions that obey the Kurdyka-Lojasiewicz inequality. We show that under a non-degenerate initialization condition, the neural network will converge to a zero empirical risk solution with a rate that depends explicitly on the desingularizing function of the loss. We also provide an early-stopping bound to avoid the overfitting of the noise. We then show that with an additional restricted injectivity constraint, a recovery bound of the original object (e.g. signal/image, etc.) can be obtained. Second, we extend the above results when training with the mean square error loss using an inertial dynamic combining viscous and geometric Hessian-driven damping, and show that faster convergence and recovery guarantees can be obtained with a wise choice of dynamic parameters at the cost of more subtle initialization conditions. An inertial/momentum algorithm is then derived as a discretization of the continuous dynamic, it is then studied and its guarantees are established. For all these optimization methods, we also give an overparametrization bound under which a two-layer deep inverse prior network can benefit from the above guarantees with high probability. We numerically verify our results on a large ensemble of experiments, and we also exemplify our findings on two applications, for instance on multi-view shape-from-shading.

A Dynamical System Ρerspective οn Stοchastic and Ιnertial Μethοds fοr Οptimizatiοn

Doctorant·e
MAULEN SOTO Rodrigo
Direction de thèse
FADILI Mohamed Jalal (Directeur·trice de thèse)
Date de la soutenance
08/11/2024 à 14:00
Lieu de la soutenance
Salle des thèses, Sciences 3
Rapporteurs de la thèse
BOT RADU IOAN Université de Vienne
RONDEPIERRE AUDE Inst Nat Sc Appliq Toulouse
Membres du jurys
ADLY SAMIR, , Université de Limoges
BOT RADU IOAN, , Université de Vienne
BOYER CLAIRE, Maître de conférences, Sorbonne Université
DOSSAL CHARLES, , Inst Nat Sc Appliq Toulouse
FADILI Mohamed Jalal, , ENSICAEN
OCHS PETER, , Université des Saarlandes
RONDEPIERRE AUDE, , Inst Nat Sc Appliq Toulouse
Résumé
Motivé par l'omniprésence de l'optimisation dans de nombreux domaines de la science et de l'ingénierie, en particulier dans la science des données, ce manuscrit de thèse exploite le lien étroit entre les systèmes dynamiques dissipatifs à temps continu et les algorithmes d'optimisation pour fournir une analyse systématique du comportement global et local de plusieurs systèmes du premier et du second ordre, en se concentrant sur le cadre convexe, stochastique et en dimension infinie d'une part, et le cadre non convexe, déterministe et en dimension finie d'autre part. Pour les problèmes de minimisation convexe stochastique dans des espaces de Hilbert réels séparables de dimension infinie, notre proposition clé est de les analyser à travers le prisme des équations différentielles stochastiques (EDS) et des inclusions différentielles stochastiques (IDS), ainsi que de leurs variantes inertielles. Nous considérons d'abord les problèmes convexes différentiables lisses et les EDS du premier ordre, en démontrant une convergence faible presque sûre vers les minimiseurs sous hypothèse d'intégrabilité du bruit et en fournissant une analyse globale et locale complète de la complexité. Nous étudions également des problèmes convexes non lisses composites utilisant des IDS du premier ordre et montrons que, sous des conditions d'intégrabilité du bruit, la convergence faible presque sûre des trajectoires vers les minimiseurs, et avec la régularisation de Tikhonov la convergence forte presque sûre des trajectoires vers la solution de norme minimale. Nous développons ensuite un cadre mathématique unifié pour analyser la dynamique inertielle stochastique du second ordre via la reparamétrisation temporelle et le moyennage de la dynamique stochastique du premier ordre, ce qui permet d'obtenir une convergence faible presque sûre des trajectoires vers les minimiseurs et une convergence rapide des valeurs et des gradients. Ces résultats sont étendus à des EDS plus générales du second ordre avec un amortissement visqueux et Hessien, en utilisant une analyse de Lyapunov spécifique pour prouver la convergence et établir de nouveaux taux de convergence. Enfin, nous étudions des problèmes d'optimisation déterministes non convexes et proposons plusieurs algorithmes inertiels pour les résoudre, dérivés d'équations différentielles ordinaires (EDO) du second ordre combinant à la fois un amortissement visqueux sans vanité et un amortissement géométrique piloté par le Hessien, sous des formes explicites et implicites. Nous prouvons d'abord la convergence des trajectoires en temps continu des EDO vers un point critique pour des objectives vérifiant la propriété de Kurdyka-Lojasiewicz (KL) avec des taux explicites, et génériquement vers un minimum local si l'objective est Morse. De plus, nous proposons des schémas algorithmiques par une discrétisation appropriée de ces EDO et montrons que toutes les propriétés précédentes des trajectoires en temps continu sont toujours valables dans le cadre discret sous réserve d'un choix approprié de la taille du pas.
Abstract
Motivated by the ubiquity of optimization in many areas of science and engineering, particularly in data science, this thesis exploits the close link between continuous-time dissipative dynamical systems and optimization algorithms to provide a systematic analysis of the global and local behavior of several first- and second-order systems, focusing on convex, stochastic, and infinite-dimensional settings on the one hand, and non-convex, deterministic, and finite-dimensional settings on the other hand. For stochastic convex minimization problems in infinite-dimensional separable real Hilbert spaces, our key proposal is to analyze them through the lens of stochastic differential equations (SDEs) and inclusions (SDIs), as well as their inertial variants. We first consider smooth differentiable convex problems and first-order SDEs, demonstrating almost sure weak convergence towards minimizers under integrability of the noise and providing a comprehensive global and local complexity analysis. We also study composite non-smooth convex problems using first-order SDIs, and show under integrability conditions on the noise, almost sure weak convergence of the trajectory towards a minimizer, with Tikhonov regularization almost sure strong convergence of trajectory to the minimal norm solution. We then turn to developing a unified mathematical framework for analyzing second-order stochastic inertial dynamics via time scaling and averaging of stochastic first-order dynamics, achieving almost sure weak convergence of trajectories towards minimizers and fast convergence of values and gradients. These results are extended to more general second-order SDEs with viscous and Hessian-driven damping, utilizing a dedicated Lyapunov analysis to prove convergence and establish new convergence rates. Finally, we study deterministic non-convex optimization problems and propose several inertial algorithms to solve them derived from second-order ordinary differential equations (ODEs) combining both non-vanishing viscous damping and geometric Hessian-driven damping in explicit and implicit forms. We first prove convergence of the continuous-time trajectories of the ODEs to a critical point under the Kurdyka-Lojasiewicz (KL) property with explicit rates, and generically to a local minimum under a Morse condition. Moreover, we propose algorithmic schemes by appropriate discretization of these ODEs and show that all previous properties of the continuous-time trajectories still hold in the discrete setting under a proper choice of the stepsize.

Cοntrôle et cοοrdinatiοn d'une flοtte de drοnes

Doctorant·e
PETITPREZ Etienne
Direction de thèse
GUINAND FREDERIC (Directeur·trice de thèse)
GUERIN FRANCOIS (Co-directeur·trice de thèse)
Date de la soutenance
07/11/2024 à 10:00
Lieu de la soutenance
Université du Havre Normandie
Rapporteurs de la thèse
DANOY GREGOIRE Université du Luxembourg
LABBANI-IGBIDA OUIDDAD Université de Limoges
Membres du jurys
AVANZINI PIERRE, , SQUARDRONE SYSTEM
CHAUMETTE SERGE, , UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
DANOY GREGOIRE, , Université du Luxembourg
FANTONI ISABELLE, , Nantes Université
GUERIN FRANCOIS, , Université Le Havre Normandie (ULHN)
GUINAND FREDERIC, , Université Le Havre Normandie (ULHN)
LABBANI-IGBIDA OUIDDAD, , Université de Limoges
Résumé
Le projet de thèse vise à contrôler et coordonner les actions d’un ensemble de drones autonomes, pour un fonctionnement en essaim. Trois applications clefs sont ciblées : — un problème d’inventaire d’entrepôts combinant un ensemble de robots terrestres et de drones, — un problème de mesure de la qualité de l’air (caractérisation de panaches de polluants), — un problème de déploiement de drones pour de multiples missions de surveillance sur de longues durées. Ces applications ajoutent aux difficultés liées à la robotique mobile collective un volet d’optimisation sous incertitude, la conception d’une forme d’intelligence collective et des objectifs de robustesse et de flexibilité de la flotte. Le travail de recherche a mené au développement de deux briques logicielles. La première, nommée Superviseur, gère le parc de drones. Cela comprend la création de missions, la répartition et la réallocation dynamique des robots dans les missions en suivant une logique d’aide à la décision. Il s’agit de l’implémentation d’un algorithme glouton définissant les ordonnancements des drones dans les missions selon le contexte, les objectifs et les ressources à disposition. La seconde, appelée Gestionnaire de Mission, assure la réalisation des missions et l’exécution des demandes du Superviseur- déclenchement de missions / réallocations. Ces développements ont été comparés sur le plan des performances théoriques au travers du cas d’application de l’inventaire d’entrepôt et démontrés en application sur des déploiements de multi-missions de surveillance. Les résultats montrent des preuves d’adaptabilité aux contexte divers et une robustesse aux aléas, fonctionnant sur une système réellement mis en œuvre. L’étude des essaims de drones pour le contrôle de la qualité de l’air a abouti au développement d’un algorithme de contrôle de formation plane de drones en trois dimensions. La méthode repose sur l’utilisation de forces virtuelles pour attirer et repousser les drones selon leur environnement. La formation est générée par l’utilisation des descripteurs de Fourier pour en décrire la forme. Les essais en simulations et en pratique relatent d’un maintien de la formation malgré les changements de silhouette de celle-ci et les extractions / insertions de drones.
Abstract
The thesis project aims to control and coordinate the actions of a set of autonomous drones, for swarm operation. Three key applications are targeted : — a warehouse inventory problem combining a set of ground robots and drones, — an air quality measurement problem (characterization of plumes), — a problem of deploying drones for multiple surveillance missions over long periods. These applications add to the collective mobile robotics difficulties the optimization under uncertainty, the design of a collective intelligence and fleet robustness and flexibility objectives. The research work led to the development of two software bricks. The first, named Supervisor, manages the drone fleet. This includes the creation of missions, and the dynamic distribution and reallocation of robots within missions, following a decision-support logic. This involves the implementation of a greedy algorithm defining the scheduling of drones in missions according to context, objectives and available resources. The second, called the Mission Manager, is responsible for carrying out the missions and executing the Supervisor’s requests- triggering missions / reallocations. These developments have been compared in terms of theoretical performance through the warehouse inventory application case, and demonstrated in application on multi-mission surveillance deployments. The results show evidence of adaptability to various contexts and robustness to hazards, operating on a system that has actually been implemented. The study of drone swarms for air quality monitoring has led to the development of a three-dimensional drone formation control algorithm. The method is based on the use of virtual forces to attract and repel drones according to their environment. The formation is generated by using Fourier descriptors to describe its shape. Simulation and practical tests show that the formation is maintained despite shape shifting and drone extractions/insertions.

Ιmage segmentatiοn and data apprοximatiοn: applicatiοns tο medicine, geοsciences and renewable energies.

Doctorant·e
KHAYRETDINOVA GUZEL
Direction de thèse
GOUT CHRISTIAN (Directeur·trice de thèse)
KUKSENKO SERGEY (Co-directeur·trice de thèse)
Date de la soutenance
02/11/2024 à 10:00
Lieu de la soutenance
LMI - FR CNRS 3335 - - M3 - 7600 St Etienne du Rouvray
Rapporteurs de la thèse
GUESSAB ALLAL Université de Pau et des Pays de l'Adour
RADA LAVDIE Bahcesehir University, Turquie
Membres du jurys
BARUCQ HELENE, , INRIA Bordeaux Sud Ouest
GOUT CHRISTIAN, , INSA de Rouen Normandie
GUESSAB ALLAL, , Université de Pau et des Pays de l'Adour
KUKSENKO SERGEY, , TUSUR, Russie
RADA LAVDIE, , Bahcesehir University, Turquie
Résumé
Cette thèse contient deux parties principales. Dans la première partie, nous proposons un nouveau modèle de segmentation d'images sous contraintes géométriques : nous améliorons les travaux antérieurs développés par Gout et al. [2008] en définissant une nouvelle condition initiale à partir des contraintes géométriques données par l'utilisateur. Nous définissons également une nouvelle modélisation mathématique, nous donnons le problème de minimisation correspondant, conduisant à une formulation variationnelle. Ce nouveau modèle permet d'envisager de nombreuses applications différentes depuis la segmentation d'images jusqu'à l'approximation de données. Des exemples numériques sont donnés. Dans la deuxième partie de ce travail, nous proposons une approximation de champ de vecteurs (représentant le vent par exemple), nous donnons toutes les étapes depuis la modélisation et approximation par Dm splines jusqu'à la visualisation par Matplotlib (et Python). Des exemples numériques sont donnés.
Abstract
This thesis contains two main parts. In the first part, we propose a new model for image segmentation under geometric constraints: we improve previous works developed by Gout et al. [2008] defining a new initial condition from the geometric constraints given by the user. We also define a new mathematical modelling, we give its corresponding minimization problem leading to a variational formulation. This new model makes it possible to consider many different applications from image segmentation to data approximation. Numerical examples are given. In the second part of this work, we propose a vector field approximation approximation, we give all the steps from the modelling and approximation using Dm splines to the visualization using Matplotlib (and Python). Numerical examples are given.

Estimatiοn οf Depressiοn Level frοm Τext: Symptοm-Based Apprοach, External Κnοwledge, Dataset Validity

Doctorant·e
MILINTSEVICH Kirill
Direction de thèse
DIAS Gael (Directeur·trice de thèse)
SIRTS KAIRIT (Co-directeur·trice de thèse)
Date de la soutenance
18/10/2024 à 09:30
Lieu de la soutenance
Salle des thèses, UFR Sciences 3, Campus 2, 6 boulevard Maréchal Juin, 14032 Caen
Rapporteurs de la thèse
GRABAR NATALIA Universite de Lille
KLINGER ROMAN Université Otto-Friedrich de Bamberg
Membres du jurys
BARBU EDUARD, Chercheur, Université de Tartu - Estonie
DAILLE BEATRICE, , Nantes Université
DIAS Gael, , Université de Caen Normandie (UCN)
GRABAR NATALIA, , Universite de Lille
KLINGER ROMAN, , Université Otto-Friedrich de Bamberg
MAUREL FABRICE, Maître de conférences, Université de Caen Normandie (UCN)
SIRTS KAIRIT, Maître de conférences, Université de Tartu - Estonie
TANNIER XAVIER, , Sorbonne Université
Résumé
Le trouble dépressif majeur (TDM) est l'un des troubles mentaux les plus répandus au monde, entraînant souvent une incapacité et un risque accru de suicide. La récente pandémie de coronavirus (COVID-19) a fait grimper le taux de dépression dans le monde entier. De plus, la stigmatisation et l'accès limité aux traitements entravent le diagnostic et les soins appropriés pour de nombreuses personnes. Des études préliminaires ont montré que les personnes déprimées et non déprimées utilisent un vocabulaire différent. Par exemple, les personnes déprimées ont tendance à utiliser davantage de mots négatifs ou émotionnels. Plus récemment, des modèles d'apprentissage profond ont été développés pour détecter la dépression à partir de textes. Cependant, la plupart des chercheurs ont traité la détection de la dépression comme une tâche de classification simple avec seulement deux étiquettes possibles : « déprimé » et « non déprimé ». Lorsqu'on considère deux personnes atteintes de dépression, il est important de noter qu'elles peuvent présenter des symptômes sous-jacents différents. Une personne peut souffrir d'insomnie et de difficultés de concentration, tandis qu'une autre peut présenter des changements d'appétit et une faible estime de soi. Ces personnes nécessitent des traitements différents, donc disposer d'informations sur les symptômes est essentiel. Dans cette thèse, nous avons développé une architecture de réseau neuronal qui prédit les symptômes de la dépression à partir de textes. Nous avons constaté que la prédiction des symptômes, plutôt qu'un simple diagnostic, était plus précise, tout en nous fournissant plus de détails. Nous avons encore amélioré le réseau de neurones en y introduisant des connaissances externes provenant de lexiques de sentiments et d'émotions. Nous avons utilisé une approche simple mais efficace qui consiste à marquer directement les mots des lexiques dans le texte. Enfin, en travaillant sur un jeu de données provenant des réseaux sociaux, nous avons constaté que le processus d’annotation était erroné. En conséquence, nous avons réannoté une partie de ce jeu de données avec l'aide d'un professionnel en santé mentale, démontrant ainsi l'importance de suivre les définitions médicales des symptômes et d'établir des directives claires pour l'annotation.
Abstract
Major Depressive Disorder (MDD) is one of the most prevalent mental disorders globally, often resulting in disability and an increased risk of suicide. The recent COVID-19 pandemic has made depression rates go up around the world. Moreover, stigma and limited treatment access hinder proper diagnosis and care for many. Early studies have found that depressed and non-depressed people use different vocabulary. For example, depressed people tend to use more negative or emotional words. More recently, deep learning models have been developed to detect depression from text. However, most researchers have treated depression detection as a simple classification task with only two possible labels: depressed and non-depressed. When considering two individuals with depression, it is important to note that they may exhibit different underlying symptoms. One person may experience insomnia and difficulty concentrating, while another may struggle with changes in appetite and low self-esteem. These people would require different treatments, so having information about the symptoms is essential. In this work, we developed a neural network that predicts depression symptoms from text. We found that predicting symptoms instead of a simple diagnosis was more accurate while giving us more details at the same time. We further improved the neural network by introducing external knowledge from existing sentiment and emotion lexicons. We used a simplistic yet effective approach of directly marking the words from the lexicons in the text. Finally, while working with a social media dataset, we discovered it was poorly annotated. As a result, we reannotated a part of this dataset with the help of a mental health professional, showing the importance of following medical symptom definitions and establishing clear annotation guidelines.

Géοstatistiques par apprentissage prοfοnd pοur la réductiοn des incertitudes: applicatiοn à la dépοllutiοn des sοls

Doctorant·e
RAKOTONIRINA Herbert
Direction de thèse
HONEINE PAUL (Directeur·trice de thèse)
ATTEIA OLIVIER (Co-directeur·trice de thèse)
Date de la soutenance
16/10/2024 à 14:00
Lieu de la soutenance
UFR sciences et techniques, Saint Etienne du Rouvray
Rapporteurs de la thèse
BEREZIAT DOMINIQUE Sorbonne Universite
ROMARY THOMAS Université Paris Sciences Lettres
Membres du jurys
ATTEIA OLIVIER, , Universite de Bordeaux
BEREZIAT DOMINIQUE, , Sorbonne Universite
HONEINE PAUL, , Université de Rouen Normandie (URN)
PEREZ SANDRA, , Universite Cote d'Azur
ROMARY THOMAS, , Université Paris Sciences Lettres
WALTER CHRISTIAN, , Cfr Rennes Agrocampus Ouest
Résumé
L'objectif de zéro artificialisation des sols d'ici 2030, énoncé par la loi Climat et Résilience en France en 2021 et aligné avec le Green Deal européen, souligne l'importance d'une meilleure gestion des sites et sols pollués (SSP). Cette thèse s'inscrit dans le cadre de la réhabilitation des sites industriels et la gestion des pollutions, domaines cruciaux pour atteindre ces objectifs environnementaux. Elle vise à développer des méthodes basées sur les progrès du Deep Learning en alternative aux méthodes géostatistiques, afin d'améliorer les prédictions et réduire les incertitudes liées à la répartition spatiale des contaminants. L'approche cherche à affiner les cartographies de contamination et à offrir des outils avancés pour la prise de décision environnementale. La thèse se divise en quatre parties principales. Premièrement, nous adaptons l'architecture Deep Image Prior (DIP), initialement conçue pour l'inpainting d'images, pour l'interpolation spatiale. Nous proposons l'utilisation d'une fonction de sur-échantillonnage bi-cubique et l'ajout de connexions résiduelles pour adapter cette architecture à notre situation où le nombre de données observées est très limité. L'utilisation de la méthode DIP présente l'avantage majeur de ne pas nécessiter de données labélisées pour l'entraînement. Cela est particulièrement pertinent pour les SSP où les cartes réelles n'existent pas car les cartographies existantes de la pollution sont le résultat de traitements géostatistiques ou d'autres méthodes. La capacité de la méthode proposée à réaliser une interpolation spatiale est enrichie par sa faculté à générer plusieurs cartographies représentant la distribution probable des polluants. Ce processus permet non seulement d'estimer la répartition des contaminants, mais aussi d'évaluer l'incertitude de ces estimations et de fournir la carte de probabilité de dépasser un seuil critique de pollution. Dans la deuxième partie, nous avons étendu la méthode basée sur le DIP, initialement adaptée pour les données bidimensionnelles, à des applications tridimensionnelles. Cette évolution permet de prendre en compte à la fois les informations verticales et horizontales des données observées, ce qui est crucial dans le contexte des SSP pour modéliser le volume de distribution de la pollution. Grâce à cette méthode, nous avons pu générer des cartographies 3D représentant la distribution probable de la pollution dans les sols et estimer le volume de terre contaminée selon différents seuils de pollution. Dans la 3ème partie, nous avons développé une nouvelle architecture de Deep Learning, toujours basée sur le concept de DIP, conçue pour effectuer une interpolation spatiale intégrant une variable auxiliaire, similairement à la méthode géostatistique de co-krigeage. Cette méthode vise à enrichir les données relatives à la variable d'intérêt pour obtenir une meilleure estimation. Cette approche est particulièrement pertinente pour les SSP, où le coût élevé d'acquisition des données géochimiques peut rendre avantageuse l'utilisation d'une seconde variable pour améliorer les performances des modèles. La méthode proposée obtient de meilleurs résultats que le co-krigeage à la fois en 2D et 3D. L'introduction d'une seconde variable a également permis de maîtriser le sur-apprentissage caractéristique des méthodes basées sur le DIP. La dernière partie de la thèse est consacrée à l'application pratique des méthodes développées sur des cas réels. Le premier cas traite de l'interpolation spatiale en 3D de la conductivité apparente ainsi que d'autres paramètres du sol. Le deuxième cas étudie une situation de co-contamination aux hydrocarbures et aux fluorures en France, mettant en œuvre les techniques élaborées précédemment pour évaluer et modéliser la distribution de la contamination.
Abstract
The goal of zero soil artificialization by 2030, as outlined by the Climate and Resilience law in France in 2021 and aligned with the European Green Deal, underscores the importance of improved management of contaminated sites and soils. This thesis is part of the rehabilitation of industrial sites and pollution management, crucial areas for achieving these environmental objectives. It aims to develop methods based on advancements in Deep Learning as an alternative to geostatistical methods to improve predictions and reduce uncertainties related to the spatial distribution of contaminants. The approach seeks to refine contamination maps and offer advanced tools for environmental decision-making. The thesis is divided into four main parts. First, we adapt the Deep Image Prior (DIP) architecture, initially designed for image inpainting, for spatial interpolation. We propose using a bicubic upsampling function and adding skip connections to adapt this architecture to our situation where the number of observed data is very limited. The use of the DIP method has the major advantage of not requiring labeled data for training. This is particularly relevant for contaminated sites soils, where actual maps do not exist as existing pollution maps result from geostatistical or other methods. The proposed method's ability to perform spatial interpolation is enriched by its capacity to generate multiple maps representing the probable distribution of pollutants. This process not only allows for estimating the distribution of contaminants but also for evaluating the uncertainty of these estimates and providing the probability map of exceeding a critical pollution threshold. In the second part, we extended the DIP-based method, initially adapted for two-dimensional data, to three-dimensional applications. This evolution allows for considering both vertical and horizontal information of observed data, which is crucial in the context of polluted soils to model the volume distribution of pollution. With this method, we generated 3D maps representing the probable distribution of pollution in soils and estimated the volume of contaminated soil according to different pollution thresholds. In the third part, we developed a new Deep Learning architecture, still based on the DIP concept, designed to perform spatial interpolation incorporating an auxiliary variable, similar to the geostatistical method of co-kriging. This method aims to enrich the data related to the variable of interest to obtain a better estimate. This approach is particularly relevant for contaminated sites and soils, where the high cost of acquiring geochemical data can make using a second variable advantageous to improve model performance. The proposed method achieves better results than co-kriging in both 2D and 3D. Introducing a second variable also helped control the overfitting characteristic of DIP-based methods. The last part of the thesis is devoted to the practical application of the methods developed in real cases. The first case deals with the 3D spatial interpolation of apparent conductivity and other soil parameters. The second case studies a situation of co-contamination with hydrocarbons and fluorides in France, implementing the previously developed techniques to assess and model the distribution of contamination.

Representatiοns οf structure grοup οf set-theοretical sοlutiοns tο the Υang-Baxter equatiοn

Doctorant·e
FEINGESICHT Edouard
Direction de thèse
GODELLE Eddy (Directeur·trice de thèse)
Date de la soutenance
11/10/2024 à 14:00
Lieu de la soutenance
S3 102 (Salle des thèses)
Rapporteurs de la thèse
BALLESTER-BOLINCHES ADOLFO VALENCE - UNIVERSIDAD DE VALENCIA
POULAIN D'ANDECY LOÏC Maître de conférences HDR Université de Reims Champagne Ardenne
Membres du jurys
BALLESTER-BOLINCHES ADOLFO, , VALENCE - UNIVERSIDAD DE VALENCIA
GODELLE Eddy, , Université de Caen Normandie (UCN)
LEBED Victoria, Maître de conférences, Université de Caen Normandie (UCN)
MARIN IVAN, , UNIVERSITE AMIENS PICARDIE JULES VERNE
POULAIN D'ANDECY LOÏC, Maître de conférences HDR, Université de Reims Champagne Ardenne
VENDRAMIN LEANDRO, Maître de conférences, UNIVERSITE VRIJE BRUSSEL BELGIQUE
Résumé
Dans cette thèse nous nous intéressons à l'étude des solutions ensemblistes de l'équation de Yang-Baxter. Le point de départ de notre approche sont les travaux de Patrick Dehornoy, qui a établi des parallèles entre les groupes de structures des solutions et la théorie des groupes d'Artin-Tits. Nous étudions donc les groupes des structures d'un point de vue de la théorie de Garside, à travers des représentations monomiales, dans le but d'améliorer la compréhension des solutions pour amener à leur éventuelle classification. Dans ce sens, nous étudions les bornes et les valeurs d'une constante définie par Dehornoy pour chaque solution. Nous nous intéressons ensuite à l'irréductibilité des représentations monomiales de ces solutions. Enfin, nous construisons et étudions des algèbres de Hecke pour les solutions, en soulignant les points communs et les différences avec la théorie connue des algèbre de Hecke pour les groupes d'Artin-Tits.
Abstract
In this thesis we are interested in set-theoretical solutions to the Yang-Baxter equation. The starting point of our approach is the work of Patrick Dehornoy, who established parallels between the structure groups of solutions and the theory of Artin-Tits groups. We thus study the structure groups from a Garside theory perspective, through monomial representations, with the aim of improving our understanding of solutions and eventually classifying them. In this sense, we study the bounds and values of a constant defined by Dehornoy for each solution. We then focus on the irreducibility of the monomial representations of these solutions. Finally, we construct and study Hecke algebras for solutions, highlighting the similarities and differences with the known theory of Hecke algebra for Artin-Tits groups.

Cοntributiοn à l'estimatiοn et la prédictiοn de l'état de santé ( en temps différé) d'un LΡRE réutilisable pοur pilοter la maintenance

Doctorant·e
GALLI Federica
Direction de thèse
HOBLOS GHALEB (Directeur·trice de thèse)
WEBER PHILIPPE (Co-directeur·trice de thèse)
Date de la soutenance
09/10/2024 à 09:30
Lieu de la soutenance
ESIGELEC
Rapporteurs de la thèse
MEDJAHER KAMAL EC NAT INGENIEURS TARBES
NEJJARI-AKHI-ELARAB FATIHA Univ. Polytechnique de Barcelone (ESP)
Membres du jurys
FIORE GIUSEPPE, , Centre National des Etudes Spatiales
HOBLOS GHALEB, , ESIGELEC ROUEN
KOBI ABDESSAMAD, , Université d'Angers
MEDJAHER KAMAL, , EC NAT INGENIEURS TARBES
NEJJARI-AKHI-ELARAB FATIHA, , Univ. Polytechnique de Barcelone (ESP)
SIRCOULOMB VINCENT, , ESIGELEC ROUEN
THEILLIOL DIDIER, , Université de Lorraine
WEBER PHILIPPE, , Université de Lorraine
Résumé
Cette thèse porte sur l’estimation de l’état de santé et la prévision de la durée de vie utile résiduelle en temps différé des moteurs de fusée à propergol liquide réutilisables, qui doivent être requalifiés après chaque mission. Dans ce contexte, la thèse propose une approche PHM (Prognosis and Health Monitoring) locale à base de données pour l’estimation du RUL (Remaining Useful Life) des roulements de la turbopompe du moteur. Deux activités principales ont été menées en parallèle : la génération de signaux vibratoires non stationnaires à l’aide d’un modèle dynamique du roulement, et le déploiement de l’algorithme prédictive pour le pronostic du roulement. L’approche PHM proposé concerne la construction de l’indicateur de santé, le diagnostic du roulement et l’estimation du RUL. Les signaux vibratoires ont été traités à l’aide de la décomposition en ondelettes et utilisés pour calculer un HI (Health Indicator) approprié. Un profil de dégradation a été défini et couplé à des modèles d’initiation et de propagation des fissures. Enfin, un MB-HMM (Multi Branch - Hidden Markov Model) à plusieurs niveaux a été entraîné pour capturer la dynamique de dégradation des roulements. Le modèle obtenu a été utilisé pour le diagnostic et l’estimation du RUL. La méthodologie proposée a été appliquée à des signaux vibratoires à la fois synthétiques et expérimentales (FEMTO, XJTU-SY). Les résultats montrent de bonnes capacités de prédiction du RUL. Plus spécifiquement, les modèles d’initiation et propagation de fatigue ont permis une réduction de la taille du modèle ML (Machine Learning), améliorant ainsi la phase d’entraînement des algorithmes.
Abstract
This thesis focuses on State of Health estimation and offline Remaining Useful Life (RUL) prediction for reusable liquid propellant (LPRE) rocket engines. Reusable LPREs must be requalified after each mission, so predictive maintenance actions must be planned. In this context, the thesis proposes a local data-driven PHM approach for the estimation of the turbopump bearings RUL. Two main activities were carried out in parallel: non-stationary vibration signals generation with a bearing dynamic model and bearing prognosis using a data-driven predictive algorithm. The proposed PHM approach includes: Health Indicator (HI) construction, bearing diagnosis and RUL estimation. Non-stationary vibration data were processed using the Maximum Overlap Discrete Wavelet Packet Transform (MODWPT) decomposition. Then, they were used to calculate an appropriate HI. A degradation profile was defined and linked to crack initiation and propagation fatigue models. Finally, a multi-level MB-HMM (Multi Branch - Hidden Markov Model) was trained to capture the bearing degradation dynamics. The resulting model was used to estimate the SoH as well as the RUL. The proposed methodology was applied to both synthetic and experimental signals. In particular, the FEMTO dataset and the XJTU-SY dataset were selected, which contain run-to-failure vibration signals. The obtained results show good RUL prediction capabilities. In particular, fatigue models allowed a reduction in the size of the ML (Machine Learning) model, thus improving the training phase of the algorithm.

Τοwards Explainable and Ιnterpretable Deep Νeural Νetwοrks

Doctorant·e
JEANNERET SANMIGUEL Guillaume
Direction de thèse
JURIE Frederic (Directeur·trice de thèse)
Date de la soutenance
25/09/2024 à 14:00
Lieu de la soutenance
Salle des thèses in the Science 3 - Campus 2 - Universite de Caen
Rapporteurs de la thèse
CORD MATTHIEU Sorbonne Université
DANTCHEVA ANTITZA CNRS
Membres du jurys
CORD MATTHIEU, , Sorbonne Université
DANTCHEVA ANTITZA, , CNRS
JURIE Frederic, , Université de Caen Normandie (UCN)
KIJAK EWA, Maître de conférences HDR, IRISA/INRIA Rennes
SCHMID CORDELIA, , INRIA Paris
SIMON LOIC, Maître de conférences, Université de Caen Normandie (UCN)
Résumé
Les architectures neuronales profondes ont démontré des résultats remarquables dans diverses tâches de vision par ordinateur. Cependant, leur performance extraordinaire se fait au détriment de l'interprétabilité. En conséquence, le domaine de l'IA explicable a émergé pour comprendre réellement ce que ces modèles apprennent et pour découvrir leurs sources d'erreur. Cette thèse explore les algorithmes explicables afin de révéler les biais et les variables utilisés par ces modèles de boîte noire dans le contexte de la classification d'images. Par conséquent, nous divisons cette thèse en quatre parties. Dans les trois premiers chapitres, nous proposons plusieurs méthodes pour générer des explications contrefactuelles. Tout d'abord, nous incorporons des modèles de diffusion pour générer ces explications. Ensuite, nous lions les domaines de recherche des exemples adversariaux et des contrefactuels pour générer ces derniers. Le suivant chapitre propose une nouvelle méthode pour générer des contrefactuels en mode totalement boîte noire, c'est-à-dire en utilisant uniquement l'entrée et la prédiction sans accéder au modèle. La dernière partie de cette thèse concerne la création de méthodes interprétables par conception. Plus précisément, nous étudions comment étendre les transformeurs de vision en architectures interprétables. Nos méthodes proposées ont montré des résultats prometteurs et ont avancé la frontière des connaissances de la littérature actuelle sur l'IA explicable.
Abstract
Deep neural architectures have demonstrated outstanding results in a variety of computer vision tasks. However, their extraordinary performance comes at the cost of interpretability. As a result, the field of Explanable AI has emerged to understand what these models are learning as well as to uncover their sources of error. In this thesis, we explore the world of explainable algorithms to uncover the biases and variables used by these parametric models in the context of image classification. To this end, we divide this thesis into four parts. The first three chapters proposes several methods to generate counterfactual explanations. In the first chapter, we proposed to incorporate diffusion models to generate these explanations. Next, we link the research areas of adversarial attacks and counterfactuals. The next chapter proposes a new pipeline to generate counterfactuals in a fully black-box mode, \ie, using only the input and the prediction without accessing the model. The final part of this thesis is related to the creation of interpretable by-design methods. More specifically, we investigate how to extend vision transformers into interpretable architectures. Our proposed methods have shown promising results and have made a step forward in the knowledge frontier of current XAI literature.

Analyse de Dynamiques d'échanges Μicrοscοpiques et Μacrοscοpiques pοur l'écοlοgie et l'épidémiοlοgie.

Doctorant·e
TRETON Samuel
Direction de thèse
ALFARO MATTHIEU (Directeur·trice de thèse)
Date de la soutenance
19/09/2024 à 14:00
Lieu de la soutenance
Laboratoire de Mathématiques Raphaël Salem, Université de Rouen, campus du Madrillet
Rapporteurs de la thèse
NADIN GRÉGOIRE Université d'Orléans
SOUPLET PHILIPPE UNIVERSITE PARIS 13 PARIS-NORD
Membres du jurys
ALFARO MATTHIEU, , Université de Rouen Normandie (URN)
CALVEZ VINCENT, , UNIVERSITE BRETAGNE SUD UBS
LANDIM CLAUDIO, , Université de Rouen Normandie (URN)
MIRRAHIMI SEPIDEH, , UNIVERSITE MONTPELLIER 2 SCIENCES ET TECH DU LANGUEDOC
NADIN GRÉGOIRE, , Université d'Orléans
RIBOT MAGALI, , Université d'Orléans
ROQUEJOFFRE JEAN-MICHEL, , Université de Toulouse 3 - Paul Sabatier
SOUPLET PHILIPPE, , UNIVERSITE PARIS 13 PARIS-NORD
Résumé
Cette thèse porte sur la dérivation et l'analyse de modèles de populations structurées en espace, de nature stochastique et déterministe. L'objectif principal de ce travail est d'améliorer notre compréhension des liens complexes entre les dynamiques individu-centrées et le comportement global des populations, ainsi que l'évolution en temps long de ces dernières. En mettant l'accent sur certains modèles présentant des dynamiques d'échanges entre milieux hétérogènes, on explore les relations entre certains systèmes de particules en interaction (processus d'exclusion simple) et les équations de réaction-diffusion. Une attention particulière est également porté à l'analyse du comportement en temps long des solutions de ces dernières, notamment aux critères de persistance ou d'extinction des populations. On commence par introduire dans le Chapitre 1 les principaux fondements théoriques des équations de réaction-diffusion et des processus d'exclusion simple. Cette partie établit les prérequis essentiels pour les chapitres qui suivent. Le Chapitre 2 est consacré à la dérivation microscopique, à partir d'un processus d'exclusion simple, d'un système de réaction-diffusion connu sous le nom de "champ-route", utilisé pour modéliser l'impact des lignes de diffusion rapide en écologie et épidémiologie. Dans le Chapitre 3, on rend explicite les solutions du système champ-route diffusif original et on en fournit un contrôle uniforme en temps long. Ce type de contrôle s'avère utile pour quantifier "l'intensité de dispersion" du processus diffusif et permet notamment de montrer des résultats de persistance et d'extinction lorsqu'une fonction de croissance avec effet Allee est introduite. Enfin, le Chapitre 4 concerne des résultats de type Fujita sur l'explosion en temps fini, par opposition à la possible existence globale des solutions, d'un système de réaction-diffusion sur-linéaire "échangeur de chaleur". Cette étude permet de caractériser la stabilité de l'équilibre nul lorsqu'on ajoute une réaction monostable dégénérée en 0, pénalisant la croissance des faibles densités. Ce point représente la clé de voûte de la caractérisation des phénomènes de persistance et d'extinction mentionnés plus haut.
Abstract
This thesis deals with the derivation and the analysis of spatially structured population models, including both stochastic and deterministic approaches. The main goal of this work is to deepen our understanding of the intricate connections between individual-based dynamics and the collective behavior of populations, as well as the long-term behavior of the latter. By focusing on models that illustrate exchanges between heterogeneous environments, we particularly investigate the relationships between certain interacting particle systems (simple exclusion processes) and reaction-diffusion equations. Special attention is also given to the long-term behavior of the solutions of these equations, especially the criteria for population persistence or extinction. Chapter 1 lays the theoretical background for reaction-diffusion equations and simple exclusion processes. This section provides the necessary foundation for the following chapters. Chapter 2 explores the microscopic derivation, via a simple exclusion process, of a reaction-diffusion system known as the "field-road model", which is used to model the impact of fast diffusion channels in ecology and epidemiology. In Chapter 3, we explicitly derive the solutions of the original field-road diffusion model and provide a uniform long-term control. Such control is useful to quantify the "dispersion intensity" of the diffusive process, enabling to demonstrate results related to persistence and extinction when a growth function with an Allee effect is introduced. Finally, Chapter 4 examines Fujita-type results concerning blow-up versus possible global existence of solutions to a superlinear reaction-diffusion "heat exchanger" system. This study characterizes the stability of the zero equilibrium when a monostable reaction degenerate at 0 (penalizing low-density growth) is included. This aspect is crucial for understanding the persistence and extinction phenomena mentioned above.

Adressing data Ιncest fοr Cοοperative Lοcalizatiοn in Μulti-sensοr Μulti-vehicle Systems

Doctorant·e
SHAN Xiaoyu
Direction de thèse
CHAFOUK HOUCINE (Directeur·trice de thèse)
CABANI ADNANE (Co-directeur·trice de thèse)
Date de la soutenance
17/09/2024 à 14:00
Lieu de la soutenance
ESIGELEC Rouen
Rapporteurs de la thèse
M'SIRDI NACER Aix-Marseille université
RABHI ABDELHAMID UNIVERSITE AMIENS PICARDIE JULES VERNE
Membres du jurys
BENSRHAIR ABDELAZIZ, , INSA de Rouen Normandie
CABANI ADNANE, , ESIGELEC ROUEN
CHAFOUK HOUCINE, , ESIGELEC ROUEN
M'SIRDI NACER, , Aix-Marseille université
RABHI ABDELHAMID, , UNIVERSITE AMIENS PICARDIE JULES VERNE
RANDRIAMASY MALALATIANA, ,
Résumé
Le problème de consanguinité des données ou data incest en anglais provoque une corrélation entre les estimations pendant le processus de fusion de données, ce qui donne des résultats de fusion de données incohérents. En particulier la localisation coopérative dans le système multi-capteurs multi-véhicules (MSMV) met en evidence le problème deconsanguinité des données qui est grave en raison de multiples estimations de positions relatives, qui ne conduit pas seulement à une estimation pessimiste, mais entraîne également une surcharge de calcul supplémentaire. Afin de résoudre le problème de consanguinité des données, nous proposons une nouvelle méthode de fusion de données appelée filtre d’intersection de covariance divisée par intervalles (ISCIF). La cohérence générale de l’ISCIF est prouvée, servant commepreuve supplémentaire pour le filtre d’intersection de covariance divisée (SCIF). De plus, un système de localisation MSMV décentralisé comprenant des étapes de positionnement absolu et relatif est conçu. Dans l’étape de positionnement absolu, chaque véhicule utilise l’algorithme ISCIF pour mettre à jour sa propre position sur la base de mesures absolues. Au cours de l’étape de position relative, la méthode de propagation par contrainte d’intervalle (ICP) est mise en œuvre pour prétraiter plusieurs estimations de position relative et préparer les données d’entrée pour l’ISCIF. Ensuite, l’algorithme ISCIF proposé est utilisé pour réaliser le positionnement relatif. De plus, pour augmenter la robustesse de la méthode de localisation proposée dans les systèmes MSMV, une méthode de détection et d’exclusion de défauts (FDE) basée sur la divergence Kullback-Leibler (KLD) est implémentée dans notre système. Des simulations comparatives démontrent que la méthode proposée peut obtenir des résultats précis, robustes et peu coûteux par rapport aux méthodes de l’état de l’art.
Abstract
Data incest problem causes inter-estimate correlation during data fusion process, which yields inconsistent data fusion result. Especially in the multi-sensor multi-vehicle (MSMV) cooperative localization system, the data incest problem is serious due to multiple relative position estimations, which not only leads to pessimistic estimation, but also causes additional computational overhead. In order to address the data incest problem, we propose a new data fusion method named interval split covariance intersection filter (ISCIF). The general consistency of the ISCIF is proven, serving as a supplementary proof for the split covariance intersection filter (SCIF). Moreover, a decentralized MSMV localization system including absolute and relative positioning stages is designed. In the absolute positioning stage, each vehicle uses the ISCIF algorithm to update its own position based on absolute measurements. In the relative position stage, the interval constraint propagation (ICP) method is implemented to preprocess multiple relative position estimates and prepare input data for ISCIF at first. Then, the proposed ISCIF algorithm is employed to realize relative positioning. Furthermore, in order to enhance the robustness of the proposed localization method in MSMV systems, a Kullback–Leibler divergence (KLD)-based fault detection and exclusion (FDE) method is implemented in our system. In addition, comparative simulations demonstrate that the proposed method can achieve accurate, robust and low-cost results compared with the state of the art methods.

Le feu ça brûle et l'infοrmatique ça bugge : cοmbustiοn et régressiοn dans les graphes

Doctorant·e
LECOQ Romain
Direction de thèse
DORBEC Paul (Directeur·trice de thèse)
OTACHI YOTA (Co-directeur·trice de thèse)
Date de la soutenance
13/09/2024 à 14:30
Lieu de la soutenance
Greyc
Rapporteurs de la thèse
GENITRINI ANTOINE Sorbonne Université
LIEDLOFF MATHIEU Université d'Orléans
Membres du jurys
COURTIEL Julien, Maître de conférences, Université de Caen Normandie (UCN)
DORBEC Paul, , Université de Caen Normandie (UCN)
FALLERI JEAN-RÉMY, , MATMECA - BORDEAUX
GENITRINI ANTOINE, , Sorbonne Université
LIEDLOFF MATHIEU, , Université d'Orléans
MITSOU VALIA, Maître de conférences, Université Paris Cité
VALLEE BRIGITTE, , ENSICAEN
Résumé
 
Abstract
 

Classificatiοn des filtratiοns dynamiques et étude des systèmes d'entrοpie pοsitive

Doctorant·e
BENZONI Severin
Direction de thèse
DE LA RUE THIERRY (Directeur·trice de thèse)
ROY EMMANUEL (Co-directeur·trice de thèse)
Date de la soutenance
10/09/2024 à 14:30
Lieu de la soutenance
LMRS, Université de Rouen Normandie
Rapporteurs de la thèse
LEURIDAN CHRISTOPHE Universite Grenoble Alpes
WEISS BENJAMIN Université Hébraïque de Jérusalem
Membres du jurys
AUSTIN TIM, , Université de Warwick
DE LA RUE THIERRY, , Université de Rouen Normandie (URN)
JANVRESSE ELISE, , UNIVERSITE AMIENS PICARDIE JULES VERNE
LEURIDAN CHRISTOPHE, , Universite Grenoble Alpes
MARCOVICI IRENE, , Université de Rouen Normandie (URN)
ROY EMMANUEL, , UNIVERSITE PARIS 13 PARIS-NORD
WEISS BENJAMIN, , Université Hébraïque de Jérusalem
Résumé
Dans cette thèse, nous explorons les structures possibles des systèmes dynamiques de la forme $\bfX :=(X, \A, \mu, T)$ et leurs tribus facteur $\B \subset \A$. Les deux premiers chapitres étudient les différentes façons dont une tribu facteur $\B$ peut s'inclure dans un système dynamique $\bfX :=(X, \A, \mu, T)$, c'est-à-dire que nous étudions certaines structures possibles de l'\emph{extension} $\A \arr \B$. Dans le premier chapitre, nous considérons les concepts de \emph{super-innovations} et de \emph{standardité} des extensions, inspirés de la théorie des filtrations. Un point important est l'introduction de la notion d'\emph{extensions confinées}, qui nous intéressent parce qu'elles n'ont pas de super-innovation. Nous donnons plusieurs exemples et étudions des propriétés supplémentaires de ces extensions, y compris des résultats de relèvement. Ensuite, nous montrons notre résultat principal : l'existence d'extensions non-standard. Enfin, ce résultat trouve une application dans l'étude des filtrations dynamiques, qui sont les filtrations de la forme $(\F_n)_{n \leq 0}$ telles que chaque $\F_n$ est une tribu facteur. Nous montrons qu'il existe des \emph{filtrations dynamiques I-confortables non standard}. Le deuxième chapitre approfondit l'étude des extensions confinées en trouvant un nouveau type de telles extensions, dans le cadre des suspensions de Poisson : nous prenons un système dynamique $(X, \mu, T)$ en mesure $\s$-finie infinie et une extension compacte $(X \times G, \mu \otimes m_G, T_\phi)$, puis nous considérons l'extension de Poisson correspondante $((X \times G)^*, (\mu \otimes m_G)^*, (T_\phi)_*) \to (X^*, \mu^*, T_*)$. Nous donnons des conditions sous lesquelles cette extension est confinée et construisons un exemple qui correspond à ces conditions. Enfin, le troisième chapitre se concentre sur une famille de filtrations dynamiques : les \emph{filtrations de Pinsker faible}. L'existence de ces filtrations sur tout système ergodique provient d'un résultat récent d'Austin \cite{austin}, et elles se présentent comme un outil potentiel pour décrire les systèmes à entropie positive. Nous explorons les liens entre la structure asymptotique des filtrations de Pinsker faible et les propriétés du système dynamique sous-jacent. Naturellement, nous demandons aussi si, sur un système donné, la structure des filtrations de Pinsker faible est unique à isomorphisme près. Nous donnons une réponse partielle, dans le cas où le système sous-jacent est un schéma de Bernoulli. Nous concluons notre travail en donnant deux exemples explicites de filtrations de Pinsker faible.
Abstract
In this thesis, we explore the possible structures of measure preserving dynamical systems of the form $\bfX :=(X, \A, \mu, T)$ and their factor $\s$-algebras $\B \subset \A$. The first two chapters investigate various ways in which a factor $\s$-algebra $\B$ can sit in a dynamical system $\bfX :=(X, \A, \mu, T)$, i.e. we study some possible structures of the \emph{extension} $\A \arr \B$. In the first chapter, we consider the concepts of \emph{super-innovations} and \emph{standardness} of extensions, which are inspired from the theory of filtrations. An important focus of our work is the introduction of the notion of \emph{confined extensions}, which first interested us because they have no super-innovation. We give several examples and study additional properties of confined extensions, including several lifting results. Then, we show our main result: the existence of non-standard extensions. Finally, this result finds an application to the study of dynamical filtrations, i.e. filtrations of the form $(\F_n)_{n \leq 0}$ such that each $\F_n$ is a factor $\s$-algebra. We show that there exist \emph{non-standard I-cosy dynamical filtrations}. The second chapter furthers the study of confined extensions by finding a new kind of such extensions, in the setup of Poisson suspensions: we take an infinite $\s$-finite measure-preserving dynamical system $(X, \mu, T)$ and a compact extension $(X \times G, \mu \otimes m_G, T_\phi)$, then we consider the corresponding Poisson extension $((X \times G)^*, (\mu \otimes m_G)^*, (T_\phi)_*) \to (X^*, \mu^*, T_*)$. We give conditions under which that extension is confined and build an example which fits those conditions. Lastly, the third chapter focuses on a family of dynamical filtrations: \emph{weak Pinsker filtrations}. The existence of those filtrations on any ergodic system comes from a recent result by Austin \cite{austin}, and they present themselves as a potential tool to describe positive entropy systems. We explore the links between the asymptotic structure of weak Pinsker filtrations and the properties of the underlying dynamical system. Naturally, we also ask whether, on a given system, the structure of weak Pinsker filtrations is unique up to isomorphism. We give a partial answer, in the case where the underlying system is Bernoulli. We conclude our work by giving two explicit examples of weak Pinsker filtrations.

D'un espace de mοtifs structurés à sοn explοratiοn : cοmment prendre en cοmpte l'intérêt d'une experte ?

Doctorant·e
LEHEMBRE Etienne
Direction de thèse
CREMILLEUX Bruno (Directeur·trice de thèse)
Date de la soutenance
06/09/2024 à 09:00
Lieu de la soutenance
Campus 2, Sciences 3, s3-102
Rapporteurs de la thèse
ROBARDET CÉLINE INSA Lyon
SOULET ARNAUD Universite de Tours
Membres du jurys
BUREAU Ronan, , Université de Caen Normandie (UCN)
CELLIER PEGGY, Maître de conférences HDR, INSA de Rennes
CREMILLEUX Bruno, , Université de Caen Normandie (UCN)
IENCO DINO, Directeur de recherche, INRAE MONTPELLIER
ROBARDET CÉLINE, , INSA Lyon
SOULET ARNAUD, , Universite de Tours
ZIMMERMANN Albrecht, Maître de conférences, Université de Caen Normandie (UCN)
Résumé
Cette thèse aborde des questions connexes à la fouille de motifs de données structurées dans le cadre de la chémoinformatique. Plus précisément, nous considérons le rôle d'une experte dans l'évaluation de l'intérêt des motifs structurés ainsi que la caractérisation d’éléments remarquables dans un ensemble de motifs. Ainsi, nous présentons dans ce manuscrit trois contributions majeures. La première contribution permet de fournir à une experte des motifs dont les caractéristiques sont jugées surprenantes vis-à-vis d’un ensemble de motifs étudiés et de leur jeu de données. Ainsi, les motifs obtenus constituent pour l'experte des points d'entrée pour le début d’une analyse comparative mettant en relief les motifs et leur qualité afin de faire ressortir leur pertinence locale. Cette contribution consiste en un sélecteur de motifs remarquables nommé OPS (Outstanding Pattern Selector). Nous définissons un motif comme remarquable si sa qualité diverge suffisamment de son voisinage, c'est-à-dire, si sa qualité diverge suffisamment des qualités des motifs qui lui ressemblent. En chémoinformatique, les motifs sélectionnés sont des PAD (Pharmacophores Activity Delta) et constituent un ensemble de motifs dont les fonctions biologiques et le comportement des molécules s'avèrent surprenants pour les expertes. La seconde contribution consiste en une méthode d'exploration interactive nommée WaveLSea (Wave top-k random-d Lineage Search). Une particularité de l’algorithme WaveLSea est qu'il ne nécessite pas la déclaration de descripteurs sur les données explorées. Pour un ensemble de motifs donné, cette méthode a pour but d’orienter une experte dans son exploration de manière itérative. À ces fins, l'algorithme permet à l'experte d'interagir avec les motifs tout en lui proposant des échantillons pertinents. Ces interactions sont converties en étiquettes positives ou négatives permettant d'orienter l'experte dans son parcours de l'ensemble des motifs à travers les futurs échantillons. La troisième contribution consiste en une amélioration des méthodes d'évaluation des algorithmes de fouille interactive. Cette amélioration se fait à travers l'introduction d'erreurs contrôlées permettant d'évaluer la robustesse de ces algorithmes. Ainsi, les algorithmes de fouille interactive ne sont plus évalués avec des oracles ne commettant jamais d'erreurs, mais avec des devins dont le comportement se rapproche de celui d'un humain. En résumé, nous abordons dans cette thèse l'évaluation de l'intérêt des motifs structurés. Cette évaluation se fait de manière statique à travers le caractère remarquable des motifs et de manière dynamique grâce à un algorithme interactif. Enfin, nous abordons les problématiques liées à l'évaluation des algorithmes de fouille interactive. Ces résultats généraux sont abordés sous le regard de la chémoinformatique et du jeu de données BCR-ABL1 portant sur la leucémie myéloïde chronique afin de les illustrer dans un contexte concret.
Abstract
This thesis addresses issues related to pattern mining of structured data in the context of chemoinformatics. More specifically, we consider the role of an expert in evaluating the interest of structured patterns and in characterising remarkable elements in a set of patterns. In this manuscript, we present three major contributions. The first contribution makes it possible to give to an expert patterns whose characteristics are judged to be surprising in relation to a studied set of patterns and its dataset. The patterns thus obtained provide the expert with entry points for the start of a comparative analysis contrasting patterns and their quality in order to highlight their local relevance. This contribution consists of an Outstanding Pattern Selector nammed OPS. We define a pattern as remarkable if its quality diverges sufficiently from its neighbourhood, i.e. if its quality diverges sufficiently from the qualities of patterns that resemble it. In chemoinformatics, the patterns selected are PADs (Pharmacophores Activity Delta) and constitute a set of patterns whose biological functions and molecular behaviour are surprising for experts. The second contribution consists of an interactive exploration method called WaveLSea (Wave top-k random-d Lineage Search). A particular feature of the WaveLSea algorithm is that it does not require the declaration of descriptors on the data being explored. For a given set of patterns, the aim of this method is to iteratively guide an expert in her exploration. To this end, the algorithm allows the expert to interact with the patterns while suggesting relevant samples. These interactions are converted into positive or negative labels to guide the expert through the set of patterns and future samples. The third contribution consists of improving the methods used for evaluating interactive mining algorithms. This improvement is achieved by introducing controlled errors to evaluate the robustness of these algorithms. Thus, interactive mining algorithms are no longer evaluated with oracles that never make mistakes, but with soothsayers whose behaviour is closer to that of a human. To summarize, this thesis deals with the evaluation of the interest of structured patterns. This evaluation is carried out statically through the remarkable character of the patterns and dynamically through an interactive algorithm. Finally, we address the problems associated with the evaluation of interactive mining algorithms. These general results are discussed using chemoinformatics and the BCR-ABL1 dataset on chronic myeloid leukaemia to illustrate them in a concrete context.

Κnοwledge Graph-based System fοr Τechnical Dοcument Retrieval A deductive reasοning-fοcused explοratiοn

Doctorant·e
SESBOUE MATTHIAS
Direction de thèse
ZANNI-MERK CECILIA (Directeur·trice de thèse)
DELESTRE Nicolas (Co-encadrant·e de thèse)
KOTOWICZ JEAN-PHILIPPE (Co-encadrant·e de thèse)
Date de la soutenance
05/09/2024 à 13:15
Lieu de la soutenance
INSA de Rouen Normandie
Rapporteurs de la thèse
TROJAHN CASSIA Université Toulouse II
VAKAJ EDLIRA Birmingham City University, Royaume-Uni
Membres du jurys
DELESTRE Nicolas, , INSA de Rouen Normandie
KOTOWICZ JEAN-PHILIPPE, , INSA de Rouen Normandie
SETCHI ROSSI, , University of Cardiff, Royaume-Uni
SOUALMIA FATIMA, , Université de Rouen Normandie (URN)
TROJAHN CASSIA, , Université Toulouse II
VAKAJ EDLIRA, , Birmingham City University, Royaume-Uni
ZACHAREWICZ GRÉGORY, , Ecole de Mines d'Ales
ZANNI-MERK CECILIA, , INSA de Rouen Normandie
Résumé
Ces travaux de recherche industrielle explorent les systèmes fondés sur les graphes de connaissances (KGBS) pour la Recherche d'Informations (RI). Ils ont été menés en partenariat avec l'entreprise TraceParts. Notre cas d'utilisation considère un corpus de documents techniques composé de modèles CAO et de leurs descriptions. Plutôt que d'exploiter les modèles CAO directement, nous nous concentrons sur leurs textes descriptifs. Aujourd'hui, les graphes de connaissances (KG) deviennent omniprésents dans les systèmes d'information et les applications des entreprises. De nombreux domaines de recherche, tels que la RI, ont adopté les KG. Ces artefacts numériques agrègent des données hétérogènes et représentent les connaissances dans un format interprétable par nos ordinateurs. Ce sont des graphes destinés à accumuler et à transmettre les connaissances du monde réel, dont les nœuds représentent des entités d'intérêt et les arêtes les relations entre ces entités. Les projets d'ingénierie et de construction produisent une multitude de documents techniques. Les systèmes de RI sont essentiels pour les industries de ces domaines afin de retrouver efficacement leurs documents. Ces derniers sont complexes, hétérogènes et spécialisés. Bien que ces industries manipulent des documents avec un contenu textuel, ces textes et leurs métadonnées contiennent des concepts et du vocabulaire spécifiques à chaque domaine. Les KG ouverts et les ontologies existantes décrivent des concepts généraux et manquent des connaissances plus fines requises par les applications de RI. Par conséquent, les outils de RI et de gestion des connaissances nécessitent des KG spécifiques à chaque domaine, construits à partir de documents ou étendant des KG existants. Nous explorons tout d'abord les KG, les ontologies et leur relation. Cette revue de littérature nous amène à proposer notre propre définition de KG. Nous considérons les ontologies comme une composante d'un KG et adoptons une perspective fondée sur le Web Sémantique en proposant des technologies issues des normes du Consortium World Wide Web. Nous explorons également la signification théorique et pratique du terme "sémantique" avant de poursuivre notre revue de la littérature avec la RI, en mettant l'accent sur la RI fondée sur les KG. Nous mettons en avant des similitudes et distinctions dans les utilisations des KG. Nos contributions introduisent d'abord une architecture pour les KGBS. Cette architecture organise l'acquisition, la modélisation et la consommation des connaissances autour du KG. Nous démontrons que les standards du Web Sémantique fournissent une approche pour chaque composante de notre architecture. Nous utilisons cette dernière pour organiser la présentation de la suite de notre travail. Chacune de nos contributions aborde respectivement l'acquisition, la modélisation et la consommation des connaissances. Pour nos travaux, nous n'avons pas de KG préconstruit ou d'accès à des experts du domaine pour le construire. Par conséquent, nous abordons l'acquisition de connaissances en concevant notre approche d'apprentissage automatique d'ontologies (OLAF). Nous utilisons OLAF pour construire des chaînes de traitements et apprendre automatiquement des ontologies à partir de texte. Nous implémentons notre approche sous forme d'une bibliothèque Python open-source et construisons deux ontologies pour évaluer la pertinence, la facilité d'utilisation et la modularité de notre outil. Nous nous concentrons ensuite sur la modélisation des connaissances, en présentant notre ontologie de RI dont nous démontrons l'utilisation avec un système de RI fondé sur du raisonnement déductif OWL en temps réel. La démonstration de notre ontologie de RI illustre par une implémentation fondée sur le Web Sémantique de notre définition de KG. Enfin, nous mettons en oeuvre à échelle industrielle une approche fondée sur les KG avec des données provenant de la plateforme de contenue CAO www.traceparts.com.
Abstract
These industrial research works explore Knowledge Graph-Based Systems (KGBS) for Information Retrieval (IR). They have been conducted in partnership with the company TraceParts. TraceParts is one of the world's leading Computer-Aided Design (CAD)-content platforms for Engineering, Industrial Equipment, and Machine Design. Hence, our use case considers a technical document corpus composed of Computer-Aided Design (CAD) models and their descriptions. Rather than leveraging the CAD models, we focus on their descriptive texts. Knowledge Graphs (KG) are ubiquitous in today's enterprise information systems and applications. Many academic research fields, such as Information Retrieval (IR), have adopted KGs. These digital knowledge artefacts aggregate heterogeneous data and represent knowledge in a machine-readable format. They are graphs intended to accumulate and convey knowledge of the real world, whose nodes represent entities of interest and whose edges represent relations between these entities. The Architecture Engineering and Construction projects produce a wealth of technical documents. IR systems are critical to these industries to retrieve their complex, heterogeneous, specialised documents quickly. Healthcare is another similar domain with such a need. Though these industries manage documents with some textual content, such text and the metadata contain domain-specific concepts and vocabularies. Open KGs and the existing ontologies often describe concepts that are too high-level and need more fine-grained knowledge required by IR applications. Hence, companies' IR and knowledge management tools require domain-specific KGs built from scratch or extending existing ones. Throughout our literature review, we first explore Knowledge Graphs (KG), ontologies, and how they relate to and derive our unifying KG definition. We consider ontologies one component of a KG and take a Semantic Web perspective, proposing illustrative candidate technologies from the World Wide Web Consortium Semantic Web standards. We also explore the theoretical and practical meaning of the term "semantics". We then explore the literature on IR, focusing on KG-based IR. We break down this review section, first exploring the literature on IR using the term "knowledge graph" and then the one using the term "ontology". We thereby point out some similarities and distinctions in the KG usages. Our contributions first introduce a KGBS architecture relating knowledge acquisition, modelling, and consumption arranged around the KG. We demonstrate that Semantic Web standards provide an approach for each KGBS component. To organise our work, we follow this system architecture; hence, each of our contributions addresses knowledge acquisition, modelling, and consumption, respectively. For our work, we do not have a pre-built KG or access to domain experts to construct it. Hence, we address knowledge acquisition by designing our Ontology Learning Applied Framework (OLAF) collaboratively with some of our research group members. We use OLAF to build pipelines to automatically learn an ontology from text. We implement our framework as an open-source Python library and build two ontologies to assess the OLAF's pertinence, usability, and modularity. We then focus on knowledge modelling, presenting our IR ontology and demonstrating its usage with an OWL reasoning-powered IR system. While most IR systems leverage reasoning in an offline process, our approach explores OWL reasoning at runtime. While demonstrating our IR ontology, we illustrate a Semantic Web-based implementation of our KG definition by pointing out each KG component in our IR ontology demonstration. Finally, we tackle the CAD model retrieval challenge our industrial partner TraceParts faces by implementing a KG-based approach at scale and using real-world data. We illustrate moving from an existing text-based technical document retrieval system to a KG-based one. We leverage real-world TraceParts

Etudes des fοnctiοns de pertes basées sur l'entrοpie dans le cοntexte de l'apprentissage prοfοnd pοur la radiοmique.

Doctorant·e
BROCHET Thibaud
Direction de thèse
RUAN SU (Directeur·trice de thèse)
Date de la soutenance
16/07/2024 à 14:00
Lieu de la soutenance
UFR santé
Rapporteurs de la thèse
GARREAU MIREILLE UNIVERSITE RENNES 1
ZHU YUEMIN Institut National des Sciences Appliquees de Lyon
Membres du jurys
GARREAU MIREILLE, , UNIVERSITE RENNES 1
LAPUYADE-LAHORGUE JEROME, , Université de Rouen Normandie (URN)
MERIAUDEAU FABRICE, , Universite de Bourgogne
RUAN SU, , Université de Rouen Normandie (URN)
ZHU YUEMIN, , Institut National des Sciences Appliquees de Lyon
Résumé
Cette thèse explore l'impact des nouvelles fonctions de perte dérivées d'entropies généralisées et de nouvelles architectures de réseaux de neurones sur les performances des opérations de classification en Deep Learning. L'objectif principal de cette recherche est d'étudier comment l'utilisation de l'entropie généralisée d'Havrda-Charvat, avec la modulation de l'hyperparamètre alpha, influence les performances des modèles de classification. En parallèle, de nouvelles architectures de réseaux de neurones adaptées aux spécificités des données médicales ont été développées. Les résultats montrent une amélioration significative des performances par rapport aux fonctions de perte et aux réseaux traditionnels, démontrant ainsi la pertinence et le potentiel des approches proposées. Les conclusions de cette étude suggèrent que ces améliorations soulignent l'importance de poursuivre les recherches dans ce domaine prometteur.
Abstract
This thesis explores the impact of new loss functions derived from generalized entropies and novel neural network architectures on the performance of classification operations in Deep Learning. The main objective of this research is to investigate how the use of Havrda-Charvat's generalized entropy, with the modulation of the alpha hyperparameter, influences the performance of classification models. In parallel, new neural network architectures tailored to the specificities of medical data have been developed. The results show a significant improvement in performance compared to traditional loss functions and networks, thereby demonstrating the relevance and potential of the proposed approaches. The conclusions of this study suggest that these improvements highlight the importance of continuing research in this promising field.

Μéthοdes stοchastiques du secοnd οrdre pοur le traitement séquentiel de dοnnées massives

Doctorant·e
LU WEI
Direction de thèse
PORTIER BRUNO (Directeur·trice de thèse)
GODICHON ANTOINE (Co-encadrant·e de thèse)
Date de la soutenance
09/07/2024 à 14:00
Lieu de la soutenance
Salle BO A RC 02, INSA Rouen Normandie
Rapporteurs de la thèse
PELLETIER MARIANE Université de Versailles Saint-Quentin-en-Yvelines
PORTIER FRANÇOIS ENSAI, Bruz
Membres du jurys
CANU STEPHANE, , INSA de Rouen Normandie
CENAC PEGGY, , Université de Bourgogne
GODICHON ANTOINE, , Sorbonne Université
PELLETIER MARIANE, , Université de Versailles Saint-Quentin-en-Yvelines
POGGI JEAN MICHEL, , Université Paris-Saclay
PORTIER BRUNO, , INSA de Rouen Normandie
PORTIER FRANÇOIS, , ENSAI, Bruz
Résumé
Avec le développement rapide des technologies et l'acquisition de données de plus en plus massives, les méthodes capables de traiter les données de manière séquentielle (en ligne) sont devenues indispensables. Parmi ces méthodes, les algorithmes de gradient stochastique se sont imposés pour estimer le minimiseur d'une fonction exprimée comme l'espérance d'une fonction aléatoire. Bien qu'ils soient devenus incontournables, ces algorithmes rencontrent des difficultés lorsque le problème est mal conditionné. Dans cette thèse, nous nous intéressons sur les algorithmes stochastiques du second ordre, tels que ceux de type Newton, et leurs applications à diverses problématiques statistiques et d'optimisation. Après avoir établi des bases théoriques et exposé les motivations qui nous amènent à explorer les algorithmes de Newton stochastiques, nous développons les différentes contributions de cette thèse. La première contribution concerne l'étude et le développement d'algorithmes de Newton stochastiques pour la régression linéaire ridge et la régression logistique ridge. Ces algorithmes sont basés sur la formule de Riccati (Sherman-Morrison) pour estimer récursivement l'inverse de la Hessienne. Comme l'acquisition de données massives s'accompagne généralement d'une contamination de ces dernières, on s'intéresse, dans une deuxième contribution, à l'estimation en ligne de la médiane géométrique, qui est un indicateur robuste, i.e. peu sensible à la présence de données atypiques. Plus précisément, nous proposons un nouvel estimateur de Newton stochastique pour estimer la médiane géométrique. Dans les deux premières contributions, les estimateurs des inverses de Hessienne sont construits à l'aide de la formule de Riccati, mais cela n'est possible que pour certaines fonctions. Ainsi, notre troisième contribution introduit une nouvelle méthode de type Robbins-Monro pour l'estimation en ligne de l'inverse de la Hessienne, nous permettant ensuite de développer des algorithmes de Newton stochastiques dits universels. Enfin, notre dernière contribution se focalise sur des algorithmes de type Full Adagrad, où la difficulté réside dans le fait que l'on a un pas adaptatif basé sur la racine carré de l'inverse de la variance du gradient. On propose donc un algorithme de type Robbins-Monro pour estimer cette matrice, nous permettant ainsi de proposer une approche récursive pour Full AdaGrad et sa version streaming, avec des coûts de calcul réduits. Pour tous les nouveaux estimateurs que nous proposons, nous établissons leurs vitesses de convergence ainsi que leur efficacité asymptotique. De plus, nous illustrons l'efficacité de ces algorithmes à l'aide de simulations numériques et en les appliquant à des données réelles.
Abstract
With the rapid development of technologies and the acquisition of big data, methods capable of processing data sequentially (online) have become indispensable. Among these methods, stochastic gradient algorithms have been established for estimating the minimizer of a function expressed as the expectation of a random function. Although they have become essential, these algorithms encounter difficulties when the problem is ill-conditioned. In this thesis, we focus on second-order stochastic algorithms, such as those of the Newton type, and their applications to various statistical and optimization problems. After establishing theoretical foundations and exposing the motivations that lead us to explore stochastic Newton algorithms, we develop the various contributions of this thesis. The first contribution concerns the study and development of stochastic Newton algorithms for ridge linear regression and ridge logistic regression. These algorithms are based on the Riccati formula (Sherman-Morrison) to recursively estimate the inverse of the Hessian. As the acquisition of big data is generally accompanied by a contamination of the latter, in a second contribution, we focus on the online estimation of the geometric median, which is a robust indicator, i.e., not very sensitive to the presence of atypical data. More specifically, we propose a new stochastic Newton estimator to estimate the geometric median. In the first two contributions, the estimators of the Hessians' inverses are constructed using the Riccati formula, but this is only possible for certain functions. Thus, our third contribution introduces a new Robbins-Monro type method for online estimation of the Hessian's inverse, allowing us then to develop universal stochastic Newton algorithms. Finally, our last contribution focuses on Full Adagrad type algorithms, where the difficulty lies in the fact that there is an adaptive step based on the square root of the inverse of the gradient's covariance. We thus propose a Robbins-Monro type algorithm to estimate this matrix, allowing us to propose a recursive approach for Full AdaGrad and its streaming version, with reduced computational costs. For all the new estimators we propose, we establish their convergence rates as well as their asymptotic efficiency. Moreover, we illustrate the efficiency of these algorithms using numerical simulations and by applying them to real data.

Autοmated Depressiοn Level Estimatiοn: A Study οn Discοurse Structure, Ιnput Representatiοn and Clinical Reliability

Doctorant·e
AGARWAL Navneet
Direction de thèse
DIAS Gael (Directeur·trice de thèse)
Date de la soutenance
27/06/2024 à 14:00
Lieu de la soutenance
Salle de soutenance, S3, Campus 2, Caen
Rapporteurs de la thèse
AMBLARD MAXIME Université de Lorraine
DOUCET Antoine UNIVERSITE LA ROCHELLE
Membres du jurys
AMBLARD MAXIME, , Université de Lorraine
DE CHOUDHURY MUNMUM, , Institut de Technologie de Géorgie
DIAS Gael, , Université de Caen Normandie (UCN)
DOUCET Antoine, , UNIVERSITE LA ROCHELLE
GRABAR NATALIA, , UNIVERSITE LILLE 3 CHARLES DE GAULLE
KRISHNA SAI SUBRAHMANYAM GORTHI RAMA, , Indian Institute of Technology
SIRTS KAIRIT, Maître de conférences, Université de Tartu - Estonie
Résumé
Compte tenu de l'impact sévère et généralisé de la dépression, des initiatives de recherche significatives ont été entreprises pour définir des systèmes d'évaluation automatisée de la dépression. La recherche présentée dans cette thèse tourne autour des questions suivantes qui restent relativement inexplorées malgré leur pertinence dans le domaine de l'évaluation automatisée de la dépression : (1) le rôle de la structure du discours dans l'analyse de la santé mentale, (2) la pertinence de la représentation de l'entrée pour les capacités prédictives des modèles de réseaux neuronaux, et (3) l'importance de l'expertise du domaine dans la détection automatisée de la dépression. La nature dyadique des entretiens patient-thérapeute garantit la présence d'une structure sous-jacente complexe dans le discours. Dans cette thèse, nous établissons d'abord l'importance des questions du thérapeute dans l'entrée du modèle de réseau neuronal, avant de montrer qu'une combinaison séquentielle des entrées du patient et du thérapeute est une stratégie sous-optimale. Par conséquent, des architectures à vues multiples sont proposées comme moyen d'incorporer la structure du discours dans le processus d'apprentissage des réseaux neuronaux. Les résultats expérimentaux obtenus avec deux encodages de texte différents montrent les avantages des architectures multi-vues proposées, validant la pertinence de la conservation de la structure du discours dans le processus d'apprentissage du modèle. Ayant établi la nécessité de conserver la structure du discours dans le processus d'apprentissage, nous explorons plus avant les représentations textuelles basées sur les graphes. Les recherches menées dans ce contexte mettent en évidence l'impact des représentations d'entrée non seulement pour définir les capacités d'apprentissage du modèle, mais aussi pour comprendre leur processus prédictif. Les graphiques de similitude de phrases et les graphiques de corrélation de mots-clés sont utilisés pour illustrer la capacité des représentations graphiques à fournir des perspectives variées sur la même entrée, en mettant en évidence des informations qui peuvent non seulement améliorer les performances prédictives des modèles, mais aussi être pertinentes pour les professionnels de la santé. Le concept de vues multiples est également incorporé dans les deux structures graphiques afin de mettre en évidence les différences de perspectives entre le patient et le thérapeute au cours d'un même entretien. En outre, il est démontré que la visualisation des structures graphiques proposées peut fournir des informations précieuses indiquant des changements subtils dans le comportement du patient et du thérapeute, faisant allusion à l'état mental du patient. Enfin, nous soulignons le manque d'implication des professionnels de la santé dans le contexte de la détection automatique de la dépression basée sur des entretiens cliniques. Dans le cadre de cette thèse, des annotations cliniques de l'ensemble de données DAIC-WOZ ont été réalisées afin de fournir une ressource pour mener des recherches interdisciplinaires dans ce domaine. Des expériences sont définies pour étudier l'intégration des annotations cliniques dans les modèles de réseaux neuronaux appliqués à la tâche de prédiction au niveau des symptômes dans le domaine de la détection automatique de la dépression. En outre, les modèles proposés sont analysés dans le contexte des annotations cliniques afin d'établir une analogie entre leur processus prédictif et leurs tendances psychologiques et ceux des professionnels de la santé, ce qui constitue une étape vers l'établissement de ces modèles en tant qu'outils cliniques fiables.
Abstract
Given the severe and widespread impact of depression, significant research initiatives have been undertaken to define systems for automated depression assessment. The research presented in this dissertation revolves around the following questions that remain relatively unexplored despite their relevance within automated depression assessment domain; (1) the role of discourse structure in mental health analysis, (2) the relevance of input representation towards the predictive abilities of neural network models, and (3) the importance of domain expertise in automated depression detection. The dyadic nature of patient-therapist interviews ensures the presence of a complex underlying structure within the discourse. Within this thesis, we first establish the importance of therapist questions within the neural network model's input, before showing that a sequential combination of patient and therapist input is a sub-optimal strategy. Consequently, Multi-view architectures are proposed as a means of incorporating the discourse structure within the learning process of neural networks. Experimental results with two different text encodings show the advantages of the proposed multi-view architectures, validating the relevance of retaining discourse structure within the model's training process. Having established the need to retain the discourse structure within the learning process, we further explore graph based text representations. The research conducted in this context highlights the impact of input representations not only in defining the learning abilities of the model, but also in understanding their predictive process. Sentence Similarity Graphs and Keyword Correlation Graphs are used to exemplify the ability of graphical representations to provide varying perspectives of the same input, highlighting information that can not only improve the predictive performance of the models but can also be relevant for medical professionals. Multi-view concept is also incorporated within the two graph structures to further highlight the difference in the perspectives of the patient and the therapist within the same interview. Furthermore, it is shown that visualization of the proposed graph structures can provide valuable insights indicative of subtle changes in patient and therapist's behavior, hinting towards the mental state of the patient. Finally, we highlight the lack of involvement of medical professionals within the context of automated depression detection based on clinical interviews. As part of this thesis, clinical annotations of the DAIC-WOZ dataset were performed to provide a resource for conducting interdisciplinary research in this field. Experiments are defined to study the integration of the clinical annotations within the neural network models applied to symptom-level prediction task within the automated depression detection domain. Furthermore, the proposed models are analyzed in the context of the clinical annotations to analogize their predictive process and psychological tendencies with those of medical professionals, a step towards establishing them as reliable clinical tools.

Grandes déviatiοns dynamiques du prοcessus de l'exclusiοn en cοntact faible avec des réservοirs

Doctorant·e
BOULEY Angele
Direction de thèse
LANDIM CLAUDIO (Directeur·trice de thèse)
Date de la soutenance
25/06/2024 à 14:00
Lieu de la soutenance
LMRS - Laboratoire de Mathématiques Raphaël Salem
Rapporteurs de la thèse
BLONDEL ORIANE Université Claude Bernard - Lyon 1
TERTULIANO FRANCO Université Fédérale de Bahia
Membres du jurys
BLONDEL ORIANE, , Université Claude Bernard - Lyon 1
CALKA PIERRE, , Université de Rouen Normandie (URN)
LANDIM CLAUDIO, , Université de Rouen Normandie (URN)
MOURRAGUI MUSTAPHA, , Université de Rouen Normandie (URN)
SIMON MARIELLE, , Université Claude Bernard - Lyon 1
TERTULIANO FRANCO, , Université Fédérale de Bahia
Résumé
Cette thèse s'intéresse à un processus d'exclusion en contact faible avec des réservoirs. Plus précisément, on reprend le modèle étudié dans l'article "Hydrostatics and dynamical large deviations of boundary driven gradient symmetric exclusion processes" de J. Farfan, C. Landim, M. Mourragui mais dans le cas d'un contact faible (et non plus fort) avec les réservoirs. Par ce contact faible, des résultats sont modifiés comme le théorème de la limite hydrodynamique et le théorème des grandes déviations dynamiques. Ce sont les modifications de ses deux résultats qui sont étudiés dans cette thèse dans le cas de la dimension 1. La première partie de la thèse consistera à montrer le théorème de la limite hydrodynamique pour notre modèle, i.e. montrer la convergence de la mesure empirique. En se basant sur les étapes de la Section 5 du livre "Scaling limits of interacting particle systems" de C. Kipnis, C. Landim, il s'agira de montrer que cette suite est relativement compacte avant d'étudier les propriétés de ses points limites. Pour chacune des sous-suites convergentes, on montrera que celles-ci convergent vers des points limites qui se concentrent sur des trajectoires absolument continues et dont les densités sont solutions faibles d'une équation qu'on nommera l'équation hydrodynamique. En finissant par montrer qu’il y a unicité des solutions faibles de l’équation hydrodynamique, on aura alors un unique point limite et la convergence de la suite sera établie. Dans la deuxième partie de la thèse, on montrera le théorème des grandes déviations dynamiques, i.e. qu'il existe une fonction taux I_{[0,T]}( . |\gamma) vérifiant le principe des grandes déviations pour la suite étudiée dans la première partie. Après avoir définit la fonction taux, on montrera donc que celle-ci est semicontinue inférieurement, qu'elle a ses ensembles de niveaux compacts et qu'elle vérifie une propriété de borne inférieure et de borne supérieure. Une des principales difficulté sera de montrer qu’on a une propriété de densité pour un ensemble F pour notre fonction taux. Ceci représentera donc une part importante de cette section. De plus, pour montrer cette densité, on aura besoin de décomposer la fonction I_{[0,T]}( .|\gamma) qui admet des termes de bords et n’a pas de propriété de convexité comme l’ont les fonctions taux de plusieurs modèles déjà existants. En raison de ses deux contraintes, de nouvelles propriétés de régularités ainsi qu'un nouveau type de décomposition seront démontrés.
Abstract
This thesis focuses on a process of exclusion in weak contact with reservoirs. More precisely, we revisit the model studied in the article "Hydrostatics and dynamical large deviations of boundary driven gradient symmetric exclusion processes" by J. Farfan, C. Landim, M. Mourragui but in the case of weak (rather than strong) contact with the reservoirs. Through this weak contact, results are modified such as the hydrodynamic limit theorem and the theorem of large dynamical deviations. The modifications of these two results are studied in this thesis in the case of dimension 1. The first part of the thesis will consist of proving the hydrodynamic limit theorem for our model, i.e. showing the convergence of the empirical measure. Based on the steps in Section 5 of the book "Scaling limits of interacting particle systems" by C. Kipnis, C. Landim, we will show that this sequence is relatively compact before studying the properties of its limit points. For each convergent subsequence, we will show that they converge to limit points that concentrate on absolutely continuous trajectories and whose densities are weak solutions of an equation that we will call the hydrodynamic equation. By demonstrating the uniqueness of weak solutions of the hydrodynamic equation, we will then have a unique limit point and the convergence of the sequence will be established. In the second part of the thesis, we will demonstrate the theorem of large dynamical deviations, i.e. that there exists a rate function I_{[0,T]}(.|\gamma) satisfying the large deviations principle for the sequence studied in the first part. After defining the rate function, we will show that it is lower semicontinuous, has compact level sets, and satisfies a lower bound and an upper bound property. One of the main challenges will be to show a density property for a set F. This will represent a significant part of this section. Moreover, to prove this density property, we will need to decompose the function I_{[0,T]}(.|\gamma) which contains boundary terms and does not have a convexity property like the rate functions of several existing models. Due to these two constraints, new regularity properties as well as a new type of decomposition will be demonstrated.

Μοbile data analysis: rοbust alignment and flexible clustering methοds

Doctorant·e
YAN YUJIN
Direction de thèse
PAUCHET ALEXANDRE (Directeur·trice de thèse)
KNIPPEL ARNAUD (Co-encadrant·e de thèse)
Date de la soutenance
21/06/2024 à 10:30
Lieu de la soutenance
amphi DU B RJ 02 (Marie Curie) du bâtiment Dumont d'Urville de l'INSA de Rouen Normandie
Rapporteurs de la thèse
DU MOUZA CEDRIC Conservatoire national des arts et métiers
NGUYEN VIET HUNG Université Clermont Auvergne
Membres du jurys
ALES ZACHARIE, , ENSTA Paris
DU MOUZA CEDRIC, , Conservatoire national des arts et métiers
JOLLOIS FRANCOIS-XAVIER, , Université Paris Cité
KNIPPEL ARNAUD, , INSA de Rouen Normandie
LESOT MARIE-JEANNE, , Sorbonne Université
MAINGUENAUD MICHEL, , INSA de Rouen Normandie
NGUYEN VIET HUNG, , Université Clermont Auvergne
PAUCHET ALEXANDRE, , INSA de Rouen Normandie
Résumé
La popularité des appareils mobiles dans la vie moderne a révolutionné la communication, la navigation et les activités quotidiennes. Les appareils mobiles génèrent une grande quantité de données, y compris un large éventail de comportements des utilisateurs, allant du suivi de la localisation aux modèles de communication et aux données des capteurs. Ces données à multiples facettes ne saisissent pas seulement les interactions entre les individus et leurs appareils, mais révèlent également les tendances et les préférences sociales. Reconnaissant l'importance des données mobiles, nos recherches sont consacrées à l'exploration et à l'exploitation des comportements quotidiens des utilisateurs enregistrés par les appareils mobiles. Dans un premier temps, nous nous concentrons sur l'analyse des données de trajectoire, un composant des données mobiles qui est généralement représenté sous la forme d'une séquence spatio-temporelle. En utilisant les informations sémantiques intégrées dans les points de trajectoire, nous pouvons obtenir des informations sur les comportements et les activités des utilisateurs. Cependant, l'intégration des dimensions spatiales et temporelles augmente la complexité de l'analyse. Nous proposons une architecture de regroupement de trajectoires basée sur la sémantique pour analyser les données de trajectoires, qui comprend le prétraitement des données, l'exploration de la similarité et les méthodes de regroupement. En outre, nous introduisons un modèle d'exploration des similitudes fondé sur la programmation dynamique pour quantifier la similitude entre les trajectoires, améliorant ainsi notre compréhension des données mobiles. Une analyse expérimentale complète est menée sur un ensemble de données réelles afin de comparer notre modèle avec des méthodes de référence. Les résultats de la comparaison montrent la capacité de notre algorithme à examiner efficacement les associations au sein des données de trajectoire. Pour améliorer le contrôle expérimental, nous proposons un modèle de génération de données simulant des scénarios de la vie quotidienne en générant des données aléatoires fondées sur des données d'utilisateurs réels. Grâce à des comparaisons quantitatives entre l'architecture proposée et d'autres approches, notre algorithme démontre des performances acceptables. En passant des données de trajectoire aux données mobiles multivariées, nous sommes confrontés au défi d'utiliser efficacement divers types de capteurs pour extraire des informations subtiles sur le comportement de l'utilisateur. En introduisant l'algorithme d'alignement de séquences multivariées unidimensionnelles (1D MSA) et l'algorithme d'alignement de séquences multivariées bidimensionnelles (2D MSA), nous facilitons une analyse complète des données mobiles multivariées. Alors que l'algorithme 1D MSA privilégie l'efficacité de calcul, l'algorithme 2D MSA 2D excelle dans l'extraction de similitudes subtiles entre les séquences, ce qui permet une analyse plus détaillée. Parallèlement, nous utilisons différentes méthodes de regroupement pour analyser les sous-séquences similaires obtenues par les deux algorithmes et nous avons obtenu des résultats de regroupement similaires, voire identiques. En outre, les états de l'utilisateur représentés par chaque catégorie dans les résultats du regroupement sont très faciles à interpréter. Cela indique que nos algorithmes peuvent obtenir des résultats stables et cohérents sur des problèmes réels. En outre, nous comparons les sous-séquences similaires obtenues par l'algorithme 2D MSA et les méthodes de référence. Les résultats montrent que l'algorithme 2D MSA que nous proposons est plus performant lorsqu'il s'agit de capturer des similarités subtiles à partir des données. Cette performance robuste fait de l'algorithme 2D MSA un outil puissant pour extraire des sous-séquences significatives dans des données mobiles multivariées, contribuant ainsi à une meilleure interprétation des données et à des app
Abstract
The widespread popularity of mobile devices in modern life has brought a revolution in communication, navigation, and daily activities. Mobile devices generate a vast amount of data, including a wide range of user behaviors from location tracking to communication patterns and sensor data. This multifaceted data not only captures the interactions between individuals and their devices, but also reveals social trends and preferences. Recognizing the importance of mobile data, our research is dedicated to exploring and mining the user daily behavior recorded by mobile devices. Initially, we focus on analyzing trajectory data, which is a component of mobile data that is typically represented as a spatio-temporal sequence. Using the semantic information embedded in trajectory points, we can gain insights into users' behaviors and activities. However, the integration of spatial and temporal dimensions increases the complexity of the analysis. We propose a semantic-based trajectory clustering (STC) architecture to analyze trajectory data, which includes data preprocessing, similarity exploration, and clustering methods. In addition, we introduce a dynamic programming-based similarity exploration (DPD) model to quantify the similarity between trajectories, thus enhancing our understanding of mobile data. A comprehensive experimental analysis is conducted on a real-world dataset to compare the DPD model with the other baseline methods. The comparison results show the adeptness of our DPD algorithm in effectively examining associations within trajectory data. To enhance experimental control, we propose a data generation model simulating daily life scenarios by generating random data based on real user data. Through quantitative comparisons between the proposed STC architecture and other approaches, our algorithm demonstrates good performance. Transitioning from trajectory data to multivariate mobile data, we are challenged to effectively utilize various sensor types to extract subtle insights into user behavior. By introducing one-dimensional multivariate sequence alignment (1D MSA) algorithm and two-dimensional multivariate sequence alignment (2D MSA) algorithm, we facilitate a comprehensive analysis of multivariate mobile data. While the 1D MSA algorithm prioritizes computational efficiency, the 2D MSA algorithm excels at extracting subtle similarities between sequences, providing a more detailed analysis. Meanwhile, we use some different clustering methods to analyze the similar subsequences obtained by the two algorithms and obtained similar or even identical clustering results. Moreover, the user states represented by each category in the clustering results are highly interpretable. This indicates that our algorithms can obtain stable and real-life consistent results. Furthermore, we compare the similar subsequences obtained by 2D MSA algorithm and baseline methods. The results show that our proposed 2D MSA algorithm has superior performance in capturing subtle similarity from the data. This robust performance makes the 2D MSA algorithm as a powerful tool for extracting meaningful subsequences in multivariate mobile data, contributing to enhanced data interpretation and practical applications.

Ρhase retrieval with nοn-Euclidean Bregman based geοmetry

Doctorant·e
GODEME Jean-Jacques
Direction de thèse
FADILI Mohamed Jalal (Directeur·trice de thèse)
Date de la soutenance
21/06/2024 à 10:00
Lieu de la soutenance
Université de Caen
Rapporteurs de la thèse
BLANC-FERAUD LAURE UNIVERSITE NICE SOPHIA ANTIPOLIS
LUKE RUSSELL GOTTINGEN - GEORGE AUGUST UNIVERSITÄT
Membres du jurys
AMRA CLAUDE, , Institut Fresnel (UMR 7249)
BLANC-FERAUD LAURE, , UNIVERSITE NICE SOPHIA ANTIPOLIS
FADILI Mohamed Jalal, , ENSICAEN
JAMING PHILIPPE, , UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
LUKE RUSSELL, , GOTTINGEN - GEORGE AUGUST UNIVERSITÄT
POON CLARICE, , WARWICK - UNIVERITY OF WARWICK
WALDSPURGER IRÈNE, , UNIVERSITE PARIS 9
Résumé
Dans ce travail, nous nous intéressons au problème de reconstruction de phase de signaux à valeurs réelles en dimension finie, un défi rencontré dans de nombreuses disciplines scientifiques et d’ingénierie. Nous explorons deux approches complémentaires : la reconstruction avec et sans régularisation. Dans les deux cas, notre travail se concentre sur la relaxation de l’hypothèse de Lipschitz-continuité généralement requise par les algorithmes de descente du premier ordre, et qui n’est pas valide pour la reconstruction de phase lorsqu’il formulée comme un problème de minimisation. L’idée clé ici est de remplacer la géométrie euclidienne par une divergence de Bregman non euclidienne associée à un noyau générateur approprié. Nous utilisons un algorithme de descente miroir ou de descente à la Bregman avec cette divergence pour résoudre le problème de reconstruction de phase sans régularisation. Nous démontrons des résultats de reconstruction exacte (à un signe global près) à la fois dans un cadre déterministe et avec une forte probabilité pour un nombre suffisant de mesures aléatoires (mesures Gaussiennes et pour des mesures structurées comme la diffraction codée). De plus, nous établissons la stabilité de cette approche vis-à-vis d’un bruit additif faible. En passant à la reconstruction de phase régularisée, nous développons et analysons d’abord un algorithme proximal inertiel à la Bregman pour minimiser la somme de deux fonctions, l’une étant convexe et potentiellement non lisse et la seconde étant relativement lisse dans la géométrie de Bregman. Nous fournissons des garanties de convergence à la fois globale et locale pour cet algorithme. Enfin, nous étudions la reconstruction sans bruit et la stabilité du problème régularisé par un a priori de faible complexité. Pour celà, nous formulons le problème comme la minimisation d’une objective impliquant un terme d’attache aux données non convexe et un terme de régularisation convexe favorisant les solutions conformes à une certaine notion de faible complexité. Nous établissons des conditions pour une reconstruction exacte et stable et fournissons des bornes sur le nombre de mesures aléatoires suffisants pour de garantir que ces conditions soient remplies. Ces bornes d’échantillonnage dépendent de la faible complexité des signaux à reconstruire. Ces résultats nouveaux permettent d’aller bien au-delà du cas de la reconstruction de phase parcimonieuse.
Abstract
In this work, we investigate the phase retrieval problem of real-valued signals in finite dimension, a challenge encountered across various scientific and engineering disciplines. It explores two complementary approaches: retrieval with and without regularization. In both settings, our work is focused on relaxing the Lipschitz-smoothness assumption generally required by first-order splitting algorithms, and which is not valid for phase retrieval cast as a minimization problem. The key idea here is to replace the Euclidean geometry by a non-Euclidean Bregman divergence associated to an appropriate kernel. We use a Bregman gradient/mirror descent algorithm with this divergence to solve the phase retrieval problem without regularization, and we show exact (up to a global sign) recovery both in a deterministic setting and with high probability for a sufficient number of random measurements (Gaussian and Coded Diffraction Patterns). Furthermore, we establish the robustness of this approach against small additive noise. Shifting to regularized phase retrieval, we first develop and analyze an Inertial Bregman Proximal Gradient algorithm for minimizing the sum of two functions in finite dimension, one of which is convex and possibly nonsmooth and the second is relatively smooth in the Bregman geometry. We provide both global and local convergence guarantees for this algorithm. Finally, we study noiseless and stable recovery of low complexity regularized phase retrieval. For this, we formulate the problem as the minimization of an objective functional involving a nonconvex smooth data fidelity term and a convex regularizer promoting solutions conforming to some notion of low-complexity related to their nonsmoothness points. We establish conditions for exact and stable recovery and provide sample complexity bounds for random measurements to ensure that these conditions hold. These sample bounds depend on the low complexity of the signals to be recovered. Our new results allow to go far beyond the case of sparse phase retrieval.

Enhancing Μaritime Lοgistics with Blοckchain Τechnοlοgy: Applicatiοn tο secure and trace dangerοus gοοds in smart pοrts

Doctorant·e
ABDALLAH Rim
Direction de thèse
BERTELLE CYRILLE (Directeur·trice de thèse)
DUVALLET Claude (Co-encadrant·e de thèse)
Date de la soutenance
18/06/2024 à 14:00
Lieu de la soutenance
Amphi UFRST Le Havre
Rapporteurs de la thèse
VERDIER FRANÇOIS UNIVERSITE CÔTE D'AZUR
ZEDDINI BESMA CY TECH CERGY PARIS
Membres du jurys
BENNANI YOUNES, , UNIVERSITE PARIS 13 PARIS-NORD
BERTELLE CYRILLE, , Université Le Havre Normandie (ULHN)
BESANCENOT JÉRÔME, , HAROPA PORT
BOUZEFRANE SAMIA, , CNAM DE PARIS
DUVALLET CLAUDE, , Université Le Havre Normandie (ULHN)
VERDIER FRANÇOIS, , UNIVERSITE CÔTE D'AZUR
ZEDDINI BESMA, , CY TECH CERGY PARIS
Résumé
Cette thèse s'inscrit à l'avant-garde de la logistique maritime et explore le potentiel transformateur de la technologie blockchain pour améliorer la traçabilité de la chaîne d'approvisionnement et faciliter l'échange de données sécurisé et multi-source. À travers une analyse approfondie des applications de la blockchain, ce travail de recherche examine méticuleusement comment cette technologie émergente peut contribuer de manière significative à renforcer la transparence, la traçabilité et la sécurité au sein du commerce international. En s'appuyant sur un cadre théorique complet et des études de cas concrets, cette étude universitaire met en lumière les défis et les opportunités à multiples facettes liés à l'intégration de la blockchain dans la logistique maritime. Elle évalue de manière critique l'impact de cette technologie sur la traçabilité des données critiques au sein des systèmes d'information maritimes, telles que les marchandises dangereuses et les journaux d'identification, avec le potentiel de s'étendre à un échange de données inter et intra plus large. Cette thèse vise non seulement à enrichir les connaissances universitaires, mais également à servir d'appel à l'action pour les innovateurs et les décideurs politiques des secteurs maritime et technologique. Elle préconise une approche innovante qui favorise un engagement plus profond avec les possibilités de transformation offertes par la blockchain. Cette approche considère la blockchain non pas comme un substitut, mais comme une couche complémentaire aux systèmes d'information maritime existants. Elle envisage une intégration et une utilisation transparentes d'une technologie blockchain personnalisée et évaluée au sein du secteur maritime, garantissant ainsi sa cohérence avec les exigences spécifiques de l'industrie et les tendances actuelles de numérisation. Ce travail de recherche vise à fournir des éclairages qui permettent de mieux comprendre les implications de la technologie blockchain pour le paysage en évolution du commerce et de la logistique mondiaux.
Abstract
At the forefront of maritime logistics, this dissertation explores the transformative potential of blockchain technology to enhance supply chain traceability and facilitate secure, multi-source data exchange. Through a deep analysis of blockchain applications, the research meticulously examines how this emerging technology can significantly elevate transparency, strengthen traceability, and fortify security within the global trade arena. By weaving together a comprehensive theoretical framework and real-world case studies, this scholarly endeavour sheds light on the multifaceted challenges and opportunities associated with integrating blockchain into maritime logistics. It critically evaluates the technology's impact on the traceability of critical data within maritime information systems, such as dangerous goods and identification logs, with the potential to extend to broader inter- and intra-data exchange. This dissertation not only contributes to academic knowledge but also serves as a compelling call to action for innovators and policymakers in the maritime and technology sectors. It advocates for an innovative approach that fosters deeper engagement with the possibilities of blockchain-driven transformation. This approach views blockchain not as a replacement, but as a complementary layer to existing maritime information systems. It envisions seamless integration and utilization of customized and evaluated blockchain technology within the maritime sector, ensuring its coherence with industry-specific requirements and ongoing digitization trends. This research aims to provide insights that enhance the understanding of blockchain technology's implications for the evolving global trade and logistics landscape.

Apprentissage prοfοnd pοur l'analyse de la pοllutiοn des sοls par imagerie hyperspectrale

Doctorant·e
DHAINI Mohamad
Direction de thèse
HONEINE PAUL (Directeur·trice de thèse)
Date de la soutenance
17/06/2024 à 14:00
Lieu de la soutenance
Université de Rouen Normandie, Saint Etienne du Rouvray
Rapporteurs de la thèse
PUIGT MATTHIEU ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
SOUSSEN CHARLES CentraleSupélec
Membres du jurys
AINOUZ SAMIA, , INSA de Rouen Normandie
BERAR MAXIME, , Université de Rouen Normandie (URN)
FABRE SOPHIE, , Office National d'Etudes&recherches Aéro
HONEINE PAUL, , Université de Rouen Normandie (URN)
PUIGT MATTHIEU, , ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
RAKOTOMAMONJY ALAIN, , Université de Rouen Normandie (URN)
SOUSSEN CHARLES, , CentraleSupélec
Résumé
Ces dernières années, l'apprentissage profond a été étudié pour un large spectre d'applications. Dans cette thèse, nous visons à explorer un domaine moins connu mais d'une importance cruciale : l'apprentissage profond au profit de l'environnement. Plus précisément, nous étudions l'utilisation de l'apprentissage profond pour l'analyse de la pollution des sols à l'aide de l'imagerie hyperspectrale. Dans notre travail, nous fournissons des réponses aux besoins industriels identifiés par la société Tellux spécialisée dans les analyses environnementales tels de la pollution par les hydrocarbures ou la matière organique des sols. L'application de modèles d'apprentissage profond sur des données spectrales des sols n'est pas simple en raison des variabilités liées à la composition des sols, des types de contaminants ainsi que les paramètres d'acquisition. La thèse est divisée en deux parties principales en fonction de la nature et des objectifs des modèles développés. Dans la première partie, nous abordons les modèles conçus pour caractériser la structures stratigraphique des données d'un seul site de sol. A cette fin, en utilisant des techniques d'apprentissage non supervisé, notre contribution consiste à développer un autoencodeur convolutionnel complet pour le démélange hyperspectral non-linéaire conçu pour estimer la composition du sol. L'autoencodeur proposé surpasse des ensembles de données hyperspectrales aéroportées bien connus et il est utilisé dans une étude de cas opérationel de Tellux pour estimer la structures lithologiques du sol. Dans la deuxième partie, nous abordons les modèles généralisables à différents types de données géologiques, principalement des données synthétiques à des données réelles enregistrés sur le terrain. Nous proposons des modèles de régression conçus pour estimer la concentration en hydrocarbures des sols. À cette fin, nous explorons les techniques d'adaptation au domaine pour les tâches de régression sur les données hyperspectrales. L'adaptation de domaine pour les tâches de régression est très difficile par rapport à la classification en raison de la sensibilité du modèle à la dispersion des données dans l'espace des caractéristiques en fonction de la variable de sortie. Notre contribution consiste en deux nouvelles fonctions de perte de domaine adaptées aux problèmes de régression avec une mise en œuvre stable dans un réseau neuronal. Enfin, pour accroître la robustesse du modèle face à plusieurs variabilités spectrales possibles, nous explorons les techniques d'apprentissage contrastif pour les tâches de régression. À cette fin, nous proposons des techniques d'augmentation spectrale et spatiale adaptées aux données hyperspectrales et nous fournissons un cadre pour l'apprentissage contrastif spectral et spectral-spatial pour la régression sur les données hyperspectrales. Les techniques d'adaptation au domaine et d'apprentissage contrastif proposées améliorent les scores de régression des modèles de base les plus récents sur des données hyperspectrales aériennes synthétiques et réelles. De plus, les techniques proposées améliorent la généralisation des modèles Tellux des ensembles de données synthétiques de laboratoire et des ensembles de données réelles enregistrés sur le terrain.
Abstract
Throughout the years, deep learning has been investigated across a broad spectrum of applications. In this thesis, we aim to explore a less charted but critically important area: deep learning for the benefit of the environment. More precisely, we investigate the use of deep learning for soil pollution analysis using hyperspectral imagery. In our work, we provide answers to the industrial needs identified by the startup Tellux specialized in the environmental analysis such as soil pollution by hydrocarbons or organic materials. The application of deep learning models on soil spectral data is not straightforward as there are several difficulties faced related to variabilities in soil composition, types of pollutants, and acquisition parameters. The thesis is divided into two main parts according to the nature and objectives of the developed models. In the first part, we address the models designed to characterize the strati-graphic structure of a single site soil data. To this end, using unsupervised learning techniques, our contribution consists of developing an end-to-end convolutional autoencoder for nonlinear hyperspectral unmixing designed to estimate the soil composition. The proposed autoencoder outperforms well-known airborne hyperspectral datasets and is used in the operational phase of Tellux to estimate soil lithology. In the second part, we address the models that can be generalized across different soil datasets from different geological sites, mainly from synthetic ones to real field datasets. We propose regression models designed for estimating concentration of hydrocarbons pollution. For this purpose, we explore domain adaptation techniques for regression tasks on hyperspectral data. Domain adaptation for regression tasks is very challenging compared to classification due to sensitivity of the model to scattering of data in the feature space according to the output variable. Our contribution consists of two novel domain loss functions suitable for regression problems with stable implementation inside a neural network. Finally, to increase the robustness of the model against several possible spectral variabilities, we explore contrastive learning techniques for regression tasks. To this end, we propose spectral and spatial augmentation techniques suitable for hyperspectral data and we provide a framework for spectral and spectral-spatial contrastive learning for regression on hyperspectral data. The proposed domain adaptation and contrastive learning techniques improves the regression scores of state-of-the-art baseline models on synthetic and real airborne hyperspectral data. Besides, the proposed techniques improves the generalization of Tellux models from synthetic laboratory datasets to real field ones.

Μοdélisatiοn et simulatiοn numérique du prοblème inverse en tοmοgraphie électrοmagnétique.

Doctorant·e
COUSIN THEAU
Direction de thèse
GOUT CHRISTIAN (Directeur·trice de thèse)
FAUCHARD CYRILLE (Co-directeur·trice de thèse)
TONNOIR ANTOINE (Co-encadrant·e de thèse)
Date de la soutenance
25/03/2024 à 14:15
Lieu de la soutenance
Amphi Curie, INSA Rouen.
Rapporteurs de la thèse
DARBAS MARION Université de Paris 13
LEPAROUX DONATIENNE Université Gustave Eiffel
Membres du jurys
DARBAS MARION, , Université de Paris 13
DUMONT HERVÉ, , Eiffage
FAUCHARD CYRILLE, , Cerema
FLISS SONIA, , ENSTA Paris
GOUT CHRISTIAN, , INSA de Rouen Normandie
LEPAROUX DONATIENNE, , Université Gustave Eiffel
SERHIR MOHAMMED, , Centrale Supelec
TONNOIR ANTOINE, , INSA de Rouen Normandie
Résumé
Cette thèse s'inscrit dans un projet de recherche qui a pour ambition de développer, dans une démarche écologique, une méthodologie permettant de retrouver la densité des matériaux du génie civil. L'objectif est de remplacer une méthode invasive et nucléaire par une approche non destructive et électromagnétique. Les travaux de cette thèse sont issues d'une collaboration Cifre entre le Cerema, Routes de France et le Laboratoire de Mathématiques de l'INSA de Rouen Normandie (LMI). Des premiers travaux ont permis d'établir un lien entre la densité et la permittivité diélectrique d'un matériau, ce qui a conduit l'équipe ENDSUM du Cerema Normandie à réaliser un banc permettant d'émettre et de recevoir des ondes électromagnétiques. Il est équipé de moteurs pas à pas pour les antennes et un moteur pour le support, permettant d'accéder à des mesures de type tomographie. L'objectif de cette thèse est de mettre en place un solveur permettant de réaliser une inversion sur les données générées par ce banc afin de retrouver la permittivité et in fine la compacité. Cela implique la modélisation et la simulation numérique de ce système, basée sur la diffraction des ondes électromagnétiques régie par les équations de Maxwell que nous avons étudiés en ordre 2. La réalisation de ce solveur 3D a nécessité l'implémentation d'une méthode type \'Elément Finis, basée sur les \'Eléments Finis de Nédelec. La prise en compte du caractère non borné du domaine a été réalisée grâce à l'implémentation de Perfectly Matched Layers. Afin d'optimiser l'implémentation, nous avons également mis en place une vectorisation de l'assemblage des matrices de discrétisation et implémenté une méthode de décomposition de domaine. Finalement, la résolution du problème de minimisation s'est faite par une approche de type Gauss-Newton utilisant la méthode d'état adjoints pour le calcul de la matrice Hessienne. Cette résolution est combinée avec une régularisation de Tikhonov dite semi-quadratique permettant d'accentuer le contraste dans la permittivité recherchée. La modélisation du banc a également nécessité des travaux sur le calibrage des antennes utilisées. Nous avons réadapté les travaux de dans le but de considérer les antennes comme une source ponctuelle associée à une onde sphérique et mis en place un procédé expérimental permettant de corriger les signaux reçus.
Abstract
This thesis is part of a research project aiming to develop, in an ecological approach, a methodology for retrieving the density of civil engineering materials. The objective is to replace an invasive and nuclear method with a non-destructive and electromagnetic approach. The work of this thesis stems from a CIFRE collaboration between Cerema, Routes de France, and the Laboratory of Mathematics at INSA Rouen Normandie (LMI). The initial work has established a relationship between the density and the dielectric permittivity of a material, leading the ENDSUM team at Cerema Normandie to develop a bench capable of emitting and receiving electromagnetic waves. It is equipped with stepper motors for the antennas and a motor for the support, enabling tomography-type measurements. The objective of this thesis is to implement a solver capable of performing inversion on the data generated by this bench to retrieve the permittivity and ultimately the compactness. This involves the numerical modeling and simulation of this system, based on the diffraction of electromagnetic waves governed by the Maxwell equations we studied in second order. The development of this 3D solver required the implementation of a Finite Element type method, based on Nedelec Finite Elements. The consideration of the unbounded nature of the domain was achieved through the implementation of Perfectly Matched Layers. To optimize the implementation, we also introduced vectorization of the discretization matrix assembly and implemented a domain decomposition method. Finally, the resolution of the minimization problem was carried out using a Gauss-Newton approach utilizing the adjoint state method for computing the Hessian matrix. This resolution is combined with a semi-quadratic Tikhonov regularization method to enhance the contrast in the desired permittivity. The modeling of the bench also required work on the calibration of the antennas used. We have readapted previous work to consider the antennas as a point source associated with a spherical wave and implemented an experimental process to correct the received signals.

Ρrοblems, mοdels and methοds fοr risk reductiοn after industrial disasters invοlving dangerοus substances

Doctorant·e
BARBALHO Thiago Jobson
Direction de thèse
SANTOS ANDREA CYNTHIA (Directeur·trice de thèse)
Date de la soutenance
19/03/2024 à 14:00
Lieu de la soutenance
Amphi Normand - Bâtiment UFR Sciences et Techniques
Rapporteurs de la thèse
ABSI NABIL ECOLE NATIONALE DES MINES DE ST ETIENNE
KEDAD-SIDHOUM SAFIA CNAM DE PARIS
Membres du jurys
ABSI NABIL, , ECOLE NATIONALE DES MINES DE ST ETIENNE
BOSTEL NATHALIE, , Nantes Université
DE CASTRO PENA GUILHERME, , UNIVERSIDADE FEDERAL DE SAO JOAO DEL-REI
DUHAMEL CHRISTOPHE, , Université Le Havre Normandie (ULHN)
JIMENEZ LAREDO JUAN LUIS, , UNIVERSIDAD DE GRANADA
KEDAD-SIDHOUM SAFIA, , CNAM DE PARIS
SANTOS ANDREA CYNTHIA, , Université Le Havre Normandie (ULHN)
Résumé
En Europe, plus de 250 accidents majeurs impliquant des sites industriels soumis à la Directive Seveso ont été signalés depuis 2010. Malgré les réglementations en place visant à prévenir de tels accidents et à en minimiser l'impact, la gestion des risques après ces catastrophes reste un défi complexe. Lorsqu'un désastre industriel survient, des informations préliminaires sur le terrain sont collectées pour déterminer l'étendue de l'accident, et des décisions opérationnelles doivent être prises en fonction de la nature dangereuse des produits impliqués et de l'étendue de la zone affectée. Dans cette thèse, nous explorons le domaine des problèmes complexes de planification étroitement liés aux facteurs de risque découlant du traitement (nettoyage ou neutralisation) de substances dangereuses accidentellement libérées par des sources industrielles. L'objectif principal est de développer des modèles d'optimisation et des solutions efficaces qui abordent les défis auxquels sont confrontés les secteurs industriels et les opérations logistiques. Nous proposons de nouveaux problèmes d'optimisation pour établir un cadre de planification des opérations sur site visant à nettoyer ou neutraliser les dangers potentiels. Nous présentons plusieurs scénarios de problèmes et investiguons leurs résultats numériques obtenus par les différentes méthodes d'optimisation. Ces méthodes, conjointement avec les plans de gestion des risques déjà existants, peuvent fournir des insights intéressants pour être appliqués à des situations réalistes.
Abstract
In Europe, more than 250 major accidents involving industrial sites under the Seveso Directive have been reported since 2010. Despite regulations in place to prevent such accidents and minimize their impact, managing risk after these disasters remains a complex challenge. Once an industrial disaster occurs, preliminary on-the-ground information is collected to determine the extent of the accident, and operational decisions need to be made based on the hazardous nature of the products involved and the extent of the affected area. In this thesis, we delve into the realm of complex scheduling problems closely linked to risk factors arising from the treatment (cleaning or neutralizing) of hazardous substances accidentally released by industrial sources. The primary objective is to develop effective optimization models and solutions addressing the challenges faced by industries and logistical operations. We propose new optimization problems to establish a framework for scheduling on-site operations to either clean or neutralize potential hazards. We present mathematical formulations and an Iterated Local Search metaheuristic. The methods were applied to solve various problem scenarios, and we investigate their numerical results and their applicability to realistic situations.

Un système d'aide à la décisiοn pοur les négοces de matériaux

Doctorant·e
SOUPLY Marc
Direction de thèse
RIOULT Francois (Directeur·trice de thèse)
Date de la soutenance
06/03/2024 à 14:00
Lieu de la soutenance
Caen Campus 2
Rapporteurs de la thèse
CAMARGO MAURICIO Université de Lorraine
CLÉMENÇON STEPHAN Telecom Paris
Membres du jurys
CAMARGO MAURICIO, , Université de Lorraine
CLÉMENÇON STEPHAN, , Telecom Paris
FRYDMAN CLAUDIA, , Ecole Polytechnique Amu Universite Aix Marseille
MENARD Tomas, Maître de conférences HDR, Université de Caen Normandie (UCN)
RIOULT Francois, Maître de conférences HDR, Université de Caen Normandie (UCN)
ZACHAREWICZ GRÉGORY, , IMT Mines d'Alès
ZANNI-MERK CECILIA, , INSA de Rouen Normandie
Résumé
Cette thèse détaille la mise en œuvre d'un système d'aide à la décision pour le négoce de matériaux. Le contexte industriel dans lequel évolue ce négoce y est notamment décrit, et justifie les deux axes clé où des améliorations significatives peuvent être apportées : la prédiction de la demande, et l'optimisation du réapprovisionnement. Une exploration des solutions existantes dans ces deux domaines est proposée, et une discussion sur l'applicabilité des méthodes récentes rattachées à l'industrie 4.0 est menée. Il apparaît que les industries de tailles moyennes et petites n'ont ni le besoin ni les moyens de déployer les modèles issus du big data. Pour ces raisons, la thèse propose des processus économes en puissance de calcul, mêlant des méthodes traditionnelles bien connues avec des concepts plus récents pour circonscrire les prévisions et les réapprovisionnements autour de ce qui compte réellement pour le négoce de matériaux~: des résultats fiables sur les produits clé, obtenus selon des durées opérationnelles réaliste. Pour ces raisons, le travail s'appuie principalement sur des expérimentations comme la prévision avec extraction de saisonnalité automatisée et le choix en amont du meilleur modèle prédictif parmi quatre : le modèle ARIMAX, la forêt aléatoire, le LSTM et une moyenne mobile. L'optimisation, elle, se voit accélérée par l'enchaînement de méthodes de résolution appuyées par de l'early-stopping et du warm-start, tout en tenant compte des nombreuses contraintes spécifiques au négoce. Quatre méthodes de résolution sont ainsi comparées~: un algorithme glouton, un solveur quadratique, le recuit simulé et un algorithme génétique.
Abstract
This thesis describes the implementation of a decision support system for the material trade. It describes the industrial context in which this trade operates, and justifies the two key areas where significant improvements can be made: demand prediction and replenishment optimization. Existing solutions in these two areas are explored, and the applicability of recent Industry 4.0 methods is discussed. It appears that small and medium-sized industries have neither the need nor the means to deploy Big Data models. For these reasons, this work proposes processes that save computing power, blending well-known traditional methods with more recent concepts to circumscribe forecasts and replenishments around what really matters for the material trade: reliable results on key products, obtained within realistic operational timescales. For these reasons, the study relies mainly on experiments such as forecasting with automated seasonality extraction and upstream selection of the best predictive model from four: the ARIMAX model, the random forest, the LSTM and a moving average. Optimization, on the other hand, is accelerated by a sequence of resolution methods supported by early-stopping and warm-start, while taking into account the numerous constraints specific to this trading field. Four optimization methods are compared: a greedy algorithm, a quadratic solver, simulated annealing and a genetic algorithm.

Real-time Ιndοοr Lοcalizatiοn with Embedded Cοmputer Visiοn and Deep Learning

Doctorant·e
DAOU Andrea
Direction de thèse
HONEINE PAUL (Directeur·trice de thèse)
BENSRHAIR ABDELAZIZ (Co-directeur·trice de thèse)
Date de la soutenance
14/02/2024 à 14:00
Lieu de la soutenance
Rouen (Saint Etienne du Rouvray)
Rapporteurs de la thèse
CHAMBON SYLVIE Université de Toulouse 3 - Paul Sabatier
SIDEBE DRO DESIRE Comue Universites Paris-Saclay
Membres du jurys
BENSRHAIR ABDELAZIZ, , INSA de Rouen Normandie
CHAMBON SYLVIE, , Université de Toulouse 3 - Paul Sabatier
HONEINE PAUL, , Université de Rouen Normandie (URN)
MERIAUDEAU FABRICE, , Universite de Bourgogne
SIDEBE DRO DESIRE, , Comue Universites Paris-Saclay
Résumé
La localisation d'une personne ou d'un bien dans des environnements intérieurs est devenue une nécessité. Le système de positionnement par satellites, une solution prédominante pour la localisation en extérieur, rencontre des limites lorsqu'il est appliqué en intérieur en raison de la réflexion des signaux et de l'atténuation causée par les obstacles. Pour y remédier, diverses solutions de localisation en intérieur ont été étudiées. Les méthodes de localisation en intérieur sans fil exploitent les signaux pour déterminer la position d'un appareil dans un environnement intérieur. Cependant, l'interférence des signaux, souvent causée par des obstacles physiques, des réflexions et des appareils concurrents, peut entraîner des imprécisions dans l'estimation de la position. De plus, ces méthodes nécessitent le déploiement d'infrastructures, ce qui entraîne des coûts d'installation et de maintenance. Une autre approche consiste à estimer le mouvement de l'utilisateur à l'aide des capteurs inertiels de l'appareil. Toutefois, cette méthode se heurte à des difficultés liées à la précision des capteurs, aux caractéristiques de mouvement de l'utilisateur et à la dérive temporelle. D'autres techniques de localisation en intérieur exploitent les champs magnétiques générés par la Terre et les structures métalliques. Ces techniques dépendent des appareils et des capteurs utilisés ainsi que de l'environnement dans lequel se situe l'utilisateur. L'objectif de cette thèse est de réaliser un système de localisation en intérieur conçu pour les professionnels, tels que les pompiers, les officiers de police et les travailleurs isolés, qui ont besoin de solutions de positionnement précises et robustes dans des environnements intérieurs complexes. Dans cette thèse, nous proposons un système de localisation en intérieur qui exploite les récentes avancées en vision par ordinateur pour localiser une personne à l’intérieur d’un bâtiment. Nous développons un système de localisation au niveau de la pièce. Ce système est basé sur l'apprentissage profond et les capteurs intégrés dans le smartphone, combinant ainsi les informations visuelles avec le cap magnétique du smartphone. Pour se localiser, l'utilisateur capture une image de l'environnement intérieur à l'aide d'un smartphone équipé d'une caméra, d'un accéléromètre et d'un magnétomètre. L'image capturée est ensuite traitée par notre système composé de plusieurs réseaux neuronaux convolutionnels directionnels pour identifier la pièce spécifique dans laquelle se situe l'utilisateur. Le système proposé nécessite une infrastructure minimale et fournit une localisation précise. Nous soulignons l'importance de la maintenance continue du système de localisation en intérieur par vision. Ce système nécessite une maintenance régulière afin de s'adapter à l'évolution des environnements intérieurs, en particulier lorsque de nouvelles pièces doivent être intégrées dans le système de localisation existant. L'apprentissage incrémental par classe est une approche de vision par ordinateur qui permet aux réseaux neuronaux profonds d'intégrer de nouvelles classes au fil du temps sans oublier les connaissances déjà acquises. Dans le contexte de la localisation en intérieur par vision, ce concept doit être appliqué pour prendre en compte de nouvelles pièces. La sélection d'échantillons représentatifs est essentielle pour contrôler les limites de la mémoire, éviter l'oubli et conserver les connaissances des classes déjà apprises. Nous développons une méthode de sélection d'échantillons basée sur la cohérence pour l'apprentissage incrémental par classe dans le cadre de l'apprentissage profond. La pertinence de la méthodologie et des contributions algorithmiques de cette thèse est rigoureusement testée et validée par des expérimentations et des évaluations complètes sur des données réelles.
Abstract
The need to determine the location of individuals or objects in indoor environments has become an essential requirement. The Global Navigation Satellite System, a predominant outdoor localization solution, encounters limitations when applied indoors due to signal reflections and attenuation caused by obstacles. To address this, various indoor localization solutions have been explored. Wireless-based indoor localization methods exploit wireless signals to determine a device's indoor location. However, signal interference, often caused by physical obstructions, reflections, and competing devices, can lead to inaccuracies in location estimation. Additionally, these methods require access points deployment, incurring associated costs and maintenance efforts. An alternative approach is dead reckoning, which estimates a user's movement using a device's inertial sensors. However, this method faces challenges related to sensor accuracy, user characteristics, and temporal drift. Other indoor localization techniques exploit magnetic fields generated by the Earth and metal structures. These techniques depend on the used devices and sensors as well as the user's surroundings. The goal of this thesis is to provide an indoor localization system designed for professionals, such as firefighters, police officers, and lone workers, who require precise and robust positioning solutions in challenging indoor environments. In this thesis, we propose a vision-based indoor localization system that leverages recent advances in computer vision to determine the location of a person within indoor spaces. We develop a room-level indoor localization system based on Deep Learning (DL) and built-in smartphone sensors combining visual information with smartphone magnetic heading. To achieve localization, the user captures an image of the indoor surroundings using a smartphone, equipped with a camera, an accelerometer, and a magnetometer. The captured image is then processed using our proposed multiple direction-driven Convolutional Neural Networks to accurately predict the specific indoor room. The proposed system requires minimal infrastructure and provides accurate localization. In addition, we highlight the importance of ongoing maintenance of the vision-based indoor localization system. This system necessitates regular maintenance to adapt to changing indoor environments, particularly when new rooms have to be integrated into the existing localization framework. Class-Incremental Learning (Class-IL) is a computer vision approach that allows deep neural networks to incorporate new classes over time without forgetting the knowledge previously learned. In the context of vision-based indoor localization, this concept must be applied to accommodate new rooms. The selection of representative samples is essential to control memory limits, avoid forgetting, and retain knowledge from previous classes. We develop a coherence-based sample selection method for Class-IL, bringing forward the advantages of the coherence measure to a DL framework. The relevance of the methodology and algorithmic contributions of this thesis is rigorously tested and validated through comprehensive experimentation and evaluations on real datasets.

Ρrοbabilistic Expοnential Smοοthing fοr Explainable AΙ in the Supply Chain dοmain

Doctorant·e
CIFONELLI ANTONIO
Direction de thèse
CANU STEPHANE (Directeur·trice de thèse)
Date de la soutenance
22/12/2023 à 10:00
Lieu de la soutenance
INSA Rouen Normandie
Bâtiment Bougainville, rez-de-chaussée, salle BO-A-RC-02
685 avenue de l'université
76801 Saint Etienne du Rouvray
Rapporteurs de la thèse
AMINI MASSIH-REZA Université Grenoble Alpes
BATTON HUBERT MIREILLE École des Mines de Saint-Étienne
Membres du jurys
AINOUZ SAMIA, , INSA de Rouen Normandie
AMINI MASSIH-REZA, , Université Grenoble Alpes
BATTON HUBERT MIREILLE, , École des Mines de Saint-Étienne
CANU STEPHANE, , INSA de Rouen Normandie
LE HEGARAT-MASCLE SYLVIE, , Université Paris-Saclay
Résumé
Le rôle clé que l’IA pourrait jouer dans l’amélioration des activités commerciales est connu depuis longtemps, mais le processus de penetration de cette nouvelle technologie a rencontrzécertains freins au sein des entreprises, en particulier, les coûts de mise oeuvre. En moyenne, 2.8 ans sont nécessaires depuis la sélection du fournisseur jusqu’au déploiement complet d’une nouvelle solution. Trois points fondamentaux doivent être pris en compte lors du développement d’un nouveau modèle. Le désalignement des attentes, le besoin de compréhension et d’explications et les problems de performance et de fiabilité. Dans le cas de modèles traitant des données de la supply chain, cinq questions spécifiques viennent s’ajouter aux précédentes: - La gestion des incertitudes. Les décideurs cherchent un moyen de minimiser le risque associé à chaque décision qu’ils doivent prendre en présence d’incertitude. Obtenir une prévision exacte est un rêve; obtenir une prévision assez précise et en calculer les limites est réaliste et judicieux. - Le traitement des données entières et positives. La plupart des articles ne peuvent pas être vendus en sous-unités. Cet aspect simple de la vente se traduit par une contrainte qui doit être satisfaite: le résultat doit être un entier positif. - L’observabilité. La demande du client ne peut pas être mesurée directement, seules les ventes peuvent être enregistrées et servir de proxy. - La rareté et la parcimonie. Les ventes sont une quantité discontinue. En enregistrant les ventes par jour, une année entiére est condensée en seulement 365 points. De plus, une grande partie d’entre elles sera à zéro. - L’optimisation juste-à-temps. La prévision est une fonction clé, mais elle n’est qu’un élément d’une chaîne de traitements soutenant la prise de décision. Le temps est une ressource précieuse qui ne peut pas être consacrée entièrement à une seule fonction. Le processus de décision et les adaptations associées doivent donc être effectuées dans un temps limité et d’une manière suffisamment flexible pour pouvoir être interrompu et relancé en cas de besoin afin d’incorporer des événements inattendus ou des ajustements nécessaires. Cette thèse s’insère dans ce contexte et est le résultat du travail effectué au coeur de Lokad. La recherche doctorale a été financée par Lokad en collaboration avec l’ANRT dans le cadre d’un contrat CIFRE. Le travail proposé a l’ambition d’être un bon compromis entre les nouvelles technologies et les attentes des entreprises, en abordant les divers aspects précédemment présentés. Nous avons commencé à effectuer des prévisions en utilisant la famille des lissages exponentiels, qui sont faciles à mettre en oeuvre et extrêmement rapides à exécuter. Largement utilisés dans l’industrie, elles ont déjà gagné la confiance des utilisateurs. De plus, elles sont faciles à comprendre et à expliquer à un public non averti. En exploitant des techniques plus avancées relevant du domaine de l’IA, certaines des limites des modèles utilisés peuvent être surmontées. L’apprentissage par transfert s’est avéré être une approche pertinente pour extrapoler des informations utiles dans le cas où le nombre de données disponibles était très limité. Nous avons proposé d’utiliser un modèle associé à une loi de Poisson, une binomiale négative qui correspondmieux à la nature des phénomènes que nous cherchons à modéliser et à prévoir. Nous avons aussi proposé de traiter l’incertitude par des simulations de Monte Carlo. Un certain nombre de scénarios sont générés, échantillonnés et modélisés par dans une distribution. À partir de cette dernière, des intervalles de confiance de taille différentes et adaptés peuvent être déduits. Sur des données réelles de l’entreprise, nous avons comparé notre approche avec les méthodes de l’état de l’art comme DeepAR, DeepSSMs et N-Beats. Nous en avons déduit un nouveau modèle conçu à partir de la méthode Holt-Winter. Ces modèles ont été mis en oeuvre dans le “work flow” de l’entreprise
Abstract
The key role that AI could play in improving business operations has been known for a long time, but the penetration process of this new technology has encountered certain obstacles within companies, in particular, implementation costs. On average, it takes 2.8 years from supplier selection to full deployment of a new solution. There are three fundamental points to consider when developing a new model. Misalignment of expectations, the need for understanding and explanation, and performance and reliability issues. In the case of models dealing with supply chain data, there are five additionally specific issues: - Managing uncertainty. Precision is not everything. Decision-makers are looking for a way to minimise the risk associated with each decision they have to make in the presence of uncertainty. Obtaining an exact forecast is a advantageous; obtaining a fairly accurate forecast and calculating its limits is realistic and appropriate. - Handling integer and positive data. Most items sold in retail cannot be sold in subunits. This simple aspect of selling, results in a constraint that must be satisfied by the result of any given method or model: the result must be a positive integer. - Observability. Customer demand cannot be measured directly, only sales can be recorded and used as a proxy. - Scarcity and parsimony. Sales are a discontinuous quantity. By recording sales by day, an entire year is condensed into just 365 points. What’s more, a large proportion of them will be zero. - Just-in-time optimisation. Forecasting is a key function, but it is only one element in a chain of processes supporting decision-making. Time is a precious resource that cannot be devoted entirely to a single function. The decision-making process and associated adaptations must therefore be carried out within a limited time frame, and in a sufficiently flexible manner to be able to be interrupted and restarted if necessary in order to incorporate unexpected events or necessary adjustments. This thesis fits into this context and is the result of the work carried out at the heart of Lokad, a Paris-based software company aiming to bridge the gap between technology and the supply chain. The doctoral research was funded by Lokad in collaborationwith the ANRT under a CIFRE contract. The proposed work aims to be a good compromise between new technologies and business expectations, addressing the various aspects presented above. We have started forecasting using the exponential smoothing family which are easy to implement and extremely fast to run. As they are widely used in the industry, they have already won the confidence of users. What’s more, they are easy to understand and explain to an unlettered audience. By exploiting more advanced AI techniques, some of the limitations of the models used can be overcome. Cross-learning proved to be a relevant approach for extrapolating useful information when the number of available data was very limited. Since the common Gaussian assumption is not suitable for discrete sales data, we proposed using a model associatedwith either a Poisson distribution or a Negative Binomial one, which better corresponds to the nature of the phenomena we are seeking to model and predict. We also proposed using Monte Carlo simulations to deal with uncertainty. A number of scenarios are generated, sampled and modelled using a distribution. From this distribution, confidence intervals of different and adapted sizes can be deduced. Using real company data, we compared our approach with state-of-the-art methods such as DeepAR model, DeepSSMs and N-Beats. We deduced a new model based on the Holt-Winter method. These models were implemented in Lokad’s work flow.

Μοdelling οf type ΙΙ supercοnductοrs: implementatiοn with FreeFEΜ.

Doctorant·e
TAIN CYRIL
Direction de thèse
CAPUTO JEAN-GUY (Directeur·trice de thèse)
DANAILA IONUT (Co-directeur·trice de thèse)
Date de la soutenance
21/12/2023 à 14:00
Lieu de la soutenance
INSA Rouen Normandie
Bâtiment Dumont d'Urville, rez-de-jardin
Amphi Marie Curie DU-B-RJ-02
685 avenue du l'université
76801 Saint Etienne du Rouvray
Rapporteurs de la thèse
SANDIER ETIENNE Université Paris-Est - Créteil Val-de-Marne
SORENSEN MADS PETER Technical University of Denmark
Membres du jurys
BERGER KEVIN, , Université de Lorraine
CAPUTO JEAN-GUY, , INSA de Rouen Normandie
DANAILA IONUT, , Université de Rouen Normandie (URN)
GOZZELINO LAURA, , Politecnico di Torino, Italy
PROUKAKIS NIKOLAOS, , Newcastle University, Royaume-Uni
SANDIER ETIENNE, , Université Paris-Est - Créteil Val-de-Marne
SORENSEN MADS PETER, , Technical University of Denmark
Résumé
Nous présentons dans cette étude quatre modèles pour les supraconducteurs de type II: le modèle de London, le modèle de Ginzburg-Landau dépendant du temps (TDGL), le modèle de Ginzburg-Landau stationnaire et un modèle de type Abelian-Higgs. Pour le modèle de London nous avons étudié un problème à symétrie cylindrique. Nous avons établi une formulation hydrodynamique du modèle grâce à l'introduction d'une fonction courant. Le caractère bien posé du problème a été prouvé. Le champ magnétique extérieur a été calculé pour des domaines 2D et 3D. En 3D une méthode par éléments frontières a été implémentée en utilisant une fonctionalité récente de FreeFem. Pour le modèle TDGL deux codes fondés sur deux formulations variationnelles ont été implémentées et validées sur des cas tests classiques de la littérature en 2D et 3D. Pour le modèle GL stationnaire une méthode de gradient de Sobolev a été utilisée pour trouver l'état d'équilibre. Ces résultats ont été comparés avec ceux du modèle TDGL. Pour le modèle Abelian-Higgs un code Fortran différences finies en 1D a été développé et validé par la construction d'un système manufacturé. Ce modèle a été utilisé pour retrouver certaines propriétés de magnétisation des supraconducteurs.
Abstract
In this thesis we present four models for type II superconductors: the London model, the time dependent Ginzburg-Landau (TDGL) model, the steady state Ginzburg-Landau model and an Abelian-Higgs model. For the London model a problem with cylindrical symmetry was considered. A hydrodynamic formulation of the problem was established through the introduction of a stream function. Well-posedness of the problem was proved. The external magnetic field was computed for 2D and 3D domains. In 3D a boundary element method was implemented using a recent feature of FreeFem. For the TDGL model two codes based on two variational formulations were proposed and tested on classical benchmarks of the literature in 2D and 3D. In the steady state GL model a Sobolev gradient technique was used to find the equilibrium state. The results were compared with the ones given by the TDGL model. In the Abelian-Higgs model a 1D finite differences code written in Fortran was developed and tested with the construction of a manufactured system. The model was used to retrieve some of the properties of magnetization of superconductors.

Games with incοmplete infοrmatiοn: cοmplexity, algοrithmics, reasοning

Doctorant·e
LI Junkang
Direction de thèse
ZANUTTINI Bruno (Directeur·trice de thèse)
Date de la soutenance
21/12/2023 à 13:00
Lieu de la soutenance
Salle de thèse (S3-102) - Sciences 3 - Campus 2 - Université de Caen Normandie
Rapporteurs de la thèse
SPANJAARD OLIVIER Maître de conférences HDR Sorbonne Université
STURTEVANT NATHAN University of Alberta
Membres du jurys
CAZENAVE TRISTAN, , UNIVERSITE PARIS 9
DIMA CATALIN, , UNIVERSITE MARNE LA VALLEE UNIV PARIS EST MARNE LA VALLEE
SPANJAARD OLIVIER, Maître de conférences HDR, Sorbonne Université
STURTEVANT NATHAN, , University of Alberta
THOMAS VINCENT, Maître de conférences, Université de Lorraine
VENTOS VERONIQUE, Docteur, NUKKAI
ZANUTTINI Bruno, , Université de Caen Normandie (UCN)
Résumé
Dans cette thèse, on étudie les jeux à information incomplète. On commence par établir un paysage complet de la complexité du calcul des stratégies pures optimales pour différentes sous-catégories de jeux, lorsque les jeux sont explicitement donnés en entrée. On étudie ensuite la complexité lorsque les jeux sont représentés de façon compacte (par leurs règles de jeu, par exemple). Pour ce faire, on conçoit deux formalismes pour ces représentations compactes. Dans la suite, on se consacre aux jeux à information incomplète, en proposant d'abord un nouveau formalisme, nommé jeu combinatoire à information incomplète, qui regroupe les jeux sans hasard (sauf un tirage aléatoire initial) et avec uniquement des actions publiques. Pour de tels jeux, ce nouveau formalisme capture la notion de l'information et de la connaissance des joueurs mieux que la forme extensive. Puis, on étudie des algorithmes et leurs optimisations pour résoudre les jeux combinatoires à information incomplète ; certains algorithmes que l'on propose sont applicables au-delà de ces jeux. Dans la dernière partie, on présente un travail en cours, qui consiste à modéliser les raisonnements récursifs et différents types de connaissances sur le comportement des adversaires dans les jeux à information incomplète.
Abstract
In this dissertation, we study games with incomplete information. We begin by establishing a complete landscape of the complexity of computing optimal pure strategies for different subclasses of games, when games are given explicitly as input. We then study the complexity when games are represented compactly (e.g.\ by their game rules). For this, we design two formalisms for such compact representations. Then we concentrate on games with incomplete information, by first proposing a new formalism called combinatorial game with incomplete information, which encompasses games of no chance (apart from a random initial drawing) and with only public actions. For such games, this new formalism captures the notion of information and knowledge of the players in a game better than extensive form. Next, we study algorithms and their optimisations for solving combinatorial games with incomplete information; some of these algorithms are applicable beyond these games. In the last part, we present a work in progress that concerns the modelling of recursive reasoning and different types of knowledge about the behaviour of the opponents in games with incomplete information.

Apprοximatiοn de Dynamic Τime Warping par réseaux de neurοnes pοur la cοmpressiοn de signaux EEG et l'analyse de l'insοmnie induite par le CΟVΙD lοng.

Doctorant·e
LEROGERON Hugo
Direction de thèse
HEUTTE LAURENT (Directeur·trice de thèse)
Date de la soutenance
21/12/2023 à 10:00
Lieu de la soutenance
Université de Rouen Normandie
Rapporteurs de la thèse
OUDRE LAURENT Ecole Normale Supérieure Paris-Saclay
TAVENARD ROMAIN Universite de Haute Bretagne Rennes 2
Membres du jurys
CAPPONI CÉCILE, , Aix-Marseille université
HEUTTE LAURENT, , Université de Rouen Normandie (URN)
OUDRE LAURENT, , Ecole Normale Supérieure Paris-Saclay
OUKHELLOU LATIFA, , Université Marne La Vallée
PICOT-CLEMENTE ROMAIN, ,
RAKOTOMAMONJY ALAIN, , Université de Rouen Normandie (URN)
TAVENARD ROMAIN, , Universite de Haute Bretagne Rennes 2
Résumé
Ce manuscrit présente les travaux effectués dans le cadre d'une thèse CIFRE réalisée en collaboration entre le LITIS et Saagie, et qui s'inscrit dans le projet PANDORE-IA en partenariat avec le centre du sommeil VIFASOM. Les signaux électroencéphalographiques (EEG) sont très utiles pour aider les experts à identifier diverses anomalies comme les troubles du sommeil. En particulier dernièrement, la communauté s'est beaucoup intéressée au COVID long et à ses divers impacts sur le sommeil. Ces signaux sont cependant volumineux : la compression permet de réduire les coûts de stockage et de transfert. Les approches récentes de compression se basent sur des autoencodeurs qui utilisent une fonction de coût pour apprendre. Celle-ci est usuellement la MSE, mais il existe des métriques plus adaptées aux séries temporelles, en particulier DTW. DTW n'est toutefois pas différentiable et ne peut donc être utilisée pour un apprentissage de bout-en-bout. Pour résoudre ce problème, nous proposons dans cette thèse deux approches d'approximation de DTW basées sur des réseaux de neurones. La première approche utilise un réseau siamois pour projeter les signaux de sorte que la distance euclidienne des signaux projetés soit la plus proche possible de la DTW des signaux originaux. La deuxième approche tente de directement prédire la valeur de DTW. Nous montrons que ces approches sont plus rapides que les autres approximations différentiables de DTW tout en obtenant des résultats similaires à l'utilisation de DTW dans des tâches de requêtage ou de classification de signaux du sommeil. Nous montrons ensuite que l'approximation siamoise peut être utilisée comme fonction de coût pour apprendre un système de compression des signaux de sommeil basé sur un autoencodeur. Nous justifions du choix de l'architecture du réseau par le fait qu'elle nous permet de faire varier le taux de compression. Nous évaluons ce système de compression par la classification sur les signaux compressés puis reconstruits, et montrons que les mesures usuelles de qualité de compression ne permettent pas de correctement évaluer la capacité d'un système de compression à conserver l'information discriminante. Nous montrons que nos approximations de DTW permettent d'obtenir de meilleures performances sur les données reconstruites que des algorithmes de compression usuels et que d'autres fonctions de coût de reconstruction. Enfin, pour étudier l'impact du COVID long sur l'insomnie, nous collectons et mettons à disposition de la communauté un jeu de données nommé COVISLEEP, constitué de polysomnographies de personnes ayant développé une insomnie chronique après infection du COVID, et de personnes souffrant d'insomnie chronique mais n'ayant pas été infectées par le virus. Nous comparons diverses approches à l'état de l'art pour classifier les états du sommeil, et utilisons la meilleure pour apprendre la détection de COVID long. Nous montrons la difficulté de la tâche, notamment due à la forte variabilité entre les patients. Ceci offre à la communauté un jeu complexe qui laisse place au développement de méthodes plus performantes.
Abstract
This manuscript presents the work carried out within the framework of the CIFRE thesis conducted in partnership between LITIS and Saagie and which is part of the PANDORE-IA project in association with the VIFASOM sleep center. Electroencephalographic (EEG) signals are very useful in helping experts identify various abnormalities like sleep disorders. Recently, the community has shown great interest in long COVID and its various impacts on sleep. However, these signals are voluminous: compression allows reducing storage and transfer costs. Recent compression approaches are based on autoencoders that use a cost function to learn. It is usually the Mean Squared Error (MSE), but there are metrics more suited to time series, particularly Dynamic Time Warping (DTW). However, DTW is not differentiable and thus can not be used as a loss for end-to-end learning. To solve this problem, we propose in this thesis two approaches to approximate DTW based on neural networks. The first approach uses a Siamese network to project the signals so that the Euclidean distance of the projected signals is as close as possible to the DTW of the original signals. The second approach attempts to predict directly the DTW value. We show that these approaches are faster than other differentiable approximations of DTW while obtaining results similar to DTW in query or classification on sleep data. We then demonstrate that the Siamese approximation can be used as a cost function for learning a sleep signal compression system based on an autoencoder. We justify the choice of the network architecture by the fact that it allows us to vary the compression rate. We evaluate this compression system by classification on the compressed and then reconstructed signals, and show that the usual measures of compression quality do not allow for a proper assessment of a compression system's ability to retain discriminative information. We show that our DTW approximations yield better performance on the reconstructed data than conventional compression algorithms and other reconstruction losses. Finally, to study the impact of long COVID on insomnia, we collect and provide the community with a dataset named COVISLEEP, containing polysomnographies of individuals who developed chronic insomnia after COVID infection, and of those suffering from chronic insomnia but who have not been infected by the virus. We compare various state-of-the-art approaches for sleep staging, and use the best one for learning the detection of long COVID. We highlight the difficulty of the task, especially due to the high variability among patients. This offers a complex dataset to the community that allows for the development of more effective methods.

Analyse et analyse numérique d'EDΡ issues de la thermοmécanique des fluides

Doctorant·e
AOUN Mirella
Direction de thèse
GUIBE OLIVIER (Directeur·trice de thèse)
Date de la soutenance
20/12/2023 à 14:30
Lieu de la soutenance
LMRS
22 avenue de la mare aux daims
76800 St Etienne Du Rouvray
Rapporteurs de la thèse
LEWANDOWSKI ROGER UNIVERSITE RENNES 1
MIRANVILLE ALAIN Université Poitiers
Membres du jurys
ANDREIANOV BORIS, , Universite de Tours
GUIBE OLIVIER, , Université de Rouen Normandie (URN)
LEWANDOWSKI ROGER, , UNIVERSITE RENNES 1
MIRANVILLE ALAIN, , Université Poitiers
ROSIER CAROLE, , ULCO - UNIVERSITE DU LITTORAL COTE D'OPALE
ZIDANI HASNAA, , INSA de Rouen Normandie
Résumé
Dans cette thèse nous nous intéressons à des systèmes non linéaires d'évolution issus d'un modèle de solidification non isotherme avec prise en compte de la convection. Ces systèmes consistent en un couplage non linéaire de trois équations aux dérivés partielles : la première est l'équation de la phase, la deuxième est l'équation de conservation de l'énergie et la troisième est l'équation de Navier-Stokes incompressible. Plus précisément, nous nous intéressons à établir des résultats sur l'existence de solutions pour ce type de systèmes en dimension $2$ et $3$ ainsi que sur la convergence de solutions approchées par la méthode des volumes finis. Une des particularités de ce type de système est la présence d'un terme naturellement dans $L^1$ dans l'équation de conservation de l'énergie, ce qui demande un traitement particulier. Cette thèse est divisée en deux parties. La première partie comporte deux chapitres et est consacrée à l'étude des problèmes avec données $L^1$ et des conditions aux limites de type Neumann. Pour traiter ces problèmes et ces données peu régulières, nous nous plaçons dans le cadre des solutions renormalisées. Nous établissons dans un premier chapitre un résultat de convergence des solution approchées par la méthode des volumes finis vers l'unique solution renormalisée à médiane nulle dans le cas d'une équation de convection-diffusion elliptique. Dans le second chapitre nous nous intéressons à un problème parabolique non-linéaire, avec des conditions de Neumann non homogène et un terme de convection. Pour ce problème nous donnons une définition de solution renormalisée et nous montrons l'existence et l'unicité d'une telle solution. La deuxième partie comporte deux chapitres et est consacrée à l'étude du système en dimension $2$ et $3$. Dans un premier chapitre nous traitons le cas de la dimension $2$ et nous définissons une notion de solution faibles--renormalisées. Avec notamment l'aide des résultats d'existence et de stabilité établis dans la première partie pour l'équation de la conservation de l'énergie, nous démontrons un résultat d'existence de solution. Le dernier chapitre aborde le cas plus délicat de la dimension $3$. L'absence de résultat général de stabilité et d'unicité pour l'équation de Navier-Sokes en dimension $3$ nous impose tout d'abord à transformer le système en un système formellement équivalent. Par approximation et passage à la limite nous démontrons un résultat d'existence de solution dans un sens faible.
Abstract
In this thesis, we focus on nonlinear evolutionary systems derived from a non-isothermal solidification problem with melt convection. These systems consist of three partial differential equations. The first is the phase-field equation coupled with the heat equation and the incompressible Navier-Stokes equation. More precisely, we are interested in the existence of solutions for these types of systems in the two-dimensional and the three-dimensional cases, and in the convergence of a finite volume approximation. One of the particularities of this type of system is the presence of a term naturally in $L^1$ in the energy conservation equation, which requires special treatment. This thesis is divided into two parts. The first part is divided into two chapters and is devoted to the study of problems with $L^1$ data and Neumann-type boundary conditions. To deal with these problems, and with data that are not very regular, we use the framework of renormalized solutions. In the first chapter, we establish a convergence result for solutions approximated by the finite volume method to the unique renormalized solution with zero median in the case of an elliptic convection-diffusion equation. In the second chapter, we focus on a non-linear parabolic problem with non-homogeneous Neumann conditions and a convection term. For this problem, we provide a definition of a renormalized solution and we show the existence and uniqueness of such a solution. The second part is devoted to the study of the system in dimensions $2$ and $3$. The first chapter deals with the dimension $2$ and defines the notion of weak--renormalized solutions. With the help of the existence and stability results established in the first part for the conservation of energy equation, we prove the existence of a weak--renormalized solution. The final chapter considers the trickier case of dimension $3$. The absence of a general stability and uniqueness result for the $3$-dimensional Navier-Sokes equation requires us to transform the system into a formally equivalent one. By approximation and passage to the limit, we prove the existence of a solution in a weak sense.

Ιdentificatiοn de mοdèles sοus fοrme de représentatiοn d'état pοur les systèmes à sοrtie binaire

Doctorant·e
MESTRAH Ali
Direction de thèse
POULIQUEN Mathieu (Directeur·trice de thèse)
Date de la soutenance
20/12/2023 à 09:00
Lieu de la soutenance
Salle des thèses (S3 102) - Sciences 3 - Campus 2 - Université de Caen Normandie
Rapporteurs de la thèse
BOMBOIS XAVIER Directeur de recherche ECOLE CENTRALE LYON
POINOT THIERRY Université Poitiers
Membres du jurys
BOMBOIS XAVIER, Directeur de recherche, ECOLE CENTRALE LYON
CHERRIER-PAWLOWSKI ESTELLE, Maître de conférences HDR, ENSICAEN
JAUBERTHIE CARINE, , Université de Toulouse 3 - Paul Sabatier
JUILLARD JEROME, , Ecole Supérieure d'Electricité
PIGEON Eric, Maître de conférences, Université de Caen Normandie (UCN)
POINOT THIERRY, , Université Poitiers
POULIQUEN Mathieu, , Université de Caen Normandie (UCN)
Résumé
Cette thèse porte sur la modélisation paramétrique des systèmes linéaires invariants à partir de mesures binaires de la sortie. Ce problème de modélisation est abordée via l’usage des méthodes des sous-espaces. Ces méthodes permettent l’estimation de modèles sous forme de représentation d’état, un des avantages de ces méthodes étant que leur mise en œuvre ne nécessite pas la connaissance préalable de l’ordre du système. Ces méthodes ne sont initialement pas adaptées au traitement de données binaires, l’objectif de cette thèse est ainsi leur adaptation à ce contexte d’identification. Dans cette thèse nous proposons trois méthodes des sous-espaces. Les propriétés de convergence de deux d’entre elles sont établies. Des résultats de simulations de Monte-Carlo sont présentés afin de montrer les bonnes performances, mais aussi les limites, de ces méthodes.
Abstract
This thesis focuses on parametric modeling of invariant linear systems from binary output measurements. This identification problem is addressed via the use of subspace methods. These methods allow the estimation of state-space models, an added benefit of these methods being the fact that their implementation does not require the prior knowledge of the order of the system. These methods are initially adapted to high resolution data processing, the objective of this thesis is therefore their adaptation to the identification using binary measurements. In this thesis we propose three subspace methods. Convergence properties of two of them are established. Monte Carlo simulation results are presented to show the good performance, but also limits, of these methods.

Μοdèle οntοlοgique fοrmel, un appui à la sélectiοn des variables pοur la cοnstructiοn des mοdèles multivariés.

Doctorant·e
PRESSAT-LAFFOUILHERE Thibaut
Direction de thèse
SOUALMIA FATIMA (Directeur·trice de thèse)
BENICHOU JACQUES (Co-directeur·trice de thèse)
Date de la soutenance
19/12/2023 à 14:00
Lieu de la soutenance
Université de Rouen Normandie
Rapporteurs de la thèse
LEFFONDRE KAREN UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
MOUGIN FLEUR UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
Membres du jurys
BENICHOU JACQUES, , Université de Rouen Normandie (URN)
CHARLET JEAN, , Sorbonne Universite
DUCLOS CATHERINE, , UNIVERSITE PARIS 13 PARIS-NORD
GROSJEAN Julien, , Université de Rouen Normandie (URN)
LEFFONDRE KAREN, , UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
MOUGIN FLEUR, , UNIVERSITE BORDEAUX 1 SCIENCES ET TECHNOLOGIE
SOUALMIA FATIMA, , Université de Rouen Normandie (URN)
Résumé
Répondre à une question de recherche causale dans un contexte d’étude observationnelle nécessite de sélectionner des variables de confusion. Leur intégration dans un modèle multivarié en tant que co-variables permet de diminuer le biais dans l’estimation de l'effet causal de l'exposition sur le critère de jugement. Leur identification est réalisée grâce à des diagrammes causaux (DCs) ou des graphes orientés acycliques. Ces représentations, composées de noeuds et d'arcs orientés, permettent d’éviter la sélection de variables qui augmenteraient le biais, comme les variables de médiation et de collision. Les méthodes existantes de construction de DCs manquent cependant de systématisme et leur représentation de formalisme, d’expressivité et de complétude. Afin de proposer un cadre de construction formel et complet capable de représenter toutes les informations nécessaires à la sélection des variables sur un DC enrichi, d’analyser ce DC et surtout d’expliquer les résultats de cette analyse, nous avons proposé d'utiliser un modèle ontologique enrichi de règles d'inférences. Un modèle ontologique permet notamment de représenter les connaissances sous la forme de graphe expressif et formel composé de classes et de relations similaires aux noeuds et arcs des DCs. Nous avons développé l’ontologie OntoBioStat (OBS) à partir d’une liste de questions de compétence liée à la sélection des variables et de l'analyse de la littérature scientifique relative aux DCs et aux ontologies. Le cadre de construction d’OBS est plus riche que celui d’un DC, intégrant des éléments implicites tels que les causes nécessaires, contextuels d’une étude, sur l’incertitude de la connaissance et sur la qualité du jeu de données correspondant. Afin d’évaluer l’apport d’OBS, nous l’avons utilisée pour représenter les variables d’une étude observationnelle publiée et avons confronté ses conclusions à celle d’un DC. OBS a permis d'identifier de nouvelles variables de confusion grâce au cadre de construction différent des DCs et aux axiomes et règles d'inférence. OBS a également été utilisée pour représenter une étude rétrospective en cours d’analyse : le modèle a permis d’expliquer dans un premier temps les corrélations statistiques retrouvées entre les variables de l’étude puis de mettre en évidence les potentielles variables de confusion et leurs éventuels substituts ("proxys"). Les informations sur la qualité des données et l’incertitude des relations causales ont quant à elles facilité la proposition des analyses de sensibilité, augmentant la robustesse de la conclusion de l’étude. Enfin, les inférences ont été expliquées grâce aux capacités de raisonnement offertes par le formalisme de représentation d'OBS. À terme OBS sera intégrée dans des outils d’analyse statistique afin de bénéficier des bibliothèques existantes pour la sélection des variables et de permettre son utilisation par les épidémiologistes et les biostatisticiens.
Abstract
Responding to a causal research question in the context of observational studies requires the selection of confounding variables. Integrating them into a multivariate model as co-variables helps reduce bias in estimating the true causal effect of exposure on the outcome. Identification is achieved through causal diagrams (CDs) or directed acyclic graphs (DAGs). These representations, composed of nodes and directed arcs, prevent the selection of variables that would introduce bias, such as mediating and colliding variables. However, existing methods for constructing CDs lack systematic approaches and exhibit limitations in terms of formalism, expressiveness, and completeness. To offer a formal and comprehensive framework capable of representing all necessary information for variable selection on an enriched CD, analyzing this CD, and, most importantly, explaining the analysis results, we propose utilizing an ontological model enriched with inference rules. An ontological model allows for representing knowledge in the form of an expressive and formal graph consisting of classes and relations similar to the nodes and arcs of Cds. We developed the OntoBioStat (OBS) ontology based on a list of competency questions about variable selection and an analysis of scientific literature on CDs and ontologies. The construction framework of OBS is richer than that of a CD, incorporating implicit elements like necessary causes, study context, uncertainty in knowledge, and data quality. To evaluate the contribution of OBS, we used it to represent variables from a published observational study and compared its conclusions with those of a CD. OBS identified new confounding variables due to its different construction framework and the axioms and inference rules. OBS was also used to represent an ongoing retrospective study analysis. The model explained statistical correlations found between study variables and highlighted potential confounding variables and their possible substitutes (proxies). Information on data quality and causal relation uncertainty facilitated proposing sensitivity analyses, enhancing the study's conclusion robustness. Finally, inferences were explained through the reasoning capabilities provided by OBS's formal representation. Ultimately, OBS will be integrated into statistical analysis tools to leverage existing libraries for variable selection, making it accessible to epidemiologists and biostatisticians.

Aide à la décisiοn pοur le diagnοstic des défauts pοur une maintenance prοactive dans un générateur phοtοvοltaique

Doctorant·e
COMPAORE Wendpuire Ousmane
Direction de thèse
HOBLOS GHALEB (Directeur·trice de thèse)
KOALAGA ZACHARIE (Co-directeur·trice de thèse)
Date de la soutenance
19/12/2023 à 14:00
Lieu de la soutenance
Université de Ouaga
Burkina Faso
Rapporteurs de la thèse
BARREAU MIHAELA Université d'Angers
DJEZIRI MOHAND Aix-Marseille université
Membres du jurys
BARREAU MIHAELA, , Université d'Angers
DJEZIRI MOHAND, , Aix-Marseille université
EL BADAOUI EL NAJJAR MAAN, , UNIVERSITE LILLE 1 SCIENCES ET TECHNOLOGIE
HOBLOS GHALEB, , ESIGELEC ROUEN
KOALAGA ZACHARIE, , Université Joseph Ki-Zerbo
ZOUGMORE FRANÇOIS, , Université Joseph Ki-Zerbo
Résumé
La perte de puissance d'un générateur photovoltaïque (GPV) est sans conteste due à l'apparition d'un certain nombre d'anomalies liées à la fabrication, à la production ou à l'environnement, engendrant des défaillances dans son bon fonctionnement. A partir d'un modèle réaliste, assez proche du fonctionnement réel et capable de prendre en compte l'effet d'avalanche d'une jonction PN transmise à l'ensemble du GPV, nous avons montré à suffisance, la perte de performances d'un générateur PV et la nécessité d'avoir une méthode de diagnostic pour l'aide à la maintenance afin de ne pas subir les effets des défauts. Deux méthodes de diagnostic ont été appliquées à ce GPV, l'une portant sur la détection et la localisation des défauts capteurs, et l'autre sur la détection et la localisation des défauts systèmes. Le choix particulier de ces deux techniques de diagnostic, qui ne ciblent pas les mêmes types de défauts, réside dans la nature complexe du modèle du processus industriel soumis à l'étude. Les performances obtenues avec la méthode des relations de redondance analytique (RRA) basée sur le principe de l'espace de parité appliqué au point de fonctionnement maximal, sont très pertinentes. Par la méthode de l'intelligence artificielle (IA) basée sur le principe des réseaux de neurones artificiels (RNA), nous avons expérimenté deux méthodes de classification pour la détection et le diagnostic des défauts systèmes. Si la détectabilité est prouvée avec nos différentes configurations sans possibilité de situer l'origine et la cause dans la première partie de la classification, nous arrivons grâce à un faisceau d'indices à situer l'origine ou la cause grâce à la classification pour le diagnostic. La réalisation de deux prototypes d'acquisition temps réel est faite sur le principe de l'Internet industriel des objets (IIoT). Le premier permet uniquement l'acquisition et la sauvegarde des données sur une carte SD. Le second prototype plus évolué, permet la transmission en temps réel par Wifi à un serveur web et vise la réalisation à long terme d'une plateforme de surveillance en temps réel. Les deux prototypes produisent des données qui sont utilisées pour alimenter les deux méthodes de diagnostic. Les résultats obtenus avec des données réelles sont compatibles avec ceux obtenus en phase de simulation. Les conclusions de ce diagnostic permettront une meilleure efficacité dans les opérations de maintenance proactive.
Abstract
The loss of power of a photovoltaic generator (PVG) is undoubtedly due to the appearance of a certain number of anomalies linked to manufacturing, production or the environment and causing failures in its proper functioning. From a realistic model, quite close to real operation and able to take into account the avalanche effect of a PN junction transmitted to the entire PVG, we have sufficiently shown the loss of performance of a PV generator and the need to have a diagnostic method for maintenance assistance in order not to suffer the effects of faults. Two diagnostic methods were applied to this PVG, one relating to the detection and localization of sensor faults, and the other to the detection and localization of system faults. The particular choice of these two diagnostic techniques, which do not target the same types of faults, lies in the complex nature of the model of the industrial process subjected to study. The performances obtained with the analytical redundancy relations (ARR), method based on the principle of parity space applied to the maximum operating point are very relevant. Using the artificial intelligence (AI), method based on the principle of artificial neural networks (ANN), we experimented with two classification methods for the detection and diagnosis of system faults. If detectability is proven with our different configurations without the possibility of locating the origin and the cause in the first part of the classification, we arrive thanks to a bundle of clues to locate the origin or the cause thanks to the classification for the diagnostic. The production of two real-time acquisition prototypes is based on the principle of the Industrial Internet of Things (IIoT). The first only allows the acquisition and saving of data on an SD card. The second, and more advanced prototype, allows real-time transmission via WiFi to a web server and aims to create a real-time monitoring platform in the long term. Both prototypes produce data that is used to power both diagnostic methods. The results obtained with real data are compatible with those obtained in the simulation phase. The conclusions of this diagnosis will enable greater efficiency in proactive maintenance operations.

SΜARΤ ΜΟDELS FΟR SECURΙΤΥ EΝΗAΝCEΜEΝΤ ΙΝ ΤΗE ΙΝΤERΝEΤ ΟF VEΗΙCLES

Doctorant·e
AMARI Houda
Direction de thèse
KHOUKHI LYES (Directeur·trice de thèse)
HADRICH BELGLITH LAMIA (Co-directeur·trice de thèse)
Date de la soutenance
19/12/2023 à 14:00
Lieu de la soutenance
UCN - Campus 2 - Sciences 3 - Salle des Thèses (S3 102)
Rapporteurs de la thèse
BEN AYED LEILA Université de la Manouba Tunis - Tunisie
LORENZ PASCAL Université de Haute-Alsace
Membres du jurys
ABOU EL HOUDA ZAKARIA, Chercheur, Université du Québec - INRS
BEN AYED LEILA, , Université de la Manouba Tunis - Tunisie
BERRI SARA, Maître de conférences, CY Cergy Paris Université
BOUASSIDA NADIA, , l'Université de Sfax
DESCAMPS Philippe, , ENSICAEN
HADRICH BELGLITH LAMIA, , l'Université de Sfax
KHOUKHI LYES, , ENSICAEN
LORENZ PASCAL, , Université de Haute-Alsace
Résumé
Avec les progrès réalisés au cours de la dernière décennie dans les Systèmes de Transport Intelligents (STI), les progrès technologiques dans le domaine véhciculaire à connu une évolution qui a donné naissance au paradigme prometteur de l'Internet des véhicules (IoV), attirant l'attention de nombreux chercheurs et inudstriels. Il est à noter que l'Internet des véhicules (IoV) vise à améliorer l'efficacité des transports, la sécurité et le confort des passagers en échangeant des informations sur la circulation et l'infodivertissement avec des véhicules connectés. La multitude de technologies d'accès aux réseaux, la mobilité exceptionnellement élevée des véhicules connectés et leur forte densité en zone urbaine, ainsi que la prédominance des communications sans fil font de l'écosystème IoV un réseau complexe, vulnérable et hétérogène aux caractéristiques très dynamiques de l'environnement véhiculaire. De nombreuses entités composent son architecture (véhicules connectés, humains, unités routières. De plus, les réseaux véhiculaires présentent différents types de communication pour confirmer sa connectivité et sa continuité. En conséquence, de nombreux messages critiques pour la sécurité à faible latence sont générés et échangés au sein du réseau. Cependant, cette diversité conduit à de nouvelles exigences de sécurité qui semblent difficiles à prendre en compte et à élargir la surface d'attaque de tels réseaux. Par conséquent, la diffusion de messages/entités malveillants au sein de l'IoV réduit considérablement les performances du réseau et devient une menace pour les passagers et les piétons vulnérables. En conséquence, des mécanismes de sécurité devraient être envisagés pour sécuriser les communications dans l'IoV. Cette thèse vise à proposer de nouveaux modèles pour améliorer les aspects de sécurité de l'écosystème IoV face à diverses attaques, y compris les attaques DDoS, tout en préservant la confidentialité des utilisateurs.
Abstract
With the major progress in Intelligent Transportation Systems (ITS), there has been an exponential interest in technological advancements of Internet of Vehicles (IoV), attracting the attention of numerous researchers from academia and industry. IoV technology aims to enhance transport efficiency, passenger safety, and comfort by exchanging traffic and infotainment information to connected vehicles. The multitude of network access technologies, the exceptionally high mobility of connected vehicles and their high density in urban areas, and the predominance of wireless communications make the IoV ecosystem a complex, vulnerable and heterogeneous network with very dynamic characteristics, some of which are difficult to predict and subject to scalability and threats problems. Many entities compose its architecture (connected vehicles, humans, roadside units (RSUs), ITS). Moreover, it presents different communication types to confirm its connectivity and vulnerability. However, this diversity leads to new security requirements that seem challenging to consider and enlarge the attack surface of such networks. Therefore, disseminating malicious messages/entities within the network significantly reduces the network performance and becomes a threat to passengers and vulnerable pedestrians. Accordingly, security mechanisms should be considered to secure communications in vehicular networks. This thesis aims to develop novel models to enhance the security aspects of the IoV ecosystem dealing with diverse attacks, including DDoS attacks, while preserving users' privacy.

Self-supervised representatiοn learning and applicatiοns tο image and videο analysis

Doctorant·e
DENIZE JULIEN
Direction de thèse
HERAULT Romain (Directeur·trice de thèse)
RABARISOA JAONARY (Co-encadrant·e de thèse)
Date de la soutenance
18/12/2023 à 14:00
Lieu de la soutenance
Nano-Innov
2 Bd Thomas Gobert
91120 Palaiseau
Rapporteurs de la thèse
ACHARD CATHERINE Sorbonne Université
NAJMAN LAURENT ESIEE Paris
Membres du jurys
ACHARD CATHERINE, , Sorbonne Université
AMINI MASSIH-REZA, , Université Grenoble Alpes
CHAN HON TONG ADRIEN, , ONERA
HERAULT Romain, , Université de Caen Normandie
NAJMAN LAURENT, , ESIEE Paris
RABARISOA JAONARY, , CEA LIST, Palaiseau
SABOURIN ASTRID, , CEA LIST, Palaiseau
Résumé
Dans cette thèse, nous développons des approches d'apprentissage auto-supervisé pour l'analyse d'images et de vidéos. L'apprentissage de représentation auto-supervisé permet de pré-entraîner les réseaux neuronaux à apprendre des concepts généraux sans annotations avant de les spécialiser plus rapidement à effectuer des tâches, et avec peu d'annotations. Nous présentons trois contributions à l'apprentissage auto-supervisé de représentations d'images et de vidéos. Premièrement, nous introduisons le paradigme théorique de l'apprentissage contrastif doux et sa mise en œuvre pratique appelée Estimation Contrastive de Similarité (SCE) qui relie l'apprentissage contrastif et relationnel pour la représentation d'images. Ensuite, SCE est étendue à l'apprentissage de représentation vidéo temporelle globale. Enfin, nous proposons COMEDIAN, un pipeline pour l'apprentissage de représentation vidéo locale-temporelle pour l'architecture transformer. Ces contributions ont conduit à des résultats de pointe sur de nombreux benchmarks et ont donné lieu à de multiples contributions académiques et techniques publiées.
Abstract
In this thesis, we develop approaches to perform self-supervised learning for image and video analysis. Self-supervised representation learning allows to pretrain neural networks to learn general concepts without labels before specializing in downstream tasks faster and with few annotations. We present three contributions to self-supervised image and video representation learning. First, we introduce the theoretical paradigm of soft contrastive learning and its practical implementation called Similarity Contrastive Estimation (SCE) connecting contrastive and relational learning for image representation. Second, SCE is extended to global temporal video representation learning. Lastly, we propose COMEDIAN a pipeline for local-temporal video representation learning for transformers. These contributions achieved state-of-the-art results on multiple benchmarks and led to several academic and technical published contributions.

Améliοratiοns des οutils de détectiοn de malwares par analyse statique grâce à des mécanismes d'intelligence artificielle

Doctorant·e
MARAIS Benjamin
Direction de thèse
CHESNEAU Christophe (Directeur·trice de thèse)
Date de la soutenance
18/12/2023 à 14:00
Lieu de la soutenance
UCN - Campus 2 - UFR des Sciences 3 - Salle S3-247
Rapporteurs de la thèse
BADONNEL REMI Université de Lorraine
MATEI BASARAB Maître de conférences HDR Sorbonne Université
Membres du jurys
BADONNEL REMI, , Université de Lorraine
CHESNEAU Christophe, Maître de conférences, Université de Caen Normandie (UCN)
DIDI BIHA Mohamed, , Université de Caen Normandie (UCN)
FROMONT ELISA, , IRISA/INRIA Rennes
LEVRARD CLEMENT, , Université de Rennes
MATEI BASARAB, Maître de conférences HDR, Sorbonne Université
QUERTIER Tony, , ORANGE INNOVATION
Résumé
Cette thèse porte sur l'analyse de fichiers malveillants. Nous nous intéressons particulièrement à l'utilisation de l'intelligence artificielle pour développer et améliorer des outils d'analyse de malware. Dans un premier temps, nous abordons le problème d'un point de vue défensif en proposant des outils d'analyse, et en élaborant de nouveaux modèles de détection de logiciels malveillants basés sur l'apprentissage supervisé et l'apprentissage profond. Nous proposons aussi une approche offensive, basée sur des méthodes d'apprentissage par renforcement, dans le but de contourner différentes solutions de détection. Cette méthode permet d'étudier leurs failles et leurs faiblesses afin d'évaluer leur efficacité.
Abstract
This thesis focuses on the analysis of malicious files. We are particularly interested in using artificial intelligence to develop and improve malware analysis tools. Firstly, we propose a defensive approach, by providing analysis tools and by developing new malware detection models based on supervised and deep learning. We also propose an offensive approach, based in reinforcement learning methods, with the purpose of bypassing various detection solutions. This method allows us to examine their vulnerabilities and weaknesses in order to assess their effectiveness.

"Link-hοmοtοpie" en tοpοlοgie de base dimensiοn

Doctorant·e
GRAFF Emmanuel
Direction de thèse
BELLINGERI Paolo (Directeur·trice de thèse)
MEILHAN JEAN-BAPTISTE (Co-directeur·trice de thèse)
Date de la soutenance
18/12/2023 à 17:00
Lieu de la soutenance
UCN - Campus 2 - Sciences 3 - Salle des Thèses (S3 102)
Rapporteurs de la thèse
MASSUYEAU GWENAEL Universite de Bourgogne
ROWELL ERIC UNIVERSITE TEXAS A&M ETATS-UNIS
Membres du jurys
AUDOUX BENJAMIN, Maître de conférences HDR, Aix-Marseille université
BELLINGERI Paolo, Maître de conférences, Université de Caen Normandie (UCN)
LEBED Victoria, Maître de conférences, Université de Caen Normandie (UCN)
MASSUYEAU GWENAEL, , Universite de Bourgogne
MEILHAN JEAN-BAPTISTE, Maître de conférences HDR, Université Grenoble Alpes
PARIS LUIS, , Universite de Bourgogne
ROWELL ERIC, , UNIVERSITE TEXAS A&M ETATS-UNIS
WAGNER EMMANUEL, , IMJ-PRG
Résumé
Ce mémoire explore la topologie de basse dimension, en mettant l'accent sur la théorie des nœuds. Une théorie consacrée à l'étude des nœuds tels qu'ils sont communément compris : des morceaux de ficelle enroulés dans l'espace ou, de manière plus générale, des entrelacs formés en prenant plusieurs bouts de ficelle. Les nœuds et les entrelacs sont étudiés à déformation près, par exemple, à isotopie près, ce qui implique des manipulations sans couper ni faire passer la ficelle à travers elle-même. Cette thèse explore la link-homotopie, une relation d'équivalence plus souple où des composantes distinctes demeurent séparées, mais où une composante donnée peut s'auto-intersecter. La théorie des claspers, des puissants outils de chirurgie, est développée à link-homotopie près. Leur utilisation permet une démonstration géométrique de la classification des entrelacs avec 4 composantes ou moins à link-homotopie près. Une attention particulière est ensuite accordée aux tresses, des objets mathématiques apparentés aux nœuds et aux entrelacs. Il est montré que le groupe de tresses homotopiques est linéaire, c'est-à-dire isomorphe à un sous-groupe de matrices. De nouvelles présentations de ce groupe sont également proposées. Enfin, il est établi que le groupe de tresse homotopique est sans torsion, quel que soit le nombre de composantes. Ce dernier résultat s'appuie sur le contexte plus large de la théorie des nœuds soudés.
Abstract
This thesis explores low-dimensional topology, with a focus on knot theory. Knot theory is dedicated to the study of knots as commonly understood: a piece of string tied in space or, more generally, links formed by taking several pieces of string. Knots and links are studied up to deformation, for example, up to isotopy, which involves manipulations that do not require cutting or passing the string through itself. This thesis explores link-homotopy, a more flexible equivalence relation where distinct components remain disjoint, but a single component can self-intersect. The theory of claspers, powerful tools of surgery, is developed up to link-homotopy. Their use allows for a geometric proof of the classification of links with 4 components or less up to link-homotopy. Special attention is then given to braids, mathematical objects related to knots and links. It is shown that the homotopy braid group is linear, meaning it is faithfully represented by a subgroup of matrices. New group presentations are also proposed. Finally, it is established that the homotopy braid group is torsion-free for any number of components. This last result draws upon the broader context of welded knot theory.

Caractérisatiοns physique et thermique de transistοrs ΗEΜΤs de la filière GaΝ pοlarisés en régimes cοntinu et pulsé.

Doctorant·e
STRENAER Raphael
Direction de thèse
GUHEL Yannick (Directeur·trice de thèse)
BOUDART Bertrand (Co-directeur·trice de thèse)
Date de la soutenance
14/12/2023 à 10:00
Lieu de la soutenance
Amphi ESIX - ESIX Normandie - Cherbourg-en-Cotentin
Rapporteurs de la thèse
MAHER HASSAN SHERBROOKE - UNIVERSITE DE SHERBROOKE
MALBERT NATHALIE Universite de Bordeaux
Membres du jurys
BOUDART Bertrand, , Université de Caen Normandie (UCN)
BOUEXIERE CHLOÉ, , Direction Générale de l'Armement
GAQUIERE CHRISTOPHE, , UNIVERSITE LILLE 1 SCIENCES ET TECHNOLOGIE
GUHEL Yannick, , Université de Caen Normandie (UCN)
MAHER HASSAN, , SHERBROOKE - UNIVERSITE DE SHERBROOKE
MALBERT NATHALIE, , Universite de Bordeaux
Résumé
Les transistors de type HEMT (High Electron Mobility Transistors) à base de GaN sont des composants prometteurs pour des applications de puissance et des applications hyperfréquences. Cependant, ils sont aujourd’hui encore sujet à des effets limitatifs tels que des effets de pièges électriques et/ou d’auto-échauffement induits par la polarisation électrique. Dans ce manuscrit de thèse, nous avons donc développé des méthodes afin de caractériser physiquement et thermiquement des composants. Dans la première partie, nous avons mis au point une technique de caractérisation combinant les mesures électriques I-V en régime impulsionnel avec les techniques de photoionisation. L’objectif est de déterminer la position, l’énergie d’activation et les constantes de temps des pièges présents dans les composants sans utiliser des lois d’Arrhenius. Dans la deuxième partie, la caractérisation thermique de ces composants en mode de fonctionnement a été faite grâce à la spectroscopie Raman. Ainsi, nous avons estimé des températures d’auto-échauffement moyennées sur le volume sondé en utilisant la spectroscopie Raman classique et celles des surfaces du semiconducteur et des contacts métalliques en utilisant deux types de microthermomètres Raman à base de TiO2 et de CeO2. Cette technique de caractérisation a également fait ses preuves pour caractériser thermiquement des composants polarisés en régime impulsionnel.
Abstract
GaN-based High-Electron Mobility Transistors (HEMTs) are promising for power and microwave applications. However, they remain subject to limiting effects such as electrical traps and/or self-heating, both induced by electrical polarization. In this dissertation, we therefore sought methods to physically and thermally characterize components. Firstly, we developed a characterization technique combining pulsed I-V electrical measurements with photoionization techniques. The aim is to determine the position, activation energy and time constants of traps in the components without using Arrhenius laws. Secondly, thermal characterization of biased components was carried out using Raman spectroscopy. Thus, we estimated the averaged self-heating temperature on the probed volume using conventional Raman spectroscopy and those of the surface of the semiconductor layer or metal contacts using Raman microthermometers based on CeO2 and TiO2. This technique was also made it possible to thermally characterize components biased in pulsed regime.

Cοnceptiοn, dévelοppement et évaluatiοn d'un dispοsitif de réalité virtuelle pοur la rééducatiοn d’enfants et d’adοlescents atteints de paralysie cérébrale : le prοjet RV-REEDUC

Doctorant·e
BURIN CHU Simone
Direction de thèse
BENGUIGUI Nicolas (Directeur·trice de thèse)
Date de la soutenance
12/12/2023 à 14:00
Lieu de la soutenance
UCN - Campus 2 - Sciences 3 - Salle des Thèses (S3 102)
Rapporteurs de la thèse
MONTAGNE GILLES Aix-Marseille université
PERROT ALEXANDRA Maître de conférences HDR Université Paris Saclay
Membres du jurys
BENGUIGUI Nicolas, , Université de Caen Normandie (UCN)
BIDEAU BENOIT, , Universite de Haute Bretagne Rennes 2
LECONTE Pascale, Maître de conférences, Université de Caen Normandie (UCN)
MONTAGNE GILLES, , Aix-Marseille université
OLIVIER ISABELLE, , Universite Grenoble Alpes
PERROT ALEXANDRA, Maître de conférences HDR, Université Paris Saclay
Résumé
L'objectif de ce travail de thèse était de concevoir, de développer et d'évaluer l'efficacité d'un dispositif de réalité virtuelle immersive basé sur des tâches visuo-manuelles, telles que la poursuite et le pointage d’objets, pour la rééducation du membre supérieur d'enfants et d'adolescents atteints de paralysie cérébrale. La première étude de cette thèse consistait en une revue systématique avec méta-analyse afin de faire un état des lieux des caractéristiques et des effets des dispositifs de réalité virtuelle utilisés dans la rééducation des enfants et des jeunes adultes atteints de paralysie cérébrale. La synthèse des 22 études incluses dans cette revue nous a permis de déterminer les avantages et les limites des dispositifs à considérer dans le développement de ce nouvel outil de rééducation virtuelle. La deuxième étude de cette thèse était basée sur une expérimentation et avait pour but d'évaluer l'impact de différentes contraintes dans une tâche visuo-manuelle de poursuite sur la performance de 23 participants adultes. Les résultats ont montré une dégradation des performances lorsque les contraintes de la tâche étaient plus élevées. Ces résultats nous ont permis de définir les niveaux de difficulté du dispositif de réalité virtuelle pour la rééducation. La troisième étude consistait en un essai clinique randomisé visant à évaluer les effets du dispositif de réalité virtuelle sur des paramètres moteurs, fonctionnels, cinématiques et motivationnels chez 20 enfants et adolescents atteints de paralysie cérébrale. Les résultats montrent que ce dispositif de réalité virtuelle immersive est un outil efficace, intéressant, sécurisé et attractif pour la rééducation du membre supérieur chez des enfants et des adolescents atteints de paralysie cérébrale.
Abstract
The aim of this thesis was to conceive, develop and evaluate the effectiveness of an immersive virtual reality device based on visuo-manual tasks, such as tracking and pointing, for the rehabilitation of the upper limb of children and adolescents with cerebral palsy. The first study of this thesis consisted of a systematic review with meta-analysis to assess the characteristics and effects of virtual reality devices used in the rehabilitation of children and young adults with cerebral palsy. The synthesis of the 22 studies included in this review allowed us to determine the advantages and limitations of the devices to be considered in the development of a new virtual rehabilitation tool. The second study in this thesis was based on an experiment and aimed to assess the impact of different constraints in the pursuit task (i.e., target speed, virtual cube size and transformation gain) on the performance of 22 adult participants. The results showed a decrease in performance when the task constraints were higher. These results enabled us to define the difficulty levels of the virtual reality device for rehabilitation. The third study was a randomized clinical trial to assess the effectiveness of the virtual reality device on motor, functional, kinematic, and motivational parameters in 20 children and adolescents with cerebral palsy. The results suggest that the immersive virtual reality device developed in this thesis is an effective, interesting, safe, and attractive tool for upper limb rehabilitation in children and adolescents with cerebral palsy.

Apprοches symbοliques pοur une intelligence artificielle explicable

Doctorant·e
BELLUCCI MATTHIEU
Direction de thèse
ZANNI-MERK CECILIA (Directeur·trice de thèse)
DELESTRE Nicolas (Co-encadrant·e de thèse)
MALANDAIN Nicolas (Co-encadrant·e de thèse)
Date de la soutenance
01/12/2023 à 14:30
Lieu de la soutenance
INSA Rouen Normandie
Amphi Curie DU-B-RJ-02, rez-de-jardin Bâtiment Dumont d'Urville
685 avenue de l'université
76801 Saint Etienne du Rouvray
Rapporteurs de la thèse
CRUZ CHRISTOPHE Université de Bourgogne, Dijon
MARQUIS PIERRE Université d'Artois, Lens
Membres du jurys
ABEL MARIE-HELENE, , Université de Technologie de Compiègne
CRUZ CHRISTOPHE, , Université de Bourgogne, Dijon
DELESTRE Nicolas, , INSA de Rouen Normandie
FRYDMAN CLAUDIA, , Université d'Aix-Marseille
MALANDAIN Nicolas, , INSA de Rouen Normandie
MARQUIS PIERRE, , Université d'Artois, Lens
ZANNI-MERK CECILIA, , INSA de Rouen Normandie
Résumé
L'adoption généralisée de l'IA est due aux progrès considérables réalisés par les modèles d’apprentissage automatique en termes de performances. Ces algorithmes sont appliqués pour aider les décideurs dans des domaines sensibles tels que la santé ou la justice. Ces modèles sont communément appelés boîtes noires car il est impossible de comprendre leur processus de décision et l’influence de chaque caractéristique sur le résultat. Cette opacité peut cacher des décisions discriminatoires qui peuvent avoir un impact sur la vie d’une personne. C’est pourquoi la communauté scientifique a commencé à étudier la conception d’une IA explicable (XAI). Une direction prometteuse pour le développement d’une IA puissante et explicable est la combinaison d’approches symboliques de l’IA avec des modèles d’apprentissage automatique, résultant en des méthodes neurosymboliques. Alors que les modèles d’apprentissage automatique sont préférés pour leurs performances, les méthodes d’IA symbolique sont connues pour être explicables car elles exploitent les connaissances et la logique humaines pour prendre une décision. En outre, les ontologies ont été identifiées comme des candidates idéales pour la conception d’algorithmes d’IA explicables. Pourtant, les travaux actuels sur les techniques neurosymboliques se concentrent sur l’amélioration des performances plutôt que sur la conception de systèmes d’IA explicables, malgré leur potentiel à fournir des explications. Par conséquent, cette thèse est consacrée à l’exploration des applications des méthodes symboliques d’IA pour créer un système d’IA explicable. Au préalable, une étude de la terminologie de la XAI est menée, car des notions importantes ne sont pas clairement définies dans la littérature. Une terminologie est introduite qui identifie et définit les termes récurrents de la XAI qui sont ambiguës dans la littérature. La principale conclusion est qu’une explication est un processus interactif qui détermine un ensemble de causes ayant conduit au résultat d’un système d’IA. Ensuite, nous présentons un classificateur d’images basé sur une ontologie (OBIC) capable de détecter les erreurs dans ses prédictions. Ce système exploite une ontologie qui décrit le domaine d’application pour former des modèles d’apprentissage automatique capables de détecter la classe de l’image et un ensemble de propriétés définies dans l’ontologie, comme la texture ou la couleur d’un objet. Une incohérence dans les prédictions est détectée par l’ontologie et signifie qu’il y a eu une erreur dans la classification, ce qui aide l’utilisateur à décider s’il doit faire confiance à la prédiction finale. En outre, les prédictions des modèles d’apprentissage automatique sont fondées sur la connaissance du domaine, ce qui facilite la compréhension et l’explication de la prédiction. Nous avons construit une interface d’explication qui extrait des informations utiles de ce système et formule des explications adéquates. Afin d’expliquer l’étape de détection des erreurs du système intelligent explicable, nous devons concevoir une méthode d’explication pour les ontologies adaptée à la plupart des utilisateurs. Parmi les techniques d’explication les plus populaires, les explications contrefactuelles semblent présenter de nombreux avantages et font l’objet d’études approfondies pour expliquer les modèles d’apprentissage automatique. Nous proposons une méthode de génération d’explications contrefactuelles pour les ontologies. Elle est adaptée pour expliquer le fonctionnement de l’ontologie aux non-initiés, ce qui rend cette solution idéale pour expliquer l’étape de détection des erreurs. Enfin, nous évaluons nos contributions sur une tâche de classification d'images. La qualité et la validité de la phase de détection des erreurs sont testées et analysées. Une étude utilisateur à petite échelle est menée avec des experts du domaine pour évaluer la pertinence et la qualité des explications contrefactuelles générées.
Abstract
The widespread adoption of AI is due to the significant progress in performance achieved by machine learning models. These algorithms are being applied to assist decision-makers in sensitive domains such as healthcare, justice or banking. These models are commonly called black-boxes as it is impossible to comprehend their decision process. This opacity can hide discriminatory decisions that have the potential to impact someone's life. As a result, scientific communities have started investigating the design of an explainable AI (XAI). A promising direction for the development of a powerful and explainable AI is the combination of symbolic AI approaches with machine learning models, resulting in neurosymbolic methods. While machine learning models are preferred for their performance, symbolic AI methods are known to be explainable as they exploit human knowledge and logic to make a decision. Furthermore, ontologies have been identified as ideal candidates for the design of explainable AI algorithms. Yet, the current work on neurosymbolic techniques is focused on improving the performance rather than designing explainable AI systems. Consequently, this thesis is dedicated to exploring applications of symbolic AI methods to create an explainable AI system. Beforehand, a study of the terminology of XAI is conducted, as important notions are not clearly defined. A terminology is introduced that identifies and defines recurring terms of XAI that are ambiguous in the literature. The main finding is that an explanation is the result an interactive process that determines a set of causes that led to the outcome of an AI system. Then, we introduce an ontology-based image classifier (OBIC) capable of detecting errors in its predictions. This system exploits an ontology that describes the domain of application. This ontology is used to train machine learning classifiers that identify the class and a set of properties visible in an image e.g. the texture or color of an object. An inconsistency in the predictions is detected by the ontology and signifies that there was an error in the classification, thus helping a user to decide whether to trust the final prediction. Moreover, the predictions from the machine learning models are grounded in domain knowledge to facilitate the comprehension and explanation of the prediction. Explanations are the result of an interactive process, hence we built an explanation interface that extracts useful information from this system and formulates adequate explanations. In order to explain the error detection step from OBIC, we need to design an explanation method for ontologies. Among the most popular explanation techniques, counterfactual explanations seem to present many advantages and are being heavily studied to explain machine learning models. We propose the CEO method (Counterfactual Explanations for Ontologies) to generate such explanations for ontologies. It is adapted to explain the functioning of the ontology to laypersons making this solution ideal to explain the error detection step. It is also suited to assist the ontology designer in the debugging phase by highlighting unexpected inferences caused by design issues. Finally, we evaluate our contributions on an image classification task. The quality and validity of the error detection phase are tested and analyzed. Similarly, a small scale user study is conducted with domain experts to evaluate the relevance and quality of the generated counterfactual explanations.

Cοntributiοn tο the certificatiοn οf fingerprint systems: tοwards the reprοducibility οf the evaluatiοn

Doctorant·e
WONE Abdarahmane
Direction de thèse
ROSENBERGER Christophe (Directeur·trice de thèse)
CHARRIER Christophe (Co-directeur·trice de thèse)
Date de la soutenance
29/11/2023 à 10:00
Lieu de la soutenance
Salle F 200 - Bâtiment F - Campus 2 - ENSICAEN
Rapporteurs de la thèse
KPALMA KIDIYO INSA de Rennes
MORAIN-NICOLIER FREDERIC Université de Reims Champagne Ardenne
Membres du jurys
CHARRIER Christophe, Maître de conférences, Université de Caen Normandie (UCN)
DI MANNO Joel, , FIME EMEA
KPALMA KIDIYO, , INSA de Rennes
LARABI CHAKER, , Université Poitiers
MORAIN-NICOLIER FREDERIC, , Université de Reims Champagne Ardenne
ROSENBERGER Christophe, , ENSICAEN
SCHUCKERS STÉPHANIE, , Clarkson University
Résumé
Les systèmes informatiques sont de plus en plus utilisés au quotidien pour diverses tâches. Au regard des services et des applications concernés, leur sécurité est une garantie essentielle pour leur fonctionnement, ainsi qu'un gage de confiance pour l'utilisateur final. La biométrie est une solution pour cela. La biométrie regroupe l'ensemble des techniques informatiques permettant de reconnaître automatiquement un individu à partir de ses caractéristiques physiques, biologiques, voire comportementales. Elle permet, dans le cadre de l'authentification de s'assurer que seules des personnes légitimes puissent accéder à certaines données, certains endroits ou encore certaines applications. Que ce soient des tâches répétitives et quotidiennes comme déverrouiller son téléphone ou des tâches plus délicates comme valider une transaction bancaire, la biométrie est de plus en plus utilisée non seulement pour sécuriser les systèmes informatiques, mais aussi pour simplifier notre quotidien. Cependant, la sécurité des systèmes biométriques doit être assurée. Un système biométrique doit à la fois pouvoir reconnaître la bonne personne et résister aux attaques. Cela signifie pouvoir donner l'accès à une personne légitime, rejeter une personne illégitime et détecter les fraudes. Cette thèse s'inscrit dans le cadre de la certification des systèmes biométriques qui est une étape qui qualifie la conformité d'un système biométrique donné à un plan de test proposé par une autorité. C'est une étape cruciale avant le déploiement ou l'industrialisation d'une solution biométrique. Nous nous proposons d'explorer le problème de la répétabilité de ces tests. En effet, nous souhaitons qu'une évaluation ou une certification biométrique puisse être indépendante des conditions dans lesquelles elle a été réalisée. Pour cela, nous explorons les impacts qu'ont les conditions environnementales d'acquisition tout comme la technologie d'acquisition pour les systèmes basés sur les empreintes digitales. D'un autre côté, les tests d'attaques sont faits en fabriquant physiquement des instruments d'attaque, ce qui a un coup et s'accompagne de contraintes légales et opérationnelles. Nous explorons la création, basée sur les réseaux de neurones profonds, de ce type d'instruments utilisables dans le cadre de l'évaluation de produits biométriques à empreintes digitales. Nous validons ces études par une méthodologie objective qui a un sens physique que nous proposons et appliquons tout au long de cette thèse.
Abstract
Computer science is more and more present in our daily lives for multiple tasks. Considering its multiple services and applications, its security is an essential guarantee of the trust that a final user can have. Biometrics is a solution for that. Biometrics gathers all the methods and techniques to automatically recognize individuals thanks to their physical, biological, or behavioral traits. In authentication or identification tasks, it allows to be sure that only legitimate people have access to some data, places, or applications, etc. Whether it is for daily tasks such as unlocking our phones or some specific task as validating a banking operation, biometrics is more and more used not only to secure some solutions but also to simplify our lives. However, we must be sure about the security of biometric systems. A biometric system should be able to recognize a genuine user, reject an illegitimate and resist attacks. This PhD thesis deals with the certification of biometric fingerprint systems which is an important step prior to the production and deployment of a biometric solution. We explore the factors impacting the behavior of a fingerprint system in its recognition capacities. Indeed, a test of a biometric system should not be dependent on the conditions it was realized. We want biometric testing to be repeatable and biometric solutions to be interoperable. We analyze how environmental conditions as well as the acquisition technology can impact the recognition of a biometric fingerprint system. Moreover, the testing of resistance to attack has legal and operational constraints that make the testing difficult. We propose to explore the generation of synthetic attack instruments using a deep-leaning solution for the evaluation of biometric fingerprint solutions. We validate our studies with an objective method that we propose in this dissertation.

Ρrοcédure unifiée d'identificatiοn par méthοde inverse de cοefficients aérοdynamiques d'un prοjectile

Doctorant·e
TALLEC Thomas
Direction de thèse
DELVARE Franck (Directeur·trice de thèse)
Date de la soutenance
29/11/2023 à 14:30
Lieu de la soutenance
UCN - Campus 2 - Sciences 3 - Salle des Thèses (S3 102)
Rapporteurs de la thèse
AUCEJO MATHIEU Maître de conférences HDR Conservatoire Nal des Arts et Métiers
MERCIER SÉBASTIEN Université de Lorraine
Membres du jurys
ALLERY CYRILLE, , UNIVERSITE LA ROCHELLE
AUCEJO MATHIEU, Maître de conférences HDR, Conservatoire Nal des Arts et Métiers
BENNIS Anne-Claire, , Université de Caen Normandie (UCN)
DELVARE Franck, , Université de Caen Normandie (UCN)
GRANGE NATHAN, Docteur, KNDS France
GRIGNON CHRISTOPHE, Docteur, Direction Générale de l'Armement
HEDDADJ SETTIE, Docteur, KNDS France
MERCIER SÉBASTIEN, , Université de Lorraine
Résumé
Dans le domaine de la balistique extérieure, l'identification des coefficients aérodynamiques d'un projectile est cruciale pour la prédiction de sa trajectoire et de son point d'impact. Parmi les nombreuses méthodes d'identification existantes, l'approche proposée à partir de données issues de vol instrumentés se distingue par deux aspects majeurs : premièrement, elle repose exclusivement sur des mesures radar, éliminant ainsi tout équipement embarqué, et deuxièmement, elle permet d'identifier les coefficients aérodynamiques de manière séquentielle. L'introduction d'un petit paramètre adimensionnel et le développement asymptotique du modèle balistique du Point Matériel Modifié permettent d'une part de mettre en évidence les différents niveaux d'influence des forces aérodynamiques dans les différentes directions et d'autre part, d'obtenir des modèles intermédiaires ou des expressions analytiques pour l'identification des coefficients aux différents ordres. Notre technique d'optimisation recherche, à chaque étape, le couple vitesses/coefficients aérodynamiques qui satisfait les modèles balistiques intermédiaires tout en se rapprochant au mieux de la trajectoire mesurée. La validation de la procédure d'identification séquentielle est effectuée en plusieurs étapes, dans un premier temps à partir de données synthétiques puis dans un second temps en utilisant des données expérimentales obtenues à l'aide d'un radar de trajectographie. Dans le cadre, de la qualification de la méthode, différentes configurations de tirs pour différents projectiles sont analysées avec l'obtention de résultats aussi précis, pour le coefficient de traînée, que ceux obtenues par les outils existants.
Abstract
In the field of external ballistics, identifying the aerodynamic coefficients of a projectile is crucial to predict its trajectory and point of impact. Among the various existing identification methods, the proposed approach, which utilizes data from instrumented flights, stands out for two major aspects : first, it relies exclusively on radar measurements, eliminating the need for onboard equipment, and second, it allows for sequential identification of the aerodynamic coefficients. The introduction of a dimensionless small parameter and the subsequent asymptotic development of the Modified Point-Mass ballistic model serve a dual purpose. On the one hand, they reveal the varying levels of influence exerted by aerodynamic forces in different directions, and on the other hand, furnish intermediate models or analytical expressions for coefficient identification across various orders. Our optimization technique searches, at each step, for the velocity/aerodynamic coefficient pair that satisfies the intermediate ballistic models while closely matching the measured trajectory. The validation of the sequential identification procedure is carried out in several steps, initially using synthetic data and then using experimental data obtained with a trajectory radar. In the context of method validation, diverse firing configurations for a range of projectiles undergo rigorous analysis, resulting in drag coefficient results as precise as those attained by established tools.

Ιnférence statistique pοur des prοcessus markοviens et semi-markοviens basée sur des mesures de divergence.

Doctorant·e
GKELSINIS Thomas
Direction de thèse
BARBU VLAD STEFAN (Directeur·trice de thèse)
Date de la soutenance
28/11/2023 à 10:00
Lieu de la soutenance
Salle de séminaire M.0.1
Laboratoire LMRS
76801 St Etienne Du Rouvray
Rapporteurs de la thèse
BOUZEBDA SALIM UNIV TECHNOLOGIE COMPIEGNE UTC COMPIEGNE
BRONIATOWSKI MICHEL Sorbonne Universite
Membres du jurys
BARBU VLAD STEFAN, , Université de Rouen Normandie (URN)
BOUZEBDA SALIM, , UNIV TECHNOLOGIE COMPIEGNE UTC COMPIEGNE
BRONIATOWSKI MICHEL, , Sorbonne Universite
FOULADIRAD MITRA, , Ecole Centrale de Marseille
KEZIOU AMOR, , Université de Reims Champagne Ardenne
MILOSEVIC BOJANA, , Université de Belgrade
PERGAMENCHTCHIKOV SERGUEI, , Université de Rouen Normandie (URN)
PEYRARD NATHALIE, , Inra de Toulouse
Résumé
Cette thèse est dédiée aux techniques de statistique inférentielle pour des processus markoviens et semi-markoviens, techniques basées sur des mesures de divergence; une partie de la thèse est aussi dédiée à la modélisation de la fiabilité pour ce type de processus. Plus précisément, on propose une méthodologie statistique basée sur des types particuliers de mesures de divergence, afin de construire des tests d'hypothèses pour des processus markoviens et semi-markoviens. Un des problèmes statistiques les plus courants est l'identification du comportement stochastique qui gouverne l'évolution d'un système aléatoire pour lequel on connaît seulement un échantillon fini; ce problème est souvent connu sous le nom de test d'adéquation. Un cadre particulier de cette situation est lorsqu'on souhaite comparer le comportement stochastique de deux systèmes aléatoires, en observant seulement une partie finie de leurs trajectoires passées. Dans un premier temps, nous étudions l'application de la mesure de divergence de Kullback-Leibler pondérée et corrigée pour construire des tests à un échantillon et à deux échantillons pour des variables aléatoires indépendantes identiquement distribuées (i.i.d.), comme proposé dans. Deux tests statistiques sont proposés, le test d'adéquation pondéré (WGoF) et le test d'homogénéité pondéré (WHom). L'utilisation de cette méthodologie permet aux chercheurs de se concentrer sur des régions particulières du support, tout en retenant une partie de l'information relative aux autres parties. Nous déduisons les lois asymptotiques des statistiques des tests sous l'hypothèse nulle. Des simulations Monte Carlo intensives sont présentées afin d'évaluer les performances des tests, en termes des erreurs de première et seconde espèce. Dans un second temps, nous étendons ces résultats de tests d'hypothèses simples au cadre des chaînes de Markov d'ordre général, en prenant en compte l'information a priori qu'on peut avoir sur l'utilité de chaque transition pour un système multi-états. Pour cela, nous considérons la version pondérée de la φ-divergence entre des chaînes de Markov d'ordre général, ensemble avec la statistique de test basée sur cette divergence. Des exemples importants de cette famille sont les statistiques de test de chi-deux et du rapport de vraisemblance. Par conséquent, la méthodologie que nous proposons représente une extension qui inclut des techniques existantes, vues comme des cas spécifiques où il n'y a pas d'information a priori qui est prise en compte. Nous obtenons les lois asymptotiques des statistiques des tests sous l'hypothèse nulle. En suivant la trajectoire de la thèse, après les cadres i.i.d. et Markov, il est raisonnable de continuer avec un cadre semi-markovien. Dans cette direction, on propose une famille de φ-divergences pour des chaînes semi-markoviennes et les statistiques de test correspondantes, afin de construire des tests d'hypothèses à un échantillon et à deux échantillons. La méthodologie et les outils proposés dans ce chapitre étendent le but des tests d'hypothèses pour des chaînes semi-markoviennes au-delà de l'application classique des tests, en considérant une famille générale de tests, issue des choix possibles de la fonction φ liée à la φ-divergence. Nous obtenons les lois asymptotiques des statistiques des tests sous l'hypothèse nulle et aussi la fonction puissance sous une alternative fixée. La partie finale de la thèse est dédiée à la modélisation de la fiabilité pour des chaînes semi-markoviennes, comme proposé. Plus précisément, on s'intéresse à une nouvelle mesure de fiabilité, appelée Fiabilité Séquentielle par Intervalles (SIR), qui quantifie la probabilité que le système soit opérationnel pendant une séquence donnée d'intervalles qui ne se chevauchent pas. Il s'agit d'une mesure qui inclut, comme cas particuliers, plusieurs mesures classiques de fiabilité, comme la fonction de fiabilité, la fiabilité par intervalle ou bien la disponibilité.
Abstract
This thesis deals with statistical inferential techniques for Markov and semi-Markov processes based on divergence measures, according with important developments in reliability modelling for such type of processes. Especially, it proposes a statistical methodology based on particular types of divergence measures, applied in the framework of hypothesis testing for Markov and semi-Markov processes. One of the most known statistical issues is the (statistical) identification of the underlying stochastic process that governs the evolution of a random system whose just a finite sample is known. That issue is often called as goodness-of-fit or one-sample testing. First, we study the application of the weighted alternative of the Kullback-Leibler divergence measure (Gkelsinis and Karagrigoriou, 2020) for testing one-sample and two-sample simple hypotheses for independent and identically distributed (i.i.d.) random variables as proposed in (Gkelsinis et al., 2022). Two test-statistics have been proposed, the weighted Goodness-of-Fit (WGoF) and the weighted test of Homogeneity (WHom) and their asymptotic distribution under the simple null hypothesis has been identified. The utilization of this methodology enables researchers to concentrate on particular subsets of the support while retaining information from the remaining subsets. Also, extensive Monte Carlo simulations are presented in order to evaluate the performance (in terms of type I and type II errors) of the aforementioned test-statistics. Secondly, we extend the previous result for testing simple hypotheses for general order Markov chains (Gkelsinis and Barbu, 2023a) by incorporating prior information regarding the utility of each transition within the multistate system. For that reason, the weighted alternative of the φ-divergence between general order Markov chains has been proposed according with the test-statistic based on it. Notable examples of this family include the chi-squared and likelihood ratio test-statistics. Consequently, this methodology can be viewed as a comprehensive generalization, encompassing existing techniques as specific instances when no prior information is taken into account. The asymptotic distribution of the test-statistics has been proved, along with Monte Carlo simulations to assess the performance of the proposed methodology. Following the above trajectory of the thesis, after the i.i.d. and the Markov case it is reasonable to proceed with the semi-Markov framework. Based on that direction, we propose the family of φ-divergence measures for semi-Markov chains and the associated test-statistics for testing simple one-sample and two-sample hypotheses (Gkelsinis and Barbu, 2023b). The methodology and tools introduced in this paper, expands the scope of testing statistical hypotheses for semi-Markov chains beyond the application of classical test-statistics, to a general family by taking into account the φ-function related to the φ-divergence. The asymptotic distribution of the test-statistics under the simple null hypotheses has been identified as well as the power function under fixed alternatives. The final part of this thesis is concerned with new developments on reliability modelling for time-homogeneous semi-Markov chains as proposed in Barbu et al., 2021 and Barbu et al., 2023. Particularly, we present a novel reliability measure called Sequential Interval Reliability (SIR) which quantifies the probability of the system being operational within a given sequence of non-overlapping time intervals. The proposed measure encompasses various existing reliability measures, including the interval reliability, the reliability function and the availability function. For the computation of the measure in the transient case, a recurrent-type formula is derived while asymptotic results determine its limiting behavior.

Ρerfοrmance and Security Evaluatiοn οf Behaviοral Biοmetric Systems

Doctorant·e
WANDJI PIUGIE Yris Brice
Direction de thèse
ROSENBERGER Christophe (Directeur·trice de thèse)
CHARRIER Christophe (Co-directeur·trice de thèse)
Date de la soutenance
28/11/2023 à 10:00
Lieu de la soutenance
S3 102 - UFR des Sciences - Campus 2 - Université de Caen Normandie
Rapporteurs de la thèse
LAURENT HÉLÈNE INSA Centre Val de loire
PUECH WILLIAM Université de Montpellier
Membres du jurys
BOURS PATRICK, , Norwegian University of Science and Tech
CHARRIER Christophe, Maître de conférences, Université de Caen Normandie (UCN)
DI MANNO Joel, , FIME EMEA
LAURENT HÉLÈNE, , INSA Centre Val de loire
PUECH WILLIAM, , UNIVERSITE MONTPELLIER 2 SCIENCES ET TECH DU LANGUEDOC
ROSENBERGER Christophe, , ENSICAEN
SCHUCKERS STÉPHANIE, , Clarkson University
Résumé
La biométrie comportementale est une approche prometteuse pour renforcer la sécurité des systèmes informatiques tout en améliorant l'expérience utilisateur grâce à l'analyse des interactions des utilisateurs. Cette thèse de doctorat propose une méthode générique basée sur l'analyse de séries temporelles comportementales. Elle explore l'utilisation de techniques d'apprentissage machine traditionnelles et d'apprentissage profond pour l'authentification des utilisateurs basée sur ces comportements. En outre, nous examinons la vulnérabilité des systèmes biométriques comportementales aux attaques par présentation. Nous utilisons le TimeGAN pour générer des données biométriques synthétiques préservant les caractéristiques temporelles, rendant difficile leur distinction des données authentiques. Les résultats obtenus soulignent la capacité du TimeGAN à générer des modèles comportementaux pour tester les systèmes d'authentification, remettant en question la robustesse de ces systèmes face aux attaques malveillantes.
Abstract
Behavioral biometrics enhances IT security and improves user experience by analyzing interactions. This Ph.D. thesis proposes a generic method based on the analysis of behavioral time series. It explores the use of traditional machine learning and deep learning techniques for user identification and authentication based on these behaviors. In addition, the research carried out examines the vulnerability of behavioral biometric systems to presentation attacks. To this end, we use TimeGAN to generate synthetic behavioral biometric data capable of fooling authentication systems. These synthetic data preserve temporal characteristics, making it difficult to distinguish them from authentic data. The results highlight TimeGAN's ability to generate behavioral patterns that could be used to test authentication systems, raising questions about the robustness of such systems against malicious attacks.

Simulatiοn numérique des matériaux à changement de phase.

Doctorant·e
LEGRAND Cecile
Direction de thèse
DANAILA IONUT (Directeur·trice de thèse)
Date de la soutenance
27/11/2023 à 14:00
Lieu de la soutenance
Laboratoire LMRS
22 av de la mare aux daims
76801 St Etienne Du Rouvray
Rapporteurs de la thèse
MAMMERI YOUCEF Université Jean Monnet
MUREA CORNEL MARIUS Université de Haute-Alsace
Membres du jurys
DANAILA IONUT, , Université de Rouen Normandie (URN)
HECHT FRÉDÉRIC, , Sorbonne Universite
LUDDENS FRANCKY, , Université de Rouen Normandie (URN)
MAMMERI YOUCEF, , Université Jean Monnet
MUREA CORNEL MARIUS, , Université de Haute-Alsace
SALMON STEPHANIE, , Université de Reims Champagne Ardenne
YAKOUBI DRISS, , Ec Sup Ing Ld Vinci la Defense
Résumé
Dans ce travail, nous abordons l'analyse et la simulation numérique des Matériaux à Changement de Phases (MCP). Ces matériaux présentent des régions de phase solide et liquide distinctes, caractérisées par une prédominance de convection naturelle dans le liquide et de conduction dans le solide. Nous utilisons les équations incompressibles de Navier-Stokes, intégrant le modèle de Boussinesq pour gérer les forces de flottabilité dues aux effets thermiques, et les couplons avec une formulation de l'équation de l'énergie basée sur la méthode d'enthalpie. Ces équations sont résolues via une méthode d'éléments finis adaptatifs. Notre approche mono-domaine traite les phases solide et liquide en utilisant les mêmes systèmes d'équations. Dans la phase solide, nous réduisons la vitesse à zéro en ajoutant un terme de pénalisation dans l'équation de quantité de mouvement, suivant le modèle de Carman-Kozeny, qui simule le ralentissement de la vitesse dans un milieu poreux. La discrétisation spatiale s'effectue avec des éléments finis de Taylor-Hood (éléments finis P2 pour la vitesse et P1 pour la pression) et un schéma d'intégration temporelle implicite de second ordre (GEAR). Les systèmes d'équations non linéaires sont résolus par un algorithme de Newton, et les méthodes numériques sont implémentées dans le logiciel libre FreeFem++. Nous avons développé une nouvelle Toolbox qui étend les applications en incluant des paramètres physiques variables, permettant de modéliser des configurations complexes comme des MCP en série, la présence d'ailettes, ou une pièce remplie d'air jouxtant un MCP. Des cas de validation du code sont présentés, où nos résultats numériques sont comparés à des données expérimentales et numériques issues de la physique. L'étude comprend également l'analyse de la méthode des éléments finis stabilisés, basée sur les procédures de stabilisation de la pression minimale. Un terme de pénalité constant est ajouté à l'équation de conservation de la masse discrétisée. Nous laissons ce terme de pénalité varier en fonction de la taille de la maille, afin de récupérer la convergence pour la vitesse et la température, même si la condition inf-sup n'est pas satisfaite, par exemple pour la paire $P_1$-$P_1$. Nous donnons des estimations a priori et une illustration numérique pour soutenir l'utilisation de tels éléments.
Abstract
In this work, we address the analysis and numerical simulation of Phase Change Materials (PCM). These materials exhibit distinct solid and liquid phase regions, characterized by a predominance of natural convection in the liquid and conduction in the solid. We employ the incompressible Navier-Stokes equations, incorporating the Boussinesq model for managing buoyancy forces due to thermal effects, and couple them with an energy equation formulation based on the enthalpy method. These equations are solved using an adaptive finite element method. Our single-domain approach processes the solid and liquid phases using the same equation systems. In the solid phase, we reduce the velocity to zero by introducing a penalization term in the momentum equation, following the Carman-Kozeny model, which simulates the slowing of velocity in a porous medium. Spatial discretization is carried out using Taylor-Hood finite elements (P2 finite elements for velocity and P1 for pressure) and a second-order implicit time integration scheme (GEAR). The nonlinear equation systems are solved using Newton's algorithm, and the numerical methods are implemented in the FreeFem++ open-source software. We have developed a new Toolbox that expands applications by including variable physical parameters, enabling the modeling of complex configurations such as PCM in series, the presence of fins, or a room filled with air adjacent to a PCM. Validation cases for the code are presented, where our numerical results are compared to experimental and numerical data from physics. The study also includes the analysis of the stabilized finite element method, based on procedures for minimal pressure stabilization. A constant penalty term is added to the discretized mass conservation equation. We allow this penalty term to vary according to the mesh size, to achieve convergence for velocity and temperature, even if the inf-sup condition is not met, for example, for the P1-P1 pair. We provide a priori estimates and a numerical illustration to support the use of such elements.