Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 08-04-2022
Lafont Victor
Voir le résumé
Voir le résumé
La réduction des nuisances sonores est un enjeu permanent pour les acteurs du transport aérien, notamment autour des aéroports. En particulier, le bruit de soufflante (fan noise) tient une place importante dans le bruit global de l’avion. Aussi, relativement à la réduction du bruit d'aéronef, sont développés des matériaux dits liners positionnés le long de la nacelle moteur. De par leur position à l'intérieur des nacelles de réacteurs, ces traitements acoustiques sont soumis à de forts niveaux sonores, à un écoulement rasant important, et à des gradients thermiques intenses.Cette étude a consisté à mettre en place une métrologie multi-physiques (acoustique, aérodynamique, thermique et turbulence) permettant de constituer une base de données expérimentales, afin d’améliorer la compréhension des phénomènes physiques en jeu et d’alimenter les modèles de conception de liners pour répondre aux nouveaux enjeux posés par l'implantation des liners dans les nacelles.Compte tenu de la complexité des phénomènes physiques mis en jeu, un effort important a été conduit pour disposer d'outils expérimentaux performants pour caractériser finement le couplage entre l'acoustique, la thermique et la turbulence. On associe donc des mesures microphoniques classiques permettant de déterminer le comportement acoustique des liners et des mesures par thermographie infrarouge pour caractériser leur réponse aérothermique. Une veine d'essai spécifique permettant d'intégrer ces différentes techniques de mesure a été réalisée, et une nouvelle méthode de détermination d'impédance acoustique a été développée afin de prendre en compte les effets aéroacoustiques. Une modélisation des phénomènes de transfert et de convection thermiques a ensuite permis de lier la réponse aérothermique au comportement acoustique des échantillons de liners sélectionnés pour l'étude.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 23-03-2022
Casadei Loris
Voir le résumé
Voir le résumé
Le bruit de choc du rotor est aujourd'hui une des principales sources de bruit des moteurs d'avions dans les conditions de décollage et de montée. Le contrôle et la réduction de cette source de bruit sont d'une importance primordiale pour les avionneurs pour se conformer aux réglementations internationales et améliorer le confort des passagers. Des outils de simulation haute fidélité sont nécessaires pour son étude, avec prise en compte de tous les effets géométriques et d'écoulement 3D ainsi que la modélisation des traitements acoustiques incorporés dans les parois de l'entrée d'air de nacelle. Les solveurs Euler et Navier-Stokes proposent des solutions pour calculer la propagation non linéaire des fluctuations de pression de forte amplitude des chocs créés par les rotors dans l'entrée d'air. Cependant, la modélisation des revêtements acoustiques dans ces solveurs reste un défi de l'acoustique numérique moderne, en raison de leur appartenance naturelle au domaine fréquentiel. Le présent travail se concentre sur la validation et l'extension de la condition limite d'impédance dans le domaine temporel (TDIBC) basée sur la Représentation Oscillo-Diffusive (ODR) et son implémentation dans un solveur CFD industriel. L'ODR s'est déjà avéré être un outil mathématique performant pour traduire l'opérateur d'impédance (ou de reflection) dans le domaine temporel.Un développement numérique dans un formalisme Navier-Stokes Characteristic Boundary Condition (NSCBC) a permis l'implémentation de ce modèle temporel dans le solveur Navier-Stokes à volumes finis elsA. Les validations de cette méthodologie sont réalisées par rapport à des données acoustiques issus de la littérature et de mesures expérimentales industrielles. Ils ont tous démontré que la nouvelle TDIBC est correctement implémentée dans le solveur CFD et prouvé son efficacité en termes de temps de calcul et stabilité numérique. Enfin, une application à la propagation et à l'atténuation des ondes de choc créées par les rotors dans une entrée d'air traiteé est proposée.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace, Macquarie University (Sydney, Australie)
/ 17-03-2022
Dehez Clementi Marina
Voir le résumé
Voir le résumé
En 2016, le nombre de décès dus aux accidents de la route atteignait 1,35 million, et ces accidents sont souvent imputable à l’erreur humaine. L'expansion technologique d'Internet et des réseaux interconnectés facilitent l'échange d'informations, parfois vitales. C'est pourquoi beaucoup de travaux ont été produit sur l'automatisation des véhicules. L’amélioration de la sécurité routière est l'un des facteurs qui motive la recherche dans ce domaine et pousse vers l’adoption de systèmes de transport intelligents (ITS) et de réseaux véhiculaires ad hoc (VANET).Un VANET est défini comme un réseau ad-hoc particulier, formé de véhicules capables de communiquer et de traiter l’information reçue, et évoluent en milieu urbain (rues ou autoroutes). Les véhicules peuvent communiquer directement, de pair à pair, ou via un nœud intermédiaire.L'objectif principal de la sécurité des VANETs et des communications véhiculaires est de fournir l'intégrité des messages échangés et la disponibilité des services qui supportent ces échanges. La protection de la confidentialité de ce qu'ils contiennent est un objectif secondaire car non vital. Assurer la responsabilité, c'est-à-dire proposer un moyen d'identifier les entités communicantes et de les tenir responsables pour les messages qu’ils diffusent, est essentiel voire légalement obligatoire. Ce mécanisme doit garantir que tout nœud qui subit une faute, panne ou agit de façon malveillante, soit identifié, révoqué, finalement puni pour ses actions et leurs conséquences. Cependant, un tel mécanisme d'identification pose un problème et risque de compromettre la vie privée des utilisateurs, même lorsqu'ils sont honnêtes.Cette thèse porte sur le délicat compromis entre anonymat et traçabilité dans systèmes distribués tels que les ITSs. Nous étudions l'utilisation des blockchains (chaînes de blocs) dans la construction de primitives cryptographiques à seuil. Ces primitives sont utilisées afin de préserver la vie privée mais aussi la responsabilité des acteurs et étudiées dans leur application au cas des VANETs.Notre première contribution, appelée DOGS, est un schéma de signature de groupe basé sur la blockchain qui propose la fonctionnalité d'ouverture distribuée. Nous montrons, dans cette thèse, que le système améliore un schéma de signature de groupe existant et exploite un protocole de génération de clé distribuée pour répartir le rôle de l'ouvreur (Opener) sur un ensemble de nœuds appelés les sous-ouvreurs (sub-openers).Notre deuxième contribution est une génération de clé distribuée anonyme mais traçable, appelé BAT-Key, qui utilise une blockchain pour assurer la confiance entre les différentes entités qui composent le système. Dans la suite de la thèse, nous expliquons comment nous avons amélioré les protocoles traditionnels avec la propriété d'anonymat qui protège l'identité des participants.Notre troisième contribution, appelée TOAD, est un schéma de chiffrement à seuil basé sur la blockchain avec un service de déchiffrement anonyme mais traçable. Nous montrons que le schéma s'appuie sur un schéma de chiffrement à seuil connu et l’améliore par un processus de déchiffrement collaboratif qui protège l'identité des serveurs de déchiffrement.Tout au long des chapitres, nous expliquons comment l'utilisation de la blockchain garantit la traçabilité des actions effectuées au sein du système par des nœuds anonymes et assure ainsi leur responsabilité tout en préservant la vie privée.Ces schémas sont de la plus haute importance dans l'ère du numérique, même en dehors du domaine des ITSs. Pourtant, nous avons choisi d'illustrer leur importance dans le contexte des VANETs à travers notre dernière contribution : la description de notre construction d'un système de rapport de trafic routier basé sur la blockchain qui préserve l’anonymat des nœuds qui rapportent les informations, mais les tient pour responsables de leurs messages en cas de litige.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 16-03-2022
El Masri Maxime
Voir le résumé
Voir le résumé
De nombreuses disciplines scientifiques s’intéressent à l’estimation d’espérances d’une fonction d’intérêt selon une certaine loi de probabilité. Cette fonction peut être considérée comme une boite noire, potentiellement couteuse à évaluer. Une méthode couramment utilisée pour estimer des espérances, tout en limitant le nombre d’appels à la boite noire, est la méthode stochastique d’échantillonnage préférentiel (Importance Sampling, IS) qui consiste à échantillonner selon une loi de probabilité auxiliaire au lieu de la loi initiale. L’estimateur d’IS est défini à partir de l’estimateur de Monte-Carlo, avec des poids d’importance, et converge presque sûrement vers l’espérance voulue, par la loi des grands nombres. Cependant, sa variance, et donc la précision de l’estimation, dépend fortement du choix de la densité auxiliaire. Une densité optimale d’échantillonnage préférentiel minimisant la variance peut être définie sur le plan théorique mais n’est pas connue en pratique. Une possibilité est alors de choisir la densité auxiliaire dans une famille paramétrique, avec la-quelle il est facile de générer des échantillons, afin d’approcher la distribution optimale théorique. Des algorithmes adaptatifs (Adaptive Importance Sampling, AIS), qui estiment les paramètres de manière itérative, ont été développés pour trouver les paramètres optimaux permettant d’approcher la densité théorique visée. Mais lorsque la dimension de l’espace des paramètres augmente, l’estimation des paramètres se dégrade et les algorithmes d’AIS, et l’IS en général, deviennent inefficaces. L’estimation finale de l’espérance devient alors très imprécise, notamment du fait de l’accumulation des erreurs commises dans l’estimation de chaque paramètre. L’objectif principal de cette thèse est ainsi d’améliorer la précision de l’IS en grande dimension, en réduisant le nombre de paramètres estimés à l’aide de projections dans un sous-espace de petite dimension. Nous nous concentrons particulièrement sur la recherche de directions de projection influentes pour l’estimation de la matrice de covariance dans un cadre gaussien unimodal (où l’on met à jour le vecteur moyenne et la covariance). La première piste explorée est la projection sur le sous-espace de dimension un engendré par la moyenne optimale. Cette direction est particulièrement pertinente dans le cas d’estimation d’une probabilité d’événement rare, car la variance semble diminuer selon cette direction. La seconde proposition correspond à la projection optimale obtenue en minimisant la divergence de Kullback-Leibler avec la densité visée. Cette seconde proposition permet de projeter dans un espace de plusieurs dimensions contrairement à la première, et permet d’identifier les directions les plus influentes. Dans un premier temps, l’efficacité de ces projections est testée sur différents exemples d’estimation d’espérances en grande dimension, dans un cadre théorique n’impliquant pas d’algorithmes adaptatifs. Les simulations numériques réalisées montrent une nette amélioration de la précision de l’estimation par IS avec les deux techniques de projection sur tous les exemples considérés. Ensuite, nous proposons un couplage de ces projections avec l’algorithme d’Entropie Croisée (Cross Entropy, CE), un algorithme d’AIS destiné à l’estimation de probabilités d’événements rares. L’efficacité de ces algorithmes est vérifiée sur plusieurs cas-tests avec un faible budget de simulation. La technique basée sur la projection dans les directions optimales permet d’obtenir des estimations très précises pour des dimensions modérément grandes (plusieurs dizaines). Le couplage avec la projection sur la moyenne reste en revanche performante dans des dimensions de quelques centaines dans la plupart des exemples. Dans tous les cas, les simulations montrent que les méthodes proposées sont plus précises que la CE classique en grande dimension avec un même budget.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-03-2022
Monnin Loanne
Voir le résumé
Voir le résumé
Les décharges électrostatiques (ESD) sont dues aux interactions entre le panneau solaire et l'environnement spatial. Majoritairement bénignes pour le satellite, elles peuvent cependant mener à la création d'un arc secondaire qui court-circuite une partie du générateur solaire. L'arc secondaire se déclenche dans un plasma de décharge appelé flash-over créé par l'ESD. En effet, le flash-over constitue le milieu conducteur idéal à l'apparition d’un arc. Cette thèse présente un modèle physique de la génération et de la propagation du flash-over. Ce modèle doit permettre d'identifier les situations propices au passage à l'arc. L'étude de la propagation du flash-over se fait en deux parties. Dans un premier temps, un modèle de spot cathodique est construit. Il s'agit du point d'émission du plasma, le modèle fourni les caractéristiques physiques du flash-over (température, densité, etc.). Il est adapté pour correspondre parfaitement à l'étude du flash-over, notamment en ce qui concerne la géométrie du système et l'influence de l'environnement spatial. La deuxième partie de l'étude porte sur le couplage entre le modèle de spot et un modèle d'expansion d'un plasma dans le vide. Le modèle ainsi obtenu prédit l'évolution du flash-over à la surface d'un panneau solaire. Il fournit notamment une durée maximale de la décharge et la température du plasma. Les résultats obtenus sont comparés avec des mesures expérimentales effectuées sur des panneaux entiers. Le modèle présenté dans ce manuscrit est un socle robuste, validé expérimentalement, qui permet d'expliquer le phénomène de flash-over et sa propagation à la surface du panneau solaire. Des premières pistes d'améliorations ont été étudiées et sont présentées afin de rendre compte des possibilités offertes par le modèle.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 15-02-2022
Rakotomalala Lucien
Voir le résumé
Voir le résumé
De nos jours les avions ne peuvent se passer d'un important réseau embarqué pour faire communiquer les nombreux capteurs et actionneurs qui y sont disséminés. Ces réseaux ayant une fonction critique, en particulier pour les commandes de vol, il est important d'en garantir certaines propriétés telles des délais de traversée ou l'absence de débordement de buffers. Le calcul réseau est une méthode mathématique permettant de réaliser de telles preuves [2]. Elle a joué un rôle clef dans la certification du réseau AFDX, dérivé de l'ethernet, utilisé à bord des avions les plus récents (A380, A350).Le Calcul Réseau se base sur des résultats mathématiques utilisant l'algèbre tropicale. Ces résultats sont relativement simple mais déjà bien assez subtiles pour qu'il soit très facile de commettre des erreurs ou des omissions lors de preuves papier ou de calcul de valeur concrètes. Par ailleurs, les assistants de preuve sont un bon outil pour réaliser une vérification mécanique de ce genre de preuves et obtenir un très haut niveau de confiance dans leurs résultats. Nous formalisons donc avec un tel outil les notions et propriétés fondamentales de la théorie du Calcul Réseau. Ces résultats font intervenir des propriétés sur les nombres réels, tel que des bornes supérieures et des limites de fonctions linéaires donc nous souhaitons utiliser un outil de formalisation capable d'implémenter untel niveau mathématique. Nous utilisons l'assistant de preuve Coq. Il s'agit d'un outil disposant déjà d'un long développement dont la librairie Mathematical Components qui permet de formaliser de l'analyse sur les nombres réels et la construction de structures algébriques comme celles utilisées dans le Calcul Réseau. Le calcul de valeurs effective repose sur des opérations de l'algèbre min-plus sur des fonctions réelles. Des algorithmes sur des sous-ensembles spécifiques peuvent être trouvés dans la littérature [3]. De tels algorithmes et leurs implémentations sont toutefois compliqués. Plutôt que de développer une preuve de la bonne implémentation de ces algorithmes, nous prenons une implémentation existante comme Oracle et nous donnons des critères de vérifications en Coq.[1] Anne Bouillard, Marc Boyer et Euriell Le Corronc. DeterministicNetwork Calculus : From Theory to Practical Implementation. John Wiley& Sons, Ltd, oct. 2018[2] Assia Mahboubi et Enrico Tassi. Mathematical Components. Zenodo,jan. 2021[3] Anne Bouillard et Eric Thierry. « An Algorithmic Toolbox forNetwork Calculus ». In : Discret. Event Dyn. Syst. 18.1 (2008),p. 3-49.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 15-02-2022
Erdmann Simon
Voir le résumé
Voir le résumé
Supposons qu'on image en transmission ou en rétrodiffusion un milieu éclairé en lumière cohérente. Supposons également que ce milieu est tel que la phase du champ rétrodiffusé apparaît en tout point comme aléatoire. On obtient alors un motif également aléatoire constitué de grains: du speckle.Si, de plus, le milieu varie au cours du temps, le signal de speckle fluctue également. Imager certaines statistiques temporelles du signal peut alors permettre d'imager le mouvement: c'est l'objet de l'imagerie de speckle dynamique. Ses applications sont nombreuses : étude de suspensions colloïdales, de séchage de peinture, imagerie médicale. Elle s'appuie souvent sur l'autocorrélation temporelle du signal: la forme de cette dernière renseigne sur le type de mouvement, et son temps caractéristique de décroissance est lié à la vitesse de fluctuation du milieu.Cependant, faute de caméras suffisamment rapides, il a longtemps été impossible d'accéder directement à l'autocorrélation temporelle des signaux rencontrés expérimentalement. L'accès aux caractéristiques du mouvement n'était donc possible que via des méthodes indirectes, comme le contraste, assez imprécises et qualitatives. Toutefois, ces dernières années, la diffusion de plus en plus large de caméras haute cadence (jusqu'à plusieurs dizaines de kHz), a changé la donne. La voie s'est ainsi ouverte à un raffinement considérable des modèles et à des gains importants en précision et en rapidité de traitement.Une telle caméra a été utilisée dans le cadre de ces travaux de thèse. Elle a permis d'imager la vascularisation sous-cutanée sur des zones variées du corps humain. On a ainsi pu évaluer la pertinence de plusieurs paramètres pour imager qualitativement le mouvement: l'efficacité du premier terme de la fonction d'autocorrélation, par exemple, a été mise en évidence. Dans le même temps, on a aussi pu constater certaines limites du speckle dynamique que la très haute cadence ne permettait pas de lever. Ainsi, au-delà d'un certain seuil, augmenter la cadence n'apporte plus d'information, tandis que l'hypothèse de stationnarité du signal est ébranlée par les effets de la pulsation cardiaque. Ces limites ne remettent pas en question l'apport considérable de la haute cadence, mais illustrent à quel point il s'agit d'un changement de paradigme.Pour en prendre la pleine mesure et exploiter au maximum le gain en résolution temporelle permis par les caméras rapides, il est nécessaire, en parallèle des études expérimentales, d'affiner les modèles existants. C'est dans cette optique qu'un travail de modélisation et de simulation du système d'imagerie a été mené. Notre but était de relier le plus précisément possible un type de dynamique du milieu aux statistiques du signal obtenu. Ainsi, il a été possible de redémontrer rigoureusement et de nuancer des résultats tenus pour phénoménologiques dans la littérature, tels que certains modèles d'autocorrélation temporelle. Ces résultats fondent la possibilité, à terme, de remonter à des grandeurs physiques fiables à partir d'un signal de speckle dynamique.Enfin, comme les modèles inverses de speckle dynamique s'appuient sur des statistiques parfois complexes sur les signaux, il convient de s'assurer que celles-ci ne sont pas altérées par des traitements tiers. En particulier, beaucoup d'opérations de traitement du signal, notamment de rééchantillonnage (sur-échantillonnage, sous-échantillonnage, recalage) sont effectuées sans conscience des effets considérables qu'elles peuvent avoir sur les statistiques du signal. Un troisième axe de ces travaux a donc consisté à caractériser ces effets en fonction des méthodes utilisées. Il a par exemple été établi qu'un filtre passe-bas (préalable à un sous-échantillonnage) tend à générer d'autant plus de corrélation longue distance qu'il est resserré en fréquence --- et donc qu'il permet d'éviter l'aliasing. Le même type de résultat a été établi avec les méthodes d'interpolation.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-02-2022
Fabozzi Fabio
Voir le résumé
Voir le résumé
Dans cette thèse de doctorat, nous nous intéressons à l'estimation robuste de la phase de la porteuse en utilisant le filtrage bayésien variationnel. La mesure de la phase porteuse est devenue une tâche fondamentale dans de nombreuses applications d'ingénierie telles que le positionnement précis dans le domaine du GNSS. Malheureusement, les mesures de phase obtenues par les techniques traditionnelles de poursuite de phase peuvent être fortement mises à mal par la présence de sauts de phase ambigus, appelés sauts de cycle. Ces derniers peuvent durement impacter les performances des algorithmes de poursuite conduisant, dans le pire des cas, à une perte permanente de verrouillage du signal. Un processus de ré-acquisition est alors nécessaire qui affecte les performances de suivi. Par conséquent, pour résoudre ce problème, nous proposons un filtre non linéaire robuste de poursuite de phase basé sur l'inférence de Bayes variationnelle. Tout d'abord, l'algorithme est développé en supposant une dynamique lente de phase (c'est-à-dire la boucle au premier ordre), puis, son ordre est augmenté en estimant un vecteur d'état formé par la phase et ses dérivées. Les performances de ce nouvel algorithme sont comparées avec celles de techniques conventionnelles (tels que la DPLL (Digital Phase Lock Loop) et la KF (Kalman Filter)-DPLL) en terms de précision d'estimation et d'occurence de sauts de cycle. La comparaison est d'abord effectuée à l'aide de données synthétiques, puis de données GNSS réelles dans un récepteur radio logicielle GNSS. Les résultats montrent que la méthode proposée a de meilleures performances par rapport aux filtres linéaires conventionnels, lorsque le rapport signal sur bruit est faible.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 02-02-2022
Laffont Adrien
Voir le résumé
Voir le résumé
Gaz ionisés composés d’électrons, d’ions et de neutres, les décharges plasmas ont déjà démontré leur potentialité pour le développement de systèmes radiofréquences et micro-ondes. Plus particulièrement, le contrôle de la densité électronique et l’aspect allumage/extinction (mode ON/OFF) des décharges plasmas suscitent un intérêt croissant pour le développement d’antennes furtives reconfigurables en fréquence et/ou en diagramme de rayonnement. Ces antennes exploitent principalement deux comportements électromagnétiques des décharges plasmas, le comportement électrique, pour lequel la partie réelle de la permittivité relative du plasma est grandement négative, et le comportement diélectrique lorsque cette dernière est comprise entre 0 et 1.Récemment, un nouveau type d’antenne plasma miniature a été proposé et expérimentalement étudié en bande VHF [1]. Dans son utilisation, le plasma ne se comporte ni comme un bon conducteur électrique, ni comme un matériau diélectrique, mais comme un mauvais conducteur aussi appelé matériau ENG (Epsilon NéGatif). L’antenne consiste alors en un monopole miniature couplé à un résonateur ENG hémisphérique de dimension sub-longueur d’onde obtenu grâce à une décharge plasma. Les travaux présentés dans [1], issus d’une précédente thèse [2], permirent de mettre en évidence un phénomène de résonance associé à un rayonnement électromagnétique de l’antenne plasma miniature. La reconfigurabilité en fréquence de l’antenne a également été observée en modifiant la puissance électromagnétique communiquée au plasma et donc sa densité électronique.Dans ces travaux de thèse, nous poursuivons le développement de cette antenne plasma miniature. Plus spécifiquement, ce travail de recherche a pour but de :
• comprendre le phénomène physique opérant au sein du plasma à l’origine du rayonnement électromagnétique de l’antenne plasma miniature
• mettre en œuvre des dispositifs de mesure pour évaluer ses performances antennaires,
• étudier expérimentalement les propriétés potentielles de durcissement électromagnétique de l’antenne
• proposer une modélisation numérique de cette antenne non-standard.Au cours de cette thèse, les différents travaux de recherche ayant été menés afin de répondre aux objectifs sont :
• un état de l’art sur les antennes à plasma
• le développement d’un modèle analytique afin de proposer une description phénoménologique de la résonance plasmonique, phénomène physique à l’origine du rayonnement électromagnétique de l’antenne
• l’élaboration de dispositifs de mesure dédiés à la caractérisation des propriétés de cette antenne
• la mesure des performances de l’antenne plasma miniature ainsi que la mise en évidence expérimentale de ses propriétés de durcissement électromagnétique
• la mise en œuvre d’une stratégie pour modéliser numériquement cette antenne plasma miniature
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 18-01-2022
Zhang Ruohao
Voir le résumé
Voir le résumé
Ces dernières années, le développement du système aérien sans pilote (UAS) impliquant des essaims de véhicules aériens sans pilote (UAV) a connu des progrès sans précédent. Cependant, les systèmes de réseau mis en œuvre dans les UAS commerciaux actuels sont souvent des variantes des systèmes de réseau existants. Ainsi, des vulnérabilités préexistantes peuvent persister, tandis que de nouvelles vulnérabilités émergeant des nouvelles propriétés des UAS, telles que la mobilité et l'interconnectivité, sont encore plus préoccupantes. Étant donné que les UAS opèrent dans l'espace aérien civil, la sûreté et la sécurité sont essentielles.Cette thèse a été créée en réponse à une demande croissante. Dans ce rapport de thèse, trois stratégies sont explorées pour chercher à résoudre différentes attaques que l'on peut s'attendre à observer dans un UAS.La première partie de la thèse implique l'utilisation de théories cybernétiques : des techniques d'observation robustes pour réaliser une détection robuste d'anomalies dans un réseau TCP (Transmission Control Protocol). Les travaux se sont concentrés sur la conception d'un observateur robuste basé la méthode des fonctionnelles de Lyapunov-Krasovkii et d'un système de gestion de file d'attente active (AQM) dans un réseau TCP. En exploitant la dynamique du réseau TCP, nous pouvons détecter un trafic réseau anormal.La deuxième partie de la thèse utilise la théorie multifractale pour identifier les trafics présentant une anomalie. Les travaux se sont concentrés sur la conception d'un prototype d'IDS fonctionnel basé sur l'analyse Wavelet Leader Multifractal (WLM) pour identifier des anomalies telles que la congestion du réseau générée par une attaque DoS. Dans l'expérience, nous observons que la signature WLM d'un réseau UAS simulé peut être radicalement différente entre un trafic normal et un trafic affecté par une attaque DoS. Par une simple comparaison analytique entre les différentes signatures, nous pouvons identifier le trafic avec ou sans attaque.La troisième partie de la thèse consiste à utiliser l'intelligence artificielle (IA) pour améliorer les performances de détection. Nous avons introduit un réseau de classification Long Short-Term memory (LSTM) (et d'autres réseaux de neurones) pour augmenter la qualité de détection. Ici, au lieu de cibler une attaque évidente, telle que l'attaque DoS, nous avons tourné notre attention vers une attaque plus délicate, telle que l'attaque Man in the Middle (MITM). En adaptant l'analyse WLM et les principes d'apprentissage automatique, nous avons constaté qu'il est possible d'atteindre un niveau de détection prometteur pour une attaque de falsification des coordonnées géographiques des drones dans un réseau UAS simulé.
|
Texte intégral
|
|