Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace, Instituto Tecnológico de Aeronáutica (ITA)
/ 11-10-2022
Panasiewicz Jognes
Voir le résumé
Voir le résumé
Dans le contexte des systèmes de télécommunication, la technologie photonique est apparue pour répondre à la demande de bande passante. Elle a depuis fait l'objet de recherches croissantes et a été incorporée dans des systèmes destinés au spatial. Grâce à cette technologie, il est possible d'ajouter de nouvelles fonctionnalités aux équipements traditionnels de communication par radiofréquence ou de les utiliser dans des terminaux laser pour la communication optique en espace libre. Ce travail de recherche porte sur l'utilisation de la technologie photonique dans le sous-système de communication par satellite. Il se concentre donc sur un sous-système utilisant les communications par radiofréquence (RF) et un autre utilisant les communications optiques en espace libre (FSO) pour un satellite fonctionnant sur une orbite terrestre basse (LEO). Le modulateur vectoriel micro-ondes basé sur la technologie photonique a été présenté et discuté pour le sous-système utilisant les communications RF afin de remplacer l'étage de modulation traditionnel d'une charge utile de transmission. Ce modulateur photonique utilise un arrangement de modulateur électro-optique Mach-Zehnder (MZM) pour mettre en œuvre la modulation numérique de la porteuse micro-onde. La dérive dans le temps de la polarisation en tension continue du MZM, entraînant une dégradation de la qualité du signal modulé, une solution innovante pour un contrôle automatique de la polarisation (ABC) a été proposée. Contrairement aux méthodes rapportées jusqu'à présent dans la littérature, ce contrôle automatique de la polarisation est basé sur l'analyse des signaux I/Q afin de générer des étapes de tension pour la polarisation du modulateur photonique. En tenant compte du fait que la liaison satellite fonctionne généralement dans les bandes S et X pour la transmission (TT&C) et la transmission d'images avec des schémas de modulation QPSK, 8PSK et 16QAM, l'ABC a été évalué par une technique de co-simulation. En conséquence, l'ABC a corrigé les trois schémas en quelques étapes. Pour le système FSO, une boucle à verrouillage de phase optique (OPLL) a été étudiée pour récupérer les données d'un signal optique modulé numériquement dans un récepteur à détection cohérente. Contrairement aux OPLL analogiques traditionnelles, une OPLL entièrement numérique a été mise en œuvre et soutenue par une technique de co-simulation. La motivation première était la possibilité d'utiliser un détecteur de phase numérique à la place du détecteur analogique pour fournir une erreur de phase. De plus, la caractéristique de gain du détecteur de phase numérique, indépendante du niveau du signal d'entrée, lui permet d'être utilisé dans des régimes d'évanouissement. L'OPLL numérique a été évaluée à l'aide de taux d'échantillonnage doubles sous un bruit gaussien additif et trois scénarios de turbulence atmosphérique qui induit un évanouissement de puissance sur le signal optique transmis. De plus, la propagation d'un signal optique modulé numériquement dans une trajectoire oblique de satellite LEO a été considérée avec un débit binaire de 20 Gbits/s et un schéma de modulation QPSK. Il a été démontré que les détecteurs de phase analogiques traditionnels ne sont pas adaptés aux systèmes en régime d'évanouissement. Par conséquent, le détecteur de phase numérique s'est avéré être une alternative à la mise en œuvre d'OPLL pour le récepteur de systèmes FSO utilisant la détection cohérente. Ansi, la technologie photonique a été analysée pour améliorer les charges utiles de satellites et augmenter la bande passante de futurs liens optiques de communications.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 14-06-2022
Mounsif Leila
Voir le résumé
Voir le résumé
La transmission Faster-than-Nyquist (FTN) monoporteuse consiste à transmettre avec un rythme symbole supérieur à la bande occupée par le signal émis. Cette stratégie s’est révélée pertinente pour accroître l’efficacité spectrale atteignable sur des canaux contraints en puissance et pour rendre le signal de communication difficile à identifier pour un éventuel noeud espion. Alors que de très nombreuses contributions se sont focalisées sur la détection symbole (ou séquence) en présence d’interférence entre impulsions de mise en forme, nous nous intéressons à la synchronisation, peu étudiée pour ce mode de transmission mais essentielle pour pouvoir envisager des récepteurs pratiques. L’objet principal de ces travaux de thèse est la conception de séquences pilotes adaptées à la synchronisation du délai et de la phase en FTN, au sens de la minimisation de la borne de Cramér–Rao (CRB) des paramètres, en fonction de la densité de transmission. À travers une étude analytique de la CRB du délai, nous révélons qu’une séquence optimale pour l’estimation de ce paramètre pour un système de Nyquist est non-informative pour les systèmes FTN, dans le cas d’un filtre de mise en forme réel de type root-raised cosine. Les courbes de CRB des paramètres obtenues sont comparées à des estimateurs basés sur le maximum de vraisemblance, asymptotiquement efficaces. Des études complémentaires à ces travaux pourraient inclure une évaluation de la robustesse des estimateurs basés sur le maximum de vraisemblance à une contamination des symboles pilotes par des symboles de données. Aussi, il serait pertinent de prévoir une étape préliminaire de synchronisation du décalage en fréquence.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 19-05-2022
Taleb Khaled
Voir le résumé
Voir le résumé
Dans cette thèse, nous examinons le canal wiretap de Wyner dans la pratique, pour atteindre la sécurité en terme de théorie de l'information. Ce type d'approche de la sécurité a longtemps été écarté des applications pratiques. Ceci est principalement dû à une définition légèrement différente de la sécurité (Sécurité forte vs sécurité sémantique), en plus du fait que ces méthodes sont étudiées de manière asymptotique, donc pas en pratique. Les spécialistes ont donc préféré des solutions cryptographiques sur les couches supérieures du réseau afin d'assurer la sécurité. Cependant, il a été montré que ces définitions de la sécurité sont en fait équivalentes les unes aux autres. De plus, nous montrons que le comportement asymptotique des codes polaires, utilisés sur un canal wiretap, appelés codes polaires wiretap, est compatible avec son comportement asymptotique, ce qui rend les codes polaires wiretap utiles pour des applications pratiques. Un autre avantage principal de l'utilisation de la sécurité de la couche physique est que les types de réseaux émergents tels que les réseaux de capteurs, les réseaux ad hoc qui passent par plusieurs intermédiaires de la source à la destination, ou les réseaux d'identification par radiofréquence (RFID), sont de faible complexité, sur lesquels la gestion des clés cryptographiques, ainsi que la complexité de calcul rendent l'utilisation des techniques cryptographiques typiques difficile. Nous nous appuyons principalement sur les schémas présentés par Vardy et al. pour obtenir un secret faible et fort. Étant donné que nous utilisons ces schémas dans des longueurs de bloc finies, des fuites d'informations peuvent se produire. Il existe des méthodes dans la littérature pour calculer et estimer cette fuite d'information, mais nous montrons comment ces méthodes sont soit infaisables en pratique, soit simplement inexactes. De plus, nous introduisons une nouvelle méthode, pour estimer cette fuite, qui s'avère être très précise et plus légère en calcul que les méthodes connues. D'autre part, nous étudions également la construction pratique de codes polaires wiretap à longueur de bloc finie et examinons l'impact des principaux paramètres de construction sur le taux de code réalisable et la fuite d'information. Enfin, nous présentons notre banc d'essai, utilisé pour mettre en œuvre les codes polaires wiretap en pratique, en utilisant un émetteur et deux récepteurs, simulant le récepteur légitime et l'espion. Nous montrons que plus l'espion est éloigné de l'émetteur, plus il y a de bruit, et donc une moins bonne capacité de décodage, et qu'au-delà d'une certaine distance, il est incapable de décoder quoi que ce soit, et reçoit une image très bruyante, de laquelle aucune information utile ne peut être extraite.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 16-05-2022
Kraiem Sofiane
Voir le résumé
Voir le résumé
Les manipulateurs spatiaux permettent de répondre à une variété de problèmes dans les futures exploitations et explorations spatiales, tels que le déploiement en orbite, l’élimination active des débris ou les opérations de maintenance. Toutefois, il est difficile de contrôler de manière autonome les systèmes de manipulateurs spatiaux dans le cas de structures légères et de grande taille présentant alors un comportement flexible. La dynamique flexible représente un défi, premièrement par sa modélisation et secondement les couplages avec le manipulateur peuvent détériorer la qualité du contrôle. Cette thèse aborde les problèmes de conception et de contrôle d’un manipulateur spatial autonome équipé de dispositifs d’échange de moment cinétique pour le contrôle de la rotation d’un vaisseau spatial lorsqu’il est confronté à des perturbations internes au système, des incertitudes de modèle et des erreurs de mesure. La modélisation de la dynamique rigide-flexible d’un système multi-corps reste une tâche difficile, et une première contribution de ce travail est un outil de modélisation générique pour dériver la cinématique et la dynamique d’un manipulateur spatial flottant dont les rotations sont contrôlées et en présence d’appendices flexibles. Cette analyse a conduit à la contribution principale de cette thèse, à savoir l’implémentation et la conception d’une loi de contrôle pour les opérations de maintenance en orbite. Grâce au modèle, la commande proposée inclut les états non mesurables (i.e. les modes flexibles) dans le découplage et la linéarisation du système, et les lois de pilotage établies sont basées sur l’inversion dynamique non linéaire où des observateurs sont introduits pour améliorer la qualité de la linéarisation. Dans une première mise en oeuvre, un observateur d’état étendu a été utilisé pour estimer la dynamique flexible. Puis, dans un deuxième temps, les incertitudes de modélisation et les erreurs de mesure ont été traitées par l’ajout d’un observateur de perturbations non linéaires. Les interdépendances entre les observateurs et la dynamique de contrôle ont motivé un calcul simultané de leurs gains afin d’améliorer la stabilité du système et les performances de contrôle. Ce point a été atteint par la résolution d’inégalités matricielles linéaires pour garantir la stabilité obtenue à l’aide d’une fonction de Lyapunov appropriée. Afin de mettre en évidence l’intérêt du schéma proposé et de valider notre approche dans un environnement réaliste, des tests approfondis d’un cas d’utilisation de l’assemblage d’un télescope spatial en orbite ont été réalisés sur un simulateur haute-fidélité.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 28-04-2022
Sunday Cecily
Voir le résumé
Voir le résumé
Si l’observation depuis la Terre a pu révéler le grand nombre et la diversité des petits corps du système solaire, seule leur exploration in-situ permettra de répondre aux questions qu’ils soulèvent aujourd’hui sur leur composition physique et chimique. Cela explique la recrudescence de missions dédiées aux petits corps (Osiris-Rex, Hayabusa-2, Mars Moon Explorer, etc.) ainsi que les efforts déployés par les agences internationales (DLR, NASA, JAXA) pour permettre l’exploration de leur surface. De par leur faible gravité (entre 10-6 et 10-2 g) les astéroïdes (e.g. Eros), les comètes (e.g. Churyumov-Gerasimenko) et les petits satellites (e.g. Phobos) se révèlent des candidats difficiles pour une mobilité de surface. En milligravité (i.e. autour de 10-3g), le poids très faible d’un véhicule ne permet des tractions que 1,000 fois plus faibles que celles dont bénéficient les rovers martiens et lunaires. Surtout, le comportement du régolithe des petits corps est peu compris et donc difficile à prévoir, notamment à cause du rôle majeur joué par les forces de cohésion à ces échelles de gravité. Le comportement du régolithe tient alors davantage à celui d’une poudre cohésive comme la farine qu’à celui d’un gravier fin. Cette thèse explorera donc la faisabilité et la performance attendue d’un véhicule à roue à la surface d’un petit corps. L’étude reposera sur la modélisation du sol par méthodes à éléments discrets (DEM). Cette approche consiste à simuler l’interaction détaillée des grains de régolithe un-à-un (friction, résistance au roulement, cohésion, etc.). A partir d’un code DEM préexistant (e.g. ESyS-Particle) qui sera identifié au commencement de l’étude, la thèse examinera et implémentera les modifications nécessaires à apporter pour modéliser les interactions spécifiques d’une roue avec le régolithe d’un petit corps. L’étape de modélisation franchie, la thèse appliquera l’outil développé à la résolution du problème du roulage : traction et manœuvrabilité (simplifiée) dans différents types de régolithe, à différents niveaux de gravité. Les travaux seront conduits avec l’ISAE-Supaéro : l’encadrante est une experte du régolithe des petits corps, des méthodes DEM ainsi que du développement d’expériences (vols paraboliques, tours de chute) permettant la validation des simulations numériques. Au terme de la thèse, nous aurons répondu aux questions suivantes : quelle est la force de traction que l’on peut attendre d’un régolithe en milligravité ? comment cette traction évolue-t-elle quand la gravité change ? comment la cohésion du régolithe affecte-elle l’écoulement autour de la roue ? Ces réponses nous permettront de déterminer le seuil de gravité minimum, selon le régolithe attendu, en dessous duquel le roulage devient impraticable ou trop inefficace pour être préféré à d’autres solutions (e.g. les « hoppers » Mascot (DLR), Hedgehog (JPL) ou Minerva (JAXA)). Les missions vers les petits corps constituent des opportunités de collaborations inter-agences très intéressantes et abordables en coût et en complexité. La compétence sur la locomotion en milligravité peut se révéler cruciale pour participer en tant que partenaire à ce genre de mission. C’est également un domaine de coopération actif entre le CNES (à DSO/DV/IF) et le DLR (à Oberpfaffenhofen) qui a déjà une certaine expérience dans le domaine avec leurs outils de simulation multi-corps et leurs outils de modélisation DEM. Cette thèse consoliderait l’axe d’étude et cette coopération.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 01-04-2022
Xu Zhujun
Voir le résumé
Voir le résumé
L'objectif de ce travail de thèse est de développer des méthodes de détection et de suivi d'objets 2D et 3D fondés sur l'apprentissage profond sur vidéo monoculaire et de les appliquer au contexte du véhicule autonome. En effet, lorsque l’on utilise directement des détecteurs d'images fixes pour traiter un flux vidéo, la précision souffre d'un problème de qualité d'image du fait de l’échantillonnage. De plus, les annotations 3d des vidéos prennent du temps et sont coûteuses en raison du grand nombre d'images. Nous profitons donc des informations temporelles dans les vidéos, telle que la cohérence des objets, pour améliorer les performances. Les méthodes ne doivent pas introduire trop de charge de calcul supplémentaire, car le véhicule autonome exige une performance en temps réel.Plusieurs méthodes peuvent être utilisées dans différentes étapes, par exemple, la préparation des données, l'architecture du réseau et le post-traitement. Tout d'abord, nous proposons une méthode de post-traitement appelée heatmap propagation (propagation de carte de chaleur) fondée sur un one-stage détecteur CenterNet pour la détection d'objets dans les vidéos. Notre méthode propage la détection fiable effectuée sur les images précédentes sous la forme d’une heatmap pour la prochaine image. Ensuite, pour distinguer différents objets d'une même classe, nous proposons une architecture de réseau image par image pour la segmentation d'instances vidéo en utilisant les instance sequence queries (requête de séquence d’instances) . Le suivi des instances est réalisé sans post-traitement supplémentaire pour l'association de données. Enfin, nous proposons une méthode d'apprentissage semi-supervisée pour générer des annotations 3D pour une base de données de suivi d'objets dans les vidéos 2D. Cela permet d'enrichir le processus d'apprentissage pour la détection d'objets 3D. Chacune des trois méthodes peut être appliquée individuellement pour étendre les détecteurs d'images dans le cadre d’applications sur vidéo. Nous proposons également deux structures de réseau complètes pour résoudre la détection et le suivi d'objets 2D et 3D sur vidéo monoculaire.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 08-03-2022
Robert Emilie
Voir le résumé
Voir le résumé
Les images de notre quotidien du 21ème siècle sont acquises et visionnées en couleur. Nos télévisions, nos téléphones et ordinateurs, tous permettent une vision indirecte, de la scène à l’œil en passant par un système de d’acquisition et une système d’affichage, avec l’illusion d’une concordance optimale avec la vision directe (de la scène à l’œil) que nous portons au monde qui nous entoure. Pour certaines applications d’imagerie extrêmement exigeantes en termes de colorimétrie, telles que : l’industrie du cinéma, la surveillance, l’industrie du textile ou bien encore l’exploration spatiale, cette illusion est régulièrement altérée par les conditions extrêmes d’acquisition rencontrées. L’objectif de cette thèse est de définir des méthodes pour la reproduction d’images numériques de très haute qualité colorimétrique. Deux axes de recherche principaux sont considérés: la sensibilité spectrale de l’œil humain, et la chaîne du traitement de l’information couleur par les capteurs d’images modernes. Les deux premiers chapitres du manuscrit donnent les connaissances et méthodes liées à ces deux axes. Dans ce cadre, deux études ont été menées sur (i) la méthode de calcul de la matrice de correction des couleurs, et (ii) la prise en compte des variations individuelles de la vision des couleurs par l’humain. Ce travail de thèse vise à définir si l’un de ces deux aspects de la chaîne de la vision indirecte, souvent étudiés indépendamment l’un de l’autre, est à l’origine de trouble importants pour la fidélité colorimétrique. Pour répondre à cette problématique, deux études ont été réalisées: la première quantifie les erreurs résiduelles après l’application à une image de corrections calculées selon deux méthodes calculatoires (moindres carrés linéaires et régression polynomiale d’ordre 2). L’étude se penche en particulier sur deux types de scènes: celles qui présentent des particularités spectrales restreintes, et celles ne permettant pas l’utilisation de mires de calibration. Les résultats sont issus de l’étude de deux capteurs d’images CMOS et sous illuminant D65. Ils indiquent en bon accord avec les études précédentes que pour des scènes contenant des couleurs de l’ensemble du domaine spectral visible, le nombre de patches utilisés pour le calcul de la matrice de correction des couleurs (CCM) peut être réduit en dessous de 24 (mire ColorChecker® X-rite). Concernant les scènes présentant des particularités spectrales, des corrections teintes-spécifiques ont été appliquées à partir de la mire Next Generation Target (NGT). Les résultats suggèrent de compléter l’étude par d’autres méthodes de sélection des teintes pour le calcul de CCM. Dans les applications qui ne permettent pas l’utilisation de mires de calibration, une méthode de caractérisation par imageur multispectral 6-bandes (déjà disponible sur de nombreuses applications spatiales) est étudiée. Elle présente des résultats acceptables sur la caractérisation de la mire ColorChecker® X-rite qui présente des réflectances qui varient de manière très progressive sur le domaine du visible. La deuxième étude quantifie les différences qui peuvent être engendrées par les variations individuelles de la vision humaine, dernier élément de la chaine de la vision indirecte. Les résultats issus de données en accès-libre dans la littérature, montrent que pour certaines teintes les différences de vision des couleurs peuvent s’avérer très critiques et suggèrent le développement de méthodes d’individualisation des images. Une revue est ensuite faite concernant les leviers technologiques utilisés pour le développement d’une expérience d’égalisation visant à mesurer la sensibilité spectrale d’individus soumis à ce contexte d’exigences colorimétriques importantes. Une discussion est alors ouverte concernant le développement de nouvelles expériences d’égalisations, proposant des alternatives pratiques issues des travaux de la littérature très récente.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 07-03-2022
Dewitte Hugo
Voir le résumé
Voir le résumé
L’électronique est aujourd’hui un outil central et essentiel dans notre société. Il a investi les objets du quotidien, et nous l’utilisons directement ou indirectement des dizaines de fois chaque jour sans même nous en rendre compte. Depuis l'introduction du transistor tel qu’on le connaît à la fin des années 40, l'électronique n'a cessé de s'améliorer et de se spécialiser pour devenir plus efficaces dans chaque application. Aujourd’hui, leurs formes la plus rependue est sans conteste la technologie MOS.C’est donc tout naturellement que l’on retrouve des circuits électroniques MOS dans les applications spatiales et nucléaires, où ils remplissent une multitude de fonctions essentielles. Ces environnements ont cependant une particularité importante : ils sont chargés en radiations, ce qui a pour effet de dégrader les composants électroniques. Ces dégradations sont d'autant plus problématiques que les circuits exposés à de tels environnements sont généralement censés fournir d’excellentes performances et garantir une haute fiabilité. Pour assurer un bon fonctionnement de ces circuits, il est donc nécessaire d’étudier les effets de ces milieux radiatifs sur les performances de l’électronique MOS.De plus, et c’est la motivation de cette thèse, ces applications en milieux radiatifs sont en plein essor. Non seulement la demande pour ce genre de circuits augmente, mais la dose maximale de radiations reçue par l’électronique sur sa durée de vie devrait dépasser des niveaux inédits. Ces nouvelles doses et leurs effets sur l’électronique sont encore peu investigués, et l’étude de ces effets est donc primordiale pour permettre l’utilisation future de l’électronique dans ces milieux, que ce soit dans le nucléaire, le spatial ou ailleurs.En particulier, cette thèse étudie les effets des hautes doses de radiation ionisante sur des transistors MOS (MOSFETs) à destination de circuits analogiques, circuits qui s’avèrent être souvent plus exposés que les autres. Tout cela dans le but de, d’un côté, être capable de mieux anticiper ces effets et, d’un autre, pouvoir les contrecarrer quand cela est possible.La thèse traite d’abord de la dégradation durant des irradiations des paramètres des MOSFETs tel que le courant maximum, la tension de seuil ou le courant de fuite. Les effets de la tension, de l’épaisseur des oxydes, du design et de la taille du transistor y sont en particulier approfondis. Les résultats mettent en avant le fort rôle des tensions pendant les irradiations sur le type de défaut créés, en particulier dans la grille, ainsi que l'apparition d’un effet de canal court (RISCE) dans un nœud technologique plus gros que dans ceux où il avait été observé auparavant. En plus, cette étude des paramètres des MOSFETs met en avant une importante augmentation du courant de génération après de hautes doses ionisantes dans les jonctions pn du transistor. S’en suit une étude approfondie de ce courant.Dans un second temps, la thèse étudie le phénomène de RTS (Random Telegraph Signal) dans ce courant de fuite de jonction des transistors. Pour cela, une structure de test capable de mesurer en parallèle des dizaines de milliers de courants de fuite est introduite. Grâce à celle-ci, le RTS est étudié de manière statistique avant et après irradiations. Les résultats, en accord avec des simulations à l’échelle atomique, soutiennent l’hypothèse de défauts métastables comme origine du phénomène RTS dans les fuites de jonctions.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 15-02-2022
Erdmann Simon
Voir le résumé
Voir le résumé
Supposons qu'on image en transmission ou en rétrodiffusion un milieu éclairé en lumière cohérente. Supposons également que ce milieu est tel que la phase du champ rétrodiffusé apparaît en tout point comme aléatoire. On obtient alors un motif également aléatoire constitué de grains: du speckle.Si, de plus, le milieu varie au cours du temps, le signal de speckle fluctue également. Imager certaines statistiques temporelles du signal peut alors permettre d'imager le mouvement: c'est l'objet de l'imagerie de speckle dynamique. Ses applications sont nombreuses : étude de suspensions colloïdales, de séchage de peinture, imagerie médicale. Elle s'appuie souvent sur l'autocorrélation temporelle du signal: la forme de cette dernière renseigne sur le type de mouvement, et son temps caractéristique de décroissance est lié à la vitesse de fluctuation du milieu.Cependant, faute de caméras suffisamment rapides, il a longtemps été impossible d'accéder directement à l'autocorrélation temporelle des signaux rencontrés expérimentalement. L'accès aux caractéristiques du mouvement n'était donc possible que via des méthodes indirectes, comme le contraste, assez imprécises et qualitatives. Toutefois, ces dernières années, la diffusion de plus en plus large de caméras haute cadence (jusqu'à plusieurs dizaines de kHz), a changé la donne. La voie s'est ainsi ouverte à un raffinement considérable des modèles et à des gains importants en précision et en rapidité de traitement.Une telle caméra a été utilisée dans le cadre de ces travaux de thèse. Elle a permis d'imager la vascularisation sous-cutanée sur des zones variées du corps humain. On a ainsi pu évaluer la pertinence de plusieurs paramètres pour imager qualitativement le mouvement: l'efficacité du premier terme de la fonction d'autocorrélation, par exemple, a été mise en évidence. Dans le même temps, on a aussi pu constater certaines limites du speckle dynamique que la très haute cadence ne permettait pas de lever. Ainsi, au-delà d'un certain seuil, augmenter la cadence n'apporte plus d'information, tandis que l'hypothèse de stationnarité du signal est ébranlée par les effets de la pulsation cardiaque. Ces limites ne remettent pas en question l'apport considérable de la haute cadence, mais illustrent à quel point il s'agit d'un changement de paradigme.Pour en prendre la pleine mesure et exploiter au maximum le gain en résolution temporelle permis par les caméras rapides, il est nécessaire, en parallèle des études expérimentales, d'affiner les modèles existants. C'est dans cette optique qu'un travail de modélisation et de simulation du système d'imagerie a été mené. Notre but était de relier le plus précisément possible un type de dynamique du milieu aux statistiques du signal obtenu. Ainsi, il a été possible de redémontrer rigoureusement et de nuancer des résultats tenus pour phénoménologiques dans la littérature, tels que certains modèles d'autocorrélation temporelle. Ces résultats fondent la possibilité, à terme, de remonter à des grandeurs physiques fiables à partir d'un signal de speckle dynamique.Enfin, comme les modèles inverses de speckle dynamique s'appuient sur des statistiques parfois complexes sur les signaux, il convient de s'assurer que celles-ci ne sont pas altérées par des traitements tiers. En particulier, beaucoup d'opérations de traitement du signal, notamment de rééchantillonnage (sur-échantillonnage, sous-échantillonnage, recalage) sont effectuées sans conscience des effets considérables qu'elles peuvent avoir sur les statistiques du signal. Un troisième axe de ces travaux a donc consisté à caractériser ces effets en fonction des méthodes utilisées. Il a par exemple été établi qu'un filtre passe-bas (préalable à un sous-échantillonnage) tend à générer d'autant plus de corrélation longue distance qu'il est resserré en fréquence --- et donc qu'il permet d'éviter l'aliasing. Le même type de résultat a été établi avec les méthodes d'interpolation.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-02-2022
Fabozzi Fabio
Voir le résumé
Voir le résumé
Dans cette thèse de doctorat, nous nous intéressons à l'estimation robuste de la phase de la porteuse en utilisant le filtrage bayésien variationnel. La mesure de la phase porteuse est devenue une tâche fondamentale dans de nombreuses applications d'ingénierie telles que le positionnement précis dans le domaine du GNSS. Malheureusement, les mesures de phase obtenues par les techniques traditionnelles de poursuite de phase peuvent être fortement mises à mal par la présence de sauts de phase ambigus, appelés sauts de cycle. Ces derniers peuvent durement impacter les performances des algorithmes de poursuite conduisant, dans le pire des cas, à une perte permanente de verrouillage du signal. Un processus de ré-acquisition est alors nécessaire qui affecte les performances de suivi. Par conséquent, pour résoudre ce problème, nous proposons un filtre non linéaire robuste de poursuite de phase basé sur l'inférence de Bayes variationnelle. Tout d'abord, l'algorithme est développé en supposant une dynamique lente de phase (c'est-à-dire la boucle au premier ordre), puis, son ordre est augmenté en estimant un vecteur d'état formé par la phase et ses dérivées. Les performances de ce nouvel algorithme sont comparées avec celles de techniques conventionnelles (tels que la DPLL (Digital Phase Lock Loop) et la KF (Kalman Filter)-DPLL) en terms de précision d'estimation et d'occurence de sauts de cycle. La comparaison est d'abord effectuée à l'aide de données synthétiques, puis de données GNSS réelles dans un récepteur radio logicielle GNSS. Les résultats montrent que la méthode proposée a de meilleures performances par rapport aux filtres linéaires conventionnels, lorsque le rapport signal sur bruit est faible.
|
Texte intégral
|
|