Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace, Instituto Tecnológico de Aeronáutica (ITA)
/ 11-10-2022
Panasiewicz Jognes
Voir le résumé
Voir le résumé
Dans le contexte des systèmes de télécommunication, la technologie photonique est apparue pour répondre à la demande de bande passante. Elle a depuis fait l'objet de recherches croissantes et a été incorporée dans des systèmes destinés au spatial. Grâce à cette technologie, il est possible d'ajouter de nouvelles fonctionnalités aux équipements traditionnels de communication par radiofréquence ou de les utiliser dans des terminaux laser pour la communication optique en espace libre. Ce travail de recherche porte sur l'utilisation de la technologie photonique dans le sous-système de communication par satellite. Il se concentre donc sur un sous-système utilisant les communications par radiofréquence (RF) et un autre utilisant les communications optiques en espace libre (FSO) pour un satellite fonctionnant sur une orbite terrestre basse (LEO). Le modulateur vectoriel micro-ondes basé sur la technologie photonique a été présenté et discuté pour le sous-système utilisant les communications RF afin de remplacer l'étage de modulation traditionnel d'une charge utile de transmission. Ce modulateur photonique utilise un arrangement de modulateur électro-optique Mach-Zehnder (MZM) pour mettre en œuvre la modulation numérique de la porteuse micro-onde. La dérive dans le temps de la polarisation en tension continue du MZM, entraînant une dégradation de la qualité du signal modulé, une solution innovante pour un contrôle automatique de la polarisation (ABC) a été proposée. Contrairement aux méthodes rapportées jusqu'à présent dans la littérature, ce contrôle automatique de la polarisation est basé sur l'analyse des signaux I/Q afin de générer des étapes de tension pour la polarisation du modulateur photonique. En tenant compte du fait que la liaison satellite fonctionne généralement dans les bandes S et X pour la transmission (TT&C) et la transmission d'images avec des schémas de modulation QPSK, 8PSK et 16QAM, l'ABC a été évalué par une technique de co-simulation. En conséquence, l'ABC a corrigé les trois schémas en quelques étapes. Pour le système FSO, une boucle à verrouillage de phase optique (OPLL) a été étudiée pour récupérer les données d'un signal optique modulé numériquement dans un récepteur à détection cohérente. Contrairement aux OPLL analogiques traditionnelles, une OPLL entièrement numérique a été mise en œuvre et soutenue par une technique de co-simulation. La motivation première était la possibilité d'utiliser un détecteur de phase numérique à la place du détecteur analogique pour fournir une erreur de phase. De plus, la caractéristique de gain du détecteur de phase numérique, indépendante du niveau du signal d'entrée, lui permet d'être utilisé dans des régimes d'évanouissement. L'OPLL numérique a été évaluée à l'aide de taux d'échantillonnage doubles sous un bruit gaussien additif et trois scénarios de turbulence atmosphérique qui induit un évanouissement de puissance sur le signal optique transmis. De plus, la propagation d'un signal optique modulé numériquement dans une trajectoire oblique de satellite LEO a été considérée avec un débit binaire de 20 Gbits/s et un schéma de modulation QPSK. Il a été démontré que les détecteurs de phase analogiques traditionnels ne sont pas adaptés aux systèmes en régime d'évanouissement. Par conséquent, le détecteur de phase numérique s'est avéré être une alternative à la mise en œuvre d'OPLL pour le récepteur de systèmes FSO utilisant la détection cohérente. Ansi, la technologie photonique a été analysée pour améliorer les charges utiles de satellites et augmenter la bande passante de futurs liens optiques de communications.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 14-06-2022
Mounsif Leila
Voir le résumé
Voir le résumé
La transmission Faster-than-Nyquist (FTN) monoporteuse consiste à transmettre avec un rythme symbole supérieur à la bande occupée par le signal émis. Cette stratégie s’est révélée pertinente pour accroître l’efficacité spectrale atteignable sur des canaux contraints en puissance et pour rendre le signal de communication difficile à identifier pour un éventuel noeud espion. Alors que de très nombreuses contributions se sont focalisées sur la détection symbole (ou séquence) en présence d’interférence entre impulsions de mise en forme, nous nous intéressons à la synchronisation, peu étudiée pour ce mode de transmission mais essentielle pour pouvoir envisager des récepteurs pratiques. L’objet principal de ces travaux de thèse est la conception de séquences pilotes adaptées à la synchronisation du délai et de la phase en FTN, au sens de la minimisation de la borne de Cramér–Rao (CRB) des paramètres, en fonction de la densité de transmission. À travers une étude analytique de la CRB du délai, nous révélons qu’une séquence optimale pour l’estimation de ce paramètre pour un système de Nyquist est non-informative pour les systèmes FTN, dans le cas d’un filtre de mise en forme réel de type root-raised cosine. Les courbes de CRB des paramètres obtenues sont comparées à des estimateurs basés sur le maximum de vraisemblance, asymptotiquement efficaces. Des études complémentaires à ces travaux pourraient inclure une évaluation de la robustesse des estimateurs basés sur le maximum de vraisemblance à une contamination des symboles pilotes par des symboles de données. Aussi, il serait pertinent de prévoir une étape préliminaire de synchronisation du décalage en fréquence.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 19-05-2022
Taleb Khaled
Voir le résumé
Voir le résumé
Dans cette thèse, nous examinons le canal wiretap de Wyner dans la pratique, pour atteindre la sécurité en terme de théorie de l'information. Ce type d'approche de la sécurité a longtemps été écarté des applications pratiques. Ceci est principalement dû à une définition légèrement différente de la sécurité (Sécurité forte vs sécurité sémantique), en plus du fait que ces méthodes sont étudiées de manière asymptotique, donc pas en pratique. Les spécialistes ont donc préféré des solutions cryptographiques sur les couches supérieures du réseau afin d'assurer la sécurité. Cependant, il a été montré que ces définitions de la sécurité sont en fait équivalentes les unes aux autres. De plus, nous montrons que le comportement asymptotique des codes polaires, utilisés sur un canal wiretap, appelés codes polaires wiretap, est compatible avec son comportement asymptotique, ce qui rend les codes polaires wiretap utiles pour des applications pratiques. Un autre avantage principal de l'utilisation de la sécurité de la couche physique est que les types de réseaux émergents tels que les réseaux de capteurs, les réseaux ad hoc qui passent par plusieurs intermédiaires de la source à la destination, ou les réseaux d'identification par radiofréquence (RFID), sont de faible complexité, sur lesquels la gestion des clés cryptographiques, ainsi que la complexité de calcul rendent l'utilisation des techniques cryptographiques typiques difficile. Nous nous appuyons principalement sur les schémas présentés par Vardy et al. pour obtenir un secret faible et fort. Étant donné que nous utilisons ces schémas dans des longueurs de bloc finies, des fuites d'informations peuvent se produire. Il existe des méthodes dans la littérature pour calculer et estimer cette fuite d'information, mais nous montrons comment ces méthodes sont soit infaisables en pratique, soit simplement inexactes. De plus, nous introduisons une nouvelle méthode, pour estimer cette fuite, qui s'avère être très précise et plus légère en calcul que les méthodes connues. D'autre part, nous étudions également la construction pratique de codes polaires wiretap à longueur de bloc finie et examinons l'impact des principaux paramètres de construction sur le taux de code réalisable et la fuite d'information. Enfin, nous présentons notre banc d'essai, utilisé pour mettre en œuvre les codes polaires wiretap en pratique, en utilisant un émetteur et deux récepteurs, simulant le récepteur légitime et l'espion. Nous montrons que plus l'espion est éloigné de l'émetteur, plus il y a de bruit, et donc une moins bonne capacité de décodage, et qu'au-delà d'une certaine distance, il est incapable de décoder quoi que ce soit, et reçoit une image très bruyante, de laquelle aucune information utile ne peut être extraite.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 16-05-2022
Kraiem Sofiane
Voir le résumé
Voir le résumé
Les manipulateurs spatiaux permettent de répondre à une variété de problèmes dans les futures exploitations et explorations spatiales, tels que le déploiement en orbite, l’élimination active des débris ou les opérations de maintenance. Toutefois, il est difficile de contrôler de manière autonome les systèmes de manipulateurs spatiaux dans le cas de structures légères et de grande taille présentant alors un comportement flexible. La dynamique flexible représente un défi, premièrement par sa modélisation et secondement les couplages avec le manipulateur peuvent détériorer la qualité du contrôle. Cette thèse aborde les problèmes de conception et de contrôle d’un manipulateur spatial autonome équipé de dispositifs d’échange de moment cinétique pour le contrôle de la rotation d’un vaisseau spatial lorsqu’il est confronté à des perturbations internes au système, des incertitudes de modèle et des erreurs de mesure. La modélisation de la dynamique rigide-flexible d’un système multi-corps reste une tâche difficile, et une première contribution de ce travail est un outil de modélisation générique pour dériver la cinématique et la dynamique d’un manipulateur spatial flottant dont les rotations sont contrôlées et en présence d’appendices flexibles. Cette analyse a conduit à la contribution principale de cette thèse, à savoir l’implémentation et la conception d’une loi de contrôle pour les opérations de maintenance en orbite. Grâce au modèle, la commande proposée inclut les états non mesurables (i.e. les modes flexibles) dans le découplage et la linéarisation du système, et les lois de pilotage établies sont basées sur l’inversion dynamique non linéaire où des observateurs sont introduits pour améliorer la qualité de la linéarisation. Dans une première mise en oeuvre, un observateur d’état étendu a été utilisé pour estimer la dynamique flexible. Puis, dans un deuxième temps, les incertitudes de modélisation et les erreurs de mesure ont été traitées par l’ajout d’un observateur de perturbations non linéaires. Les interdépendances entre les observateurs et la dynamique de contrôle ont motivé un calcul simultané de leurs gains afin d’améliorer la stabilité du système et les performances de contrôle. Ce point a été atteint par la résolution d’inégalités matricielles linéaires pour garantir la stabilité obtenue à l’aide d’une fonction de Lyapunov appropriée. Afin de mettre en évidence l’intérêt du schéma proposé et de valider notre approche dans un environnement réaliste, des tests approfondis d’un cas d’utilisation de l’assemblage d’un télescope spatial en orbite ont été réalisés sur un simulateur haute-fidélité.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 28-04-2022
Sunday Cecily
Voir le résumé
Voir le résumé
Si l’observation depuis la Terre a pu révéler le grand nombre et la diversité des petits corps du système solaire, seule leur exploration in-situ permettra de répondre aux questions qu’ils soulèvent aujourd’hui sur leur composition physique et chimique. Cela explique la recrudescence de missions dédiées aux petits corps (Osiris-Rex, Hayabusa-2, Mars Moon Explorer, etc.) ainsi que les efforts déployés par les agences internationales (DLR, NASA, JAXA) pour permettre l’exploration de leur surface. De par leur faible gravité (entre 10-6 et 10-2 g) les astéroïdes (e.g. Eros), les comètes (e.g. Churyumov-Gerasimenko) et les petits satellites (e.g. Phobos) se révèlent des candidats difficiles pour une mobilité de surface. En milligravité (i.e. autour de 10-3g), le poids très faible d’un véhicule ne permet des tractions que 1,000 fois plus faibles que celles dont bénéficient les rovers martiens et lunaires. Surtout, le comportement du régolithe des petits corps est peu compris et donc difficile à prévoir, notamment à cause du rôle majeur joué par les forces de cohésion à ces échelles de gravité. Le comportement du régolithe tient alors davantage à celui d’une poudre cohésive comme la farine qu’à celui d’un gravier fin. Cette thèse explorera donc la faisabilité et la performance attendue d’un véhicule à roue à la surface d’un petit corps. L’étude reposera sur la modélisation du sol par méthodes à éléments discrets (DEM). Cette approche consiste à simuler l’interaction détaillée des grains de régolithe un-à-un (friction, résistance au roulement, cohésion, etc.). A partir d’un code DEM préexistant (e.g. ESyS-Particle) qui sera identifié au commencement de l’étude, la thèse examinera et implémentera les modifications nécessaires à apporter pour modéliser les interactions spécifiques d’une roue avec le régolithe d’un petit corps. L’étape de modélisation franchie, la thèse appliquera l’outil développé à la résolution du problème du roulage : traction et manœuvrabilité (simplifiée) dans différents types de régolithe, à différents niveaux de gravité. Les travaux seront conduits avec l’ISAE-Supaéro : l’encadrante est une experte du régolithe des petits corps, des méthodes DEM ainsi que du développement d’expériences (vols paraboliques, tours de chute) permettant la validation des simulations numériques. Au terme de la thèse, nous aurons répondu aux questions suivantes : quelle est la force de traction que l’on peut attendre d’un régolithe en milligravité ? comment cette traction évolue-t-elle quand la gravité change ? comment la cohésion du régolithe affecte-elle l’écoulement autour de la roue ? Ces réponses nous permettront de déterminer le seuil de gravité minimum, selon le régolithe attendu, en dessous duquel le roulage devient impraticable ou trop inefficace pour être préféré à d’autres solutions (e.g. les « hoppers » Mascot (DLR), Hedgehog (JPL) ou Minerva (JAXA)). Les missions vers les petits corps constituent des opportunités de collaborations inter-agences très intéressantes et abordables en coût et en complexité. La compétence sur la locomotion en milligravité peut se révéler cruciale pour participer en tant que partenaire à ce genre de mission. C’est également un domaine de coopération actif entre le CNES (à DSO/DV/IF) et le DLR (à Oberpfaffenhofen) qui a déjà une certaine expérience dans le domaine avec leurs outils de simulation multi-corps et leurs outils de modélisation DEM. Cette thèse consoliderait l’axe d’étude et cette coopération.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 01-04-2022
Xu Zhujun
Voir le résumé
Voir le résumé
L'objectif de ce travail de thèse est de développer des méthodes de détection et de suivi d'objets 2D et 3D fondés sur l'apprentissage profond sur vidéo monoculaire et de les appliquer au contexte du véhicule autonome. En effet, lorsque l’on utilise directement des détecteurs d'images fixes pour traiter un flux vidéo, la précision souffre d'un problème de qualité d'image du fait de l’échantillonnage. De plus, les annotations 3d des vidéos prennent du temps et sont coûteuses en raison du grand nombre d'images. Nous profitons donc des informations temporelles dans les vidéos, telle que la cohérence des objets, pour améliorer les performances. Les méthodes ne doivent pas introduire trop de charge de calcul supplémentaire, car le véhicule autonome exige une performance en temps réel.Plusieurs méthodes peuvent être utilisées dans différentes étapes, par exemple, la préparation des données, l'architecture du réseau et le post-traitement. Tout d'abord, nous proposons une méthode de post-traitement appelée heatmap propagation (propagation de carte de chaleur) fondée sur un one-stage détecteur CenterNet pour la détection d'objets dans les vidéos. Notre méthode propage la détection fiable effectuée sur les images précédentes sous la forme d’une heatmap pour la prochaine image. Ensuite, pour distinguer différents objets d'une même classe, nous proposons une architecture de réseau image par image pour la segmentation d'instances vidéo en utilisant les instance sequence queries (requête de séquence d’instances) . Le suivi des instances est réalisé sans post-traitement supplémentaire pour l'association de données. Enfin, nous proposons une méthode d'apprentissage semi-supervisée pour générer des annotations 3D pour une base de données de suivi d'objets dans les vidéos 2D. Cela permet d'enrichir le processus d'apprentissage pour la détection d'objets 3D. Chacune des trois méthodes peut être appliquée individuellement pour étendre les détecteurs d'images dans le cadre d’applications sur vidéo. Nous proposons également deux structures de réseau complètes pour résoudre la détection et le suivi d'objets 2D et 3D sur vidéo monoculaire.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 16-03-2022
El Masri Maxime
Voir le résumé
Voir le résumé
De nombreuses disciplines scientifiques s’intéressent à l’estimation d’espérances d’une fonction d’intérêt selon une certaine loi de probabilité. Cette fonction peut être considérée comme une boite noire, potentiellement couteuse à évaluer. Une méthode couramment utilisée pour estimer des espérances, tout en limitant le nombre d’appels à la boite noire, est la méthode stochastique d’échantillonnage préférentiel (Importance Sampling, IS) qui consiste à échantillonner selon une loi de probabilité auxiliaire au lieu de la loi initiale. L’estimateur d’IS est défini à partir de l’estimateur de Monte-Carlo, avec des poids d’importance, et converge presque sûrement vers l’espérance voulue, par la loi des grands nombres. Cependant, sa variance, et donc la précision de l’estimation, dépend fortement du choix de la densité auxiliaire. Une densité optimale d’échantillonnage préférentiel minimisant la variance peut être définie sur le plan théorique mais n’est pas connue en pratique. Une possibilité est alors de choisir la densité auxiliaire dans une famille paramétrique, avec la-quelle il est facile de générer des échantillons, afin d’approcher la distribution optimale théorique. Des algorithmes adaptatifs (Adaptive Importance Sampling, AIS), qui estiment les paramètres de manière itérative, ont été développés pour trouver les paramètres optimaux permettant d’approcher la densité théorique visée. Mais lorsque la dimension de l’espace des paramètres augmente, l’estimation des paramètres se dégrade et les algorithmes d’AIS, et l’IS en général, deviennent inefficaces. L’estimation finale de l’espérance devient alors très imprécise, notamment du fait de l’accumulation des erreurs commises dans l’estimation de chaque paramètre. L’objectif principal de cette thèse est ainsi d’améliorer la précision de l’IS en grande dimension, en réduisant le nombre de paramètres estimés à l’aide de projections dans un sous-espace de petite dimension. Nous nous concentrons particulièrement sur la recherche de directions de projection influentes pour l’estimation de la matrice de covariance dans un cadre gaussien unimodal (où l’on met à jour le vecteur moyenne et la covariance). La première piste explorée est la projection sur le sous-espace de dimension un engendré par la moyenne optimale. Cette direction est particulièrement pertinente dans le cas d’estimation d’une probabilité d’événement rare, car la variance semble diminuer selon cette direction. La seconde proposition correspond à la projection optimale obtenue en minimisant la divergence de Kullback-Leibler avec la densité visée. Cette seconde proposition permet de projeter dans un espace de plusieurs dimensions contrairement à la première, et permet d’identifier les directions les plus influentes. Dans un premier temps, l’efficacité de ces projections est testée sur différents exemples d’estimation d’espérances en grande dimension, dans un cadre théorique n’impliquant pas d’algorithmes adaptatifs. Les simulations numériques réalisées montrent une nette amélioration de la précision de l’estimation par IS avec les deux techniques de projection sur tous les exemples considérés. Ensuite, nous proposons un couplage de ces projections avec l’algorithme d’Entropie Croisée (Cross Entropy, CE), un algorithme d’AIS destiné à l’estimation de probabilités d’événements rares. L’efficacité de ces algorithmes est vérifiée sur plusieurs cas-tests avec un faible budget de simulation. La technique basée sur la projection dans les directions optimales permet d’obtenir des estimations très précises pour des dimensions modérément grandes (plusieurs dizaines). Le couplage avec la projection sur la moyenne reste en revanche performante dans des dimensions de quelques centaines dans la plupart des exemples. Dans tous les cas, les simulations montrent que les méthodes proposées sont plus précises que la CE classique en grande dimension avec un même budget.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 08-03-2022
Robert Emilie
Voir le résumé
Voir le résumé
Les images de notre quotidien du 21ème siècle sont acquises et visionnées en couleur. Nos télévisions, nos téléphones et ordinateurs, tous permettent une vision indirecte, de la scène à l’œil en passant par un système de d’acquisition et une système d’affichage, avec l’illusion d’une concordance optimale avec la vision directe (de la scène à l’œil) que nous portons au monde qui nous entoure. Pour certaines applications d’imagerie extrêmement exigeantes en termes de colorimétrie, telles que : l’industrie du cinéma, la surveillance, l’industrie du textile ou bien encore l’exploration spatiale, cette illusion est régulièrement altérée par les conditions extrêmes d’acquisition rencontrées. L’objectif de cette thèse est de définir des méthodes pour la reproduction d’images numériques de très haute qualité colorimétrique. Deux axes de recherche principaux sont considérés: la sensibilité spectrale de l’œil humain, et la chaîne du traitement de l’information couleur par les capteurs d’images modernes. Les deux premiers chapitres du manuscrit donnent les connaissances et méthodes liées à ces deux axes. Dans ce cadre, deux études ont été menées sur (i) la méthode de calcul de la matrice de correction des couleurs, et (ii) la prise en compte des variations individuelles de la vision des couleurs par l’humain. Ce travail de thèse vise à définir si l’un de ces deux aspects de la chaîne de la vision indirecte, souvent étudiés indépendamment l’un de l’autre, est à l’origine de trouble importants pour la fidélité colorimétrique. Pour répondre à cette problématique, deux études ont été réalisées: la première quantifie les erreurs résiduelles après l’application à une image de corrections calculées selon deux méthodes calculatoires (moindres carrés linéaires et régression polynomiale d’ordre 2). L’étude se penche en particulier sur deux types de scènes: celles qui présentent des particularités spectrales restreintes, et celles ne permettant pas l’utilisation de mires de calibration. Les résultats sont issus de l’étude de deux capteurs d’images CMOS et sous illuminant D65. Ils indiquent en bon accord avec les études précédentes que pour des scènes contenant des couleurs de l’ensemble du domaine spectral visible, le nombre de patches utilisés pour le calcul de la matrice de correction des couleurs (CCM) peut être réduit en dessous de 24 (mire ColorChecker® X-rite). Concernant les scènes présentant des particularités spectrales, des corrections teintes-spécifiques ont été appliquées à partir de la mire Next Generation Target (NGT). Les résultats suggèrent de compléter l’étude par d’autres méthodes de sélection des teintes pour le calcul de CCM. Dans les applications qui ne permettent pas l’utilisation de mires de calibration, une méthode de caractérisation par imageur multispectral 6-bandes (déjà disponible sur de nombreuses applications spatiales) est étudiée. Elle présente des résultats acceptables sur la caractérisation de la mire ColorChecker® X-rite qui présente des réflectances qui varient de manière très progressive sur le domaine du visible. La deuxième étude quantifie les différences qui peuvent être engendrées par les variations individuelles de la vision humaine, dernier élément de la chaine de la vision indirecte. Les résultats issus de données en accès-libre dans la littérature, montrent que pour certaines teintes les différences de vision des couleurs peuvent s’avérer très critiques et suggèrent le développement de méthodes d’individualisation des images. Une revue est ensuite faite concernant les leviers technologiques utilisés pour le développement d’une expérience d’égalisation visant à mesurer la sensibilité spectrale d’individus soumis à ce contexte d’exigences colorimétriques importantes. Une discussion est alors ouverte concernant le développement de nouvelles expériences d’égalisations, proposant des alternatives pratiques issues des travaux de la littérature très récente.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 07-03-2022
Dewitte Hugo
Voir le résumé
Voir le résumé
L’électronique est aujourd’hui un outil central et essentiel dans notre société. Il a investi les objets du quotidien, et nous l’utilisons directement ou indirectement des dizaines de fois chaque jour sans même nous en rendre compte. Depuis l'introduction du transistor tel qu’on le connaît à la fin des années 40, l'électronique n'a cessé de s'améliorer et de se spécialiser pour devenir plus efficaces dans chaque application. Aujourd’hui, leurs formes la plus rependue est sans conteste la technologie MOS.C’est donc tout naturellement que l’on retrouve des circuits électroniques MOS dans les applications spatiales et nucléaires, où ils remplissent une multitude de fonctions essentielles. Ces environnements ont cependant une particularité importante : ils sont chargés en radiations, ce qui a pour effet de dégrader les composants électroniques. Ces dégradations sont d'autant plus problématiques que les circuits exposés à de tels environnements sont généralement censés fournir d’excellentes performances et garantir une haute fiabilité. Pour assurer un bon fonctionnement de ces circuits, il est donc nécessaire d’étudier les effets de ces milieux radiatifs sur les performances de l’électronique MOS.De plus, et c’est la motivation de cette thèse, ces applications en milieux radiatifs sont en plein essor. Non seulement la demande pour ce genre de circuits augmente, mais la dose maximale de radiations reçue par l’électronique sur sa durée de vie devrait dépasser des niveaux inédits. Ces nouvelles doses et leurs effets sur l’électronique sont encore peu investigués, et l’étude de ces effets est donc primordiale pour permettre l’utilisation future de l’électronique dans ces milieux, que ce soit dans le nucléaire, le spatial ou ailleurs.En particulier, cette thèse étudie les effets des hautes doses de radiation ionisante sur des transistors MOS (MOSFETs) à destination de circuits analogiques, circuits qui s’avèrent être souvent plus exposés que les autres. Tout cela dans le but de, d’un côté, être capable de mieux anticiper ces effets et, d’un autre, pouvoir les contrecarrer quand cela est possible.La thèse traite d’abord de la dégradation durant des irradiations des paramètres des MOSFETs tel que le courant maximum, la tension de seuil ou le courant de fuite. Les effets de la tension, de l’épaisseur des oxydes, du design et de la taille du transistor y sont en particulier approfondis. Les résultats mettent en avant le fort rôle des tensions pendant les irradiations sur le type de défaut créés, en particulier dans la grille, ainsi que l'apparition d’un effet de canal court (RISCE) dans un nœud technologique plus gros que dans ceux où il avait été observé auparavant. En plus, cette étude des paramètres des MOSFETs met en avant une importante augmentation du courant de génération après de hautes doses ionisantes dans les jonctions pn du transistor. S’en suit une étude approfondie de ce courant.Dans un second temps, la thèse étudie le phénomène de RTS (Random Telegraph Signal) dans ce courant de fuite de jonction des transistors. Pour cela, une structure de test capable de mesurer en parallèle des dizaines de milliers de courants de fuite est introduite. Grâce à celle-ci, le RTS est étudié de manière statistique avant et après irradiations. Les résultats, en accord avec des simulations à l’échelle atomique, soutiennent l’hypothèse de défauts métastables comme origine du phénomène RTS dans les fuites de jonctions.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 18-02-2022
Aguirre Miguel Angel
Voir le résumé
Voir le résumé
Ce travail présent le développement d’une formulation exergétique réduite au sillage, adaptée à l’analyse aérodynamique de configurations ayant un fort couplage aéro-propulsif. Cette formulation est basée sur le travail d’Arntz (formulation exergétique utilisant un plan de sondage de taille infinie qui est bien adaptée pour l’analyse des simulations aérodynamique computationnelles par CFD) et combinée avec des méthodes classiques de champ lointain afin de réduire la zone d’étude au sillage. L’intérêt de cette réduction de la zone d’étude est double : d’un part, cela autorise une validation expérimentale de l’étude aéro-propulsif. D’autre part, cette réduction au sillage offre une compréhension très puissante de la physique et permet aussi de décomposer tous les mécanismes de génération de pertes aérodynamique. Ainsi, cette décomposition permet d’établir une comptabilité des phénomènes aéro-propulsifs pour des configurations avion complexes, ayant un fort couplage, ce qui est très outil pour le design d’un avion.La deuxième partie de la thèse vise à récolter des donnés expérimentaux (essais en soufflerie) d’une configuration avion type multifan, ayant un très fort couplage aéro-propulsif. Une maquette simplifiée de cet avion a été testée, tout en réalisant des mesures de sillage par PIV et sonde cinq trous, ainsi que des mesures de balance. Cette base de données a été utilisée pour valider expérimentalement la nouvelle formulation exergétique. Aussi, elle a été utilisé pour établir une modèle aéro-propulsif en utilisant une analyse aérodynamique classique, suivi d’une analyse exergétique complémentaire qui a fourni information de design très outil et qu’aucune méthode existante permet de le faire.
|
Texte intégral
|
|