Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace, Instituto Tecnológico de Aeronáutica (ITA)
/ 11-10-2022
Panasiewicz Jognes
Voir le résumé
Voir le résumé
Dans le contexte des systèmes de télécommunication, la technologie photonique est apparue pour répondre à la demande de bande passante. Elle a depuis fait l'objet de recherches croissantes et a été incorporée dans des systèmes destinés au spatial. Grâce à cette technologie, il est possible d'ajouter de nouvelles fonctionnalités aux équipements traditionnels de communication par radiofréquence ou de les utiliser dans des terminaux laser pour la communication optique en espace libre. Ce travail de recherche porte sur l'utilisation de la technologie photonique dans le sous-système de communication par satellite. Il se concentre donc sur un sous-système utilisant les communications par radiofréquence (RF) et un autre utilisant les communications optiques en espace libre (FSO) pour un satellite fonctionnant sur une orbite terrestre basse (LEO). Le modulateur vectoriel micro-ondes basé sur la technologie photonique a été présenté et discuté pour le sous-système utilisant les communications RF afin de remplacer l'étage de modulation traditionnel d'une charge utile de transmission. Ce modulateur photonique utilise un arrangement de modulateur électro-optique Mach-Zehnder (MZM) pour mettre en œuvre la modulation numérique de la porteuse micro-onde. La dérive dans le temps de la polarisation en tension continue du MZM, entraînant une dégradation de la qualité du signal modulé, une solution innovante pour un contrôle automatique de la polarisation (ABC) a été proposée. Contrairement aux méthodes rapportées jusqu'à présent dans la littérature, ce contrôle automatique de la polarisation est basé sur l'analyse des signaux I/Q afin de générer des étapes de tension pour la polarisation du modulateur photonique. En tenant compte du fait que la liaison satellite fonctionne généralement dans les bandes S et X pour la transmission (TT&C) et la transmission d'images avec des schémas de modulation QPSK, 8PSK et 16QAM, l'ABC a été évalué par une technique de co-simulation. En conséquence, l'ABC a corrigé les trois schémas en quelques étapes. Pour le système FSO, une boucle à verrouillage de phase optique (OPLL) a été étudiée pour récupérer les données d'un signal optique modulé numériquement dans un récepteur à détection cohérente. Contrairement aux OPLL analogiques traditionnelles, une OPLL entièrement numérique a été mise en œuvre et soutenue par une technique de co-simulation. La motivation première était la possibilité d'utiliser un détecteur de phase numérique à la place du détecteur analogique pour fournir une erreur de phase. De plus, la caractéristique de gain du détecteur de phase numérique, indépendante du niveau du signal d'entrée, lui permet d'être utilisé dans des régimes d'évanouissement. L'OPLL numérique a été évaluée à l'aide de taux d'échantillonnage doubles sous un bruit gaussien additif et trois scénarios de turbulence atmosphérique qui induit un évanouissement de puissance sur le signal optique transmis. De plus, la propagation d'un signal optique modulé numériquement dans une trajectoire oblique de satellite LEO a été considérée avec un débit binaire de 20 Gbits/s et un schéma de modulation QPSK. Il a été démontré que les détecteurs de phase analogiques traditionnels ne sont pas adaptés aux systèmes en régime d'évanouissement. Par conséquent, le détecteur de phase numérique s'est avéré être une alternative à la mise en œuvre d'OPLL pour le récepteur de systèmes FSO utilisant la détection cohérente. Ansi, la technologie photonique a été analysée pour améliorer les charges utiles de satellites et augmenter la bande passante de futurs liens optiques de communications.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 19-04-2022
Constans Yohann
Voir le résumé
Voir le résumé
Les capteurs satellitaires ne pouvant acquérir des images d'observation de la Terre à hautes résolutions spatiale et spectrale, une solution consiste à combiner une image panchromatique (PAN) à haute résolution spatiale avec une image hyperspectrale (HS) à haute résolution spectrale, pour générer une nouvelle image hautement résolue spatialement et spectralement. Ce procédé de fusion, appelé pansharpening HS, présente toutefois certaines limitations, parmi lesquelles la gestion des pixels HS mixtes, particulièrement présents en milieu urbain.Cette thèse a pour objectif de développer et valider une nouvelle méthode de pansharpening HS dans le domaine réflectif [0,4 - 2,5 µm] optimisant la reconstruction des pixels mixtes. Pour ce faire, une méthode de la littérature appelée Spatially Organized Spectral Unmixing (SOSU) a été choisie comme point de départ. Elle est basée sur des étapes de prétraitement de démélange spectral et de réorganisation spatiale des pixels mixtes, et une étape de fusion appelée Gain.Afin d'évaluer les méthodes de fusion, des jeux de données simulés présentant plusieurs niveaux de complexité spatiale et acquis par différents instruments ont été construits à partir de données aéroportées existantes. D'autre part, un protocole robuste d'évaluation de performances a été proposé. Il est basé sur le protocole de Wald et l'application de critères de qualité à différentes échelles spatiales et sur différents domaines spectraux, et il est complété par un produit à valeur ajoutée (cartes d'occupation des sols par classification supervisée).Des améliorations ont été apportées à SOSU pour l'adapter progressivement à des scènes de complexité spatiale élevée. Une nouvelle approche de réorganisation spatiale par analyse combinatoire a été proposée pour le traitement des milieux agricoles à péri-urbains. Des améliorations supplémentaires ont été apportées pour le traitement des milieux urbains, en modélisant notamment l'analyse combinatoire comme un problème d'optimisation, et ont conduit à la méthode Combinatorial OptimisatioN for 2D ORganisation (CONDOR). Les performances de cette méthode ont été évaluées et comparées à celles de méthodes de référence. Elles ont révélé des améliorations visuelles et numériques de la qualité de la reconstruction, et ont montré que la limitation la plus importante provient de la non-représentation du domaine SWIR [1,0 - 2,5 µm] dans l'image PAN en entrée de la fusion.Un nouveau choix d'instrumentation, reposant sur l'utilisation d'une seconde voie PAN dans le domaine SWIR II [2,0 - 2,5 µm], a ainsi été introduit pour dépasser cette limitation. Les méthodes Gain-2P et CONDOR-2P, extensions des méthodes Gain et CONDOR prenant en compte cette seconde voie PAN, ont été développées. L'analyse des résultats a révélé l'apport conséquent de ces deux méthodes étendues (jusqu'à 60 % et 45 % d'amélioration par rapport à leurs versions initiales sur des données respectivement péri-urbaines et urbaines), ainsi que l'amélioration de la qualité de l'image fusionnée avec CONDOR-2P par rapport à Gain-2P (jusqu'à 9 % d'amélioration).Enfin, une étude de sensibilité a été menée afin d'évaluer la robustesse des méthodes proposées vis-à-vis des défauts et caractéristiques instrumentaux (rapport de résolutions spatiales, déregistration, bruit et fonction de transfert de modulation), en choisissant des configurations représentatives des instruments satellitaires existants. Malgré la sensibilité de l'ensemble des méthodes aux différents paramètres, les analyses ont montré que CONDOR-2P obtient quasi-systématiquement la meilleure qualité de reconstruction, et se révèle particulièrement robuste vis-à-vis de l'augmentation du rapport de résolutions spatiales (10 % d'amélioration par rapport à Gain-2P pour une valeur de 8 en milieu péri-urbain).
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 08-03-2022
Robert Emilie
Voir le résumé
Voir le résumé
Les images de notre quotidien du 21ème siècle sont acquises et visionnées en couleur. Nos télévisions, nos téléphones et ordinateurs, tous permettent une vision indirecte, de la scène à l’œil en passant par un système de d’acquisition et une système d’affichage, avec l’illusion d’une concordance optimale avec la vision directe (de la scène à l’œil) que nous portons au monde qui nous entoure. Pour certaines applications d’imagerie extrêmement exigeantes en termes de colorimétrie, telles que : l’industrie du cinéma, la surveillance, l’industrie du textile ou bien encore l’exploration spatiale, cette illusion est régulièrement altérée par les conditions extrêmes d’acquisition rencontrées. L’objectif de cette thèse est de définir des méthodes pour la reproduction d’images numériques de très haute qualité colorimétrique. Deux axes de recherche principaux sont considérés: la sensibilité spectrale de l’œil humain, et la chaîne du traitement de l’information couleur par les capteurs d’images modernes. Les deux premiers chapitres du manuscrit donnent les connaissances et méthodes liées à ces deux axes. Dans ce cadre, deux études ont été menées sur (i) la méthode de calcul de la matrice de correction des couleurs, et (ii) la prise en compte des variations individuelles de la vision des couleurs par l’humain. Ce travail de thèse vise à définir si l’un de ces deux aspects de la chaîne de la vision indirecte, souvent étudiés indépendamment l’un de l’autre, est à l’origine de trouble importants pour la fidélité colorimétrique. Pour répondre à cette problématique, deux études ont été réalisées: la première quantifie les erreurs résiduelles après l’application à une image de corrections calculées selon deux méthodes calculatoires (moindres carrés linéaires et régression polynomiale d’ordre 2). L’étude se penche en particulier sur deux types de scènes: celles qui présentent des particularités spectrales restreintes, et celles ne permettant pas l’utilisation de mires de calibration. Les résultats sont issus de l’étude de deux capteurs d’images CMOS et sous illuminant D65. Ils indiquent en bon accord avec les études précédentes que pour des scènes contenant des couleurs de l’ensemble du domaine spectral visible, le nombre de patches utilisés pour le calcul de la matrice de correction des couleurs (CCM) peut être réduit en dessous de 24 (mire ColorChecker® X-rite). Concernant les scènes présentant des particularités spectrales, des corrections teintes-spécifiques ont été appliquées à partir de la mire Next Generation Target (NGT). Les résultats suggèrent de compléter l’étude par d’autres méthodes de sélection des teintes pour le calcul de CCM. Dans les applications qui ne permettent pas l’utilisation de mires de calibration, une méthode de caractérisation par imageur multispectral 6-bandes (déjà disponible sur de nombreuses applications spatiales) est étudiée. Elle présente des résultats acceptables sur la caractérisation de la mire ColorChecker® X-rite qui présente des réflectances qui varient de manière très progressive sur le domaine du visible. La deuxième étude quantifie les différences qui peuvent être engendrées par les variations individuelles de la vision humaine, dernier élément de la chaine de la vision indirecte. Les résultats issus de données en accès-libre dans la littérature, montrent que pour certaines teintes les différences de vision des couleurs peuvent s’avérer très critiques et suggèrent le développement de méthodes d’individualisation des images. Une revue est ensuite faite concernant les leviers technologiques utilisés pour le développement d’une expérience d’égalisation visant à mesurer la sensibilité spectrale d’individus soumis à ce contexte d’exigences colorimétriques importantes. Une discussion est alors ouverte concernant le développement de nouvelles expériences d’égalisations, proposant des alternatives pratiques issues des travaux de la littérature très récente.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 07-03-2022
Dewitte Hugo
Voir le résumé
Voir le résumé
L’électronique est aujourd’hui un outil central et essentiel dans notre société. Il a investi les objets du quotidien, et nous l’utilisons directement ou indirectement des dizaines de fois chaque jour sans même nous en rendre compte. Depuis l'introduction du transistor tel qu’on le connaît à la fin des années 40, l'électronique n'a cessé de s'améliorer et de se spécialiser pour devenir plus efficaces dans chaque application. Aujourd’hui, leurs formes la plus rependue est sans conteste la technologie MOS.C’est donc tout naturellement que l’on retrouve des circuits électroniques MOS dans les applications spatiales et nucléaires, où ils remplissent une multitude de fonctions essentielles. Ces environnements ont cependant une particularité importante : ils sont chargés en radiations, ce qui a pour effet de dégrader les composants électroniques. Ces dégradations sont d'autant plus problématiques que les circuits exposés à de tels environnements sont généralement censés fournir d’excellentes performances et garantir une haute fiabilité. Pour assurer un bon fonctionnement de ces circuits, il est donc nécessaire d’étudier les effets de ces milieux radiatifs sur les performances de l’électronique MOS.De plus, et c’est la motivation de cette thèse, ces applications en milieux radiatifs sont en plein essor. Non seulement la demande pour ce genre de circuits augmente, mais la dose maximale de radiations reçue par l’électronique sur sa durée de vie devrait dépasser des niveaux inédits. Ces nouvelles doses et leurs effets sur l’électronique sont encore peu investigués, et l’étude de ces effets est donc primordiale pour permettre l’utilisation future de l’électronique dans ces milieux, que ce soit dans le nucléaire, le spatial ou ailleurs.En particulier, cette thèse étudie les effets des hautes doses de radiation ionisante sur des transistors MOS (MOSFETs) à destination de circuits analogiques, circuits qui s’avèrent être souvent plus exposés que les autres. Tout cela dans le but de, d’un côté, être capable de mieux anticiper ces effets et, d’un autre, pouvoir les contrecarrer quand cela est possible.La thèse traite d’abord de la dégradation durant des irradiations des paramètres des MOSFETs tel que le courant maximum, la tension de seuil ou le courant de fuite. Les effets de la tension, de l’épaisseur des oxydes, du design et de la taille du transistor y sont en particulier approfondis. Les résultats mettent en avant le fort rôle des tensions pendant les irradiations sur le type de défaut créés, en particulier dans la grille, ainsi que l'apparition d’un effet de canal court (RISCE) dans un nœud technologique plus gros que dans ceux où il avait été observé auparavant. En plus, cette étude des paramètres des MOSFETs met en avant une importante augmentation du courant de génération après de hautes doses ionisantes dans les jonctions pn du transistor. S’en suit une étude approfondie de ce courant.Dans un second temps, la thèse étudie le phénomène de RTS (Random Telegraph Signal) dans ce courant de fuite de jonction des transistors. Pour cela, une structure de test capable de mesurer en parallèle des dizaines de milliers de courants de fuite est introduite. Grâce à celle-ci, le RTS est étudié de manière statistique avant et après irradiations. Les résultats, en accord avec des simulations à l’échelle atomique, soutiennent l’hypothèse de défauts métastables comme origine du phénomène RTS dans les fuites de jonctions.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-03-2022
Monnin Loanne
Voir le résumé
Voir le résumé
Les décharges électrostatiques (ESD) sont dues aux interactions entre le panneau solaire et l'environnement spatial. Majoritairement bénignes pour le satellite, elles peuvent cependant mener à la création d'un arc secondaire qui court-circuite une partie du générateur solaire. L'arc secondaire se déclenche dans un plasma de décharge appelé flash-over créé par l'ESD. En effet, le flash-over constitue le milieu conducteur idéal à l'apparition d’un arc. Cette thèse présente un modèle physique de la génération et de la propagation du flash-over. Ce modèle doit permettre d'identifier les situations propices au passage à l'arc. L'étude de la propagation du flash-over se fait en deux parties. Dans un premier temps, un modèle de spot cathodique est construit. Il s'agit du point d'émission du plasma, le modèle fourni les caractéristiques physiques du flash-over (température, densité, etc.). Il est adapté pour correspondre parfaitement à l'étude du flash-over, notamment en ce qui concerne la géométrie du système et l'influence de l'environnement spatial. La deuxième partie de l'étude porte sur le couplage entre le modèle de spot et un modèle d'expansion d'un plasma dans le vide. Le modèle ainsi obtenu prédit l'évolution du flash-over à la surface d'un panneau solaire. Il fournit notamment une durée maximale de la décharge et la température du plasma. Les résultats obtenus sont comparés avec des mesures expérimentales effectuées sur des panneaux entiers. Le modèle présenté dans ce manuscrit est un socle robuste, validé expérimentalement, qui permet d'expliquer le phénomène de flash-over et sa propagation à la surface du panneau solaire. Des premières pistes d'améliorations ont été étudiées et sont présentées afin de rendre compte des possibilités offertes par le modèle.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 15-02-2022
Erdmann Simon
Voir le résumé
Voir le résumé
Supposons qu'on image en transmission ou en rétrodiffusion un milieu éclairé en lumière cohérente. Supposons également que ce milieu est tel que la phase du champ rétrodiffusé apparaît en tout point comme aléatoire. On obtient alors un motif également aléatoire constitué de grains: du speckle.Si, de plus, le milieu varie au cours du temps, le signal de speckle fluctue également. Imager certaines statistiques temporelles du signal peut alors permettre d'imager le mouvement: c'est l'objet de l'imagerie de speckle dynamique. Ses applications sont nombreuses : étude de suspensions colloïdales, de séchage de peinture, imagerie médicale. Elle s'appuie souvent sur l'autocorrélation temporelle du signal: la forme de cette dernière renseigne sur le type de mouvement, et son temps caractéristique de décroissance est lié à la vitesse de fluctuation du milieu.Cependant, faute de caméras suffisamment rapides, il a longtemps été impossible d'accéder directement à l'autocorrélation temporelle des signaux rencontrés expérimentalement. L'accès aux caractéristiques du mouvement n'était donc possible que via des méthodes indirectes, comme le contraste, assez imprécises et qualitatives. Toutefois, ces dernières années, la diffusion de plus en plus large de caméras haute cadence (jusqu'à plusieurs dizaines de kHz), a changé la donne. La voie s'est ainsi ouverte à un raffinement considérable des modèles et à des gains importants en précision et en rapidité de traitement.Une telle caméra a été utilisée dans le cadre de ces travaux de thèse. Elle a permis d'imager la vascularisation sous-cutanée sur des zones variées du corps humain. On a ainsi pu évaluer la pertinence de plusieurs paramètres pour imager qualitativement le mouvement: l'efficacité du premier terme de la fonction d'autocorrélation, par exemple, a été mise en évidence. Dans le même temps, on a aussi pu constater certaines limites du speckle dynamique que la très haute cadence ne permettait pas de lever. Ainsi, au-delà d'un certain seuil, augmenter la cadence n'apporte plus d'information, tandis que l'hypothèse de stationnarité du signal est ébranlée par les effets de la pulsation cardiaque. Ces limites ne remettent pas en question l'apport considérable de la haute cadence, mais illustrent à quel point il s'agit d'un changement de paradigme.Pour en prendre la pleine mesure et exploiter au maximum le gain en résolution temporelle permis par les caméras rapides, il est nécessaire, en parallèle des études expérimentales, d'affiner les modèles existants. C'est dans cette optique qu'un travail de modélisation et de simulation du système d'imagerie a été mené. Notre but était de relier le plus précisément possible un type de dynamique du milieu aux statistiques du signal obtenu. Ainsi, il a été possible de redémontrer rigoureusement et de nuancer des résultats tenus pour phénoménologiques dans la littérature, tels que certains modèles d'autocorrélation temporelle. Ces résultats fondent la possibilité, à terme, de remonter à des grandeurs physiques fiables à partir d'un signal de speckle dynamique.Enfin, comme les modèles inverses de speckle dynamique s'appuient sur des statistiques parfois complexes sur les signaux, il convient de s'assurer que celles-ci ne sont pas altérées par des traitements tiers. En particulier, beaucoup d'opérations de traitement du signal, notamment de rééchantillonnage (sur-échantillonnage, sous-échantillonnage, recalage) sont effectuées sans conscience des effets considérables qu'elles peuvent avoir sur les statistiques du signal. Un troisième axe de ces travaux a donc consisté à caractériser ces effets en fonction des méthodes utilisées. Il a par exemple été établi qu'un filtre passe-bas (préalable à un sous-échantillonnage) tend à générer d'autant plus de corrélation longue distance qu'il est resserré en fréquence --- et donc qu'il permet d'éviter l'aliasing. Le même type de résultat a été établi avec les méthodes d'interpolation.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 02-02-2022
Laffont Adrien
Voir le résumé
Voir le résumé
Gaz ionisés composés d’électrons, d’ions et de neutres, les décharges plasmas ont déjà démontré leur potentialité pour le développement de systèmes radiofréquences et micro-ondes. Plus particulièrement, le contrôle de la densité électronique et l’aspect allumage/extinction (mode ON/OFF) des décharges plasmas suscitent un intérêt croissant pour le développement d’antennes furtives reconfigurables en fréquence et/ou en diagramme de rayonnement. Ces antennes exploitent principalement deux comportements électromagnétiques des décharges plasmas, le comportement électrique, pour lequel la partie réelle de la permittivité relative du plasma est grandement négative, et le comportement diélectrique lorsque cette dernière est comprise entre 0 et 1.Récemment, un nouveau type d’antenne plasma miniature a été proposé et expérimentalement étudié en bande VHF [1]. Dans son utilisation, le plasma ne se comporte ni comme un bon conducteur électrique, ni comme un matériau diélectrique, mais comme un mauvais conducteur aussi appelé matériau ENG (Epsilon NéGatif). L’antenne consiste alors en un monopole miniature couplé à un résonateur ENG hémisphérique de dimension sub-longueur d’onde obtenu grâce à une décharge plasma. Les travaux présentés dans [1], issus d’une précédente thèse [2], permirent de mettre en évidence un phénomène de résonance associé à un rayonnement électromagnétique de l’antenne plasma miniature. La reconfigurabilité en fréquence de l’antenne a également été observée en modifiant la puissance électromagnétique communiquée au plasma et donc sa densité électronique.Dans ces travaux de thèse, nous poursuivons le développement de cette antenne plasma miniature. Plus spécifiquement, ce travail de recherche a pour but de :
• comprendre le phénomène physique opérant au sein du plasma à l’origine du rayonnement électromagnétique de l’antenne plasma miniature
• mettre en œuvre des dispositifs de mesure pour évaluer ses performances antennaires,
• étudier expérimentalement les propriétés potentielles de durcissement électromagnétique de l’antenne
• proposer une modélisation numérique de cette antenne non-standard.Au cours de cette thèse, les différents travaux de recherche ayant été menés afin de répondre aux objectifs sont :
• un état de l’art sur les antennes à plasma
• le développement d’un modèle analytique afin de proposer une description phénoménologique de la résonance plasmonique, phénomène physique à l’origine du rayonnement électromagnétique de l’antenne
• l’élaboration de dispositifs de mesure dédiés à la caractérisation des propriétés de cette antenne
• la mesure des performances de l’antenne plasma miniature ainsi que la mise en évidence expérimentale de ses propriétés de durcissement électromagnétique
• la mise en œuvre d’une stratégie pour modéliser numériquement cette antenne plasma miniature
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 07-10-2021
Miraglio Thomas
Voir le résumé
Voir le résumé
Les pressions climatiques et anthropiques croissantes font des écorégions méditerranéennes, des réservoirs exceptionnels de biodiversité, certains des écosystèmes les plus menacés. Les méthodes de télédétection aéroportée et satellitaire, qui peuvent permettre d'obtenir des estimations sur de vastes étendues de façon régulière, sont particulièrement adaptée aux futurs efforts globaux de suivi de la biodiversité végétale. Cependant, de nombreuses difficultés survienne quand les écosystèmes imagés sont composés de canopées ouvertes, particulièrement présentes dans les régions au climat méditerranéen. Cette thèse a pour objectif de développer des méthodes d'estimation de traits de végétation de canopées ouvertes, quand les connaissances terrains sont insuffisantes pour directement calibrer des modèles de régression. Initialement, des images aéroportées acquises avec un GSD de 18 m ont été utilisées. En utilisant le modèle DART, une modélisation simplifiée des forêts, avec des couronnes ellipsoïdales et un sol plat lambertien, a été démontrée suffisante pour réaliser des estimation de LAI et de contenus en pigments foliaires par méthode physique. Ensuite, des travaux exploratoires ont été menés pour identifier une méthode permettant d'estimer EWT et LMA de façon satisfaisante, tout d'abord en considérant des raffinements dans les pas d'échantillonnages utilisés pour générer les bases de données, puis en évaluant l'influence de la modélisation en 3D au sein de DART sur les propriétés radiatives des arbres. Enfin, les différents résultats ont été utilisés pour estimer plusieurs traits de végétation (fraction de trous, contenus foliaires en chlorophylles et caroténoïdes, EWT, LMA) à partir d'images hyperspectrales satellitaires synthétiques ayant des GSD de 8 m et 30 m en utilisant un méthode hybride. Cette thèse a démontré que les méthodes physiques et hybrides étaient adéquates pour l'estimation de plusieurs traits de végétation à partir d'images hyperspectrales satellitaires ayant des GSD de 8 à 30 m dans un contexte opérationnel, n'utilisant que peu ou pas de connaissances a priori. Pour consolider les résultats, de plus amples travaux sont nécessaires pour tester ces méthodes sur différents écosystèmes qui présenteraient plus de diversité, et pour d'autres traits de végétation. De plus, identifier des méthodes d'estimation pour les périodes où le sous-bois est photosynthétiquement actif serait nécessaire pour suivre les forêts tout au long du cycle phénologique annuel.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 23-06-2021
Doyen Célestin
Voir le résumé
Voir le résumé
Dans un contexte très concurrentiel et riche d’innovations, il est crucial de pouvoir évaluer les performances des capteurs de manières précises. Pour ce faire deux supports de caractérisation sont envisageables : le capteur complet ou les structures de test. Sur le capteur complet sont extraits des paramètres dans un environnement et des conditions proches de l’application. Les structures de test, elles, permettent de ne s’intéresser qu’à une zone spécifique d’un pixel et de pouvoir étudier les phénomènes physiques en jeu et dissocier les différentes contributions possibles à un paramètre pixel étudié. Une meilleure compréhension de ce même paramètre extrait sur capteur complet est alors possible. De plus elles facilitent l’étude de différents essais de procédés en début de développement. Les travaux de cette thèse proposent de nouvelles méthodologies de mesure et de caractérisation de paramètres sur structures de test complémentaires à ce qui se fait sur un capteur complet. Dans ce manuscrit sont développées notamment de nouvelles structures de test afin d’étudier la contribution de l’interface arrière de pixels BSI au courant d’obscurité. Une nouvelle méthode d’extraction de potentiels est également présentée et permet l’extraction d’une multitude de potentiels d’intérêts présents dans les pixels. Enfin une nouvelle méthode d’extraction de la charge à saturation sur structures de test est proposée.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 21-01-2021
Pace Federico
Voir le résumé
Voir le résumé
L’imagerie à haute-vitesse sans distorsions spatiales est devenue cruciale pour une large gamme d’applications comme la vision industrielle, la reconnaissance du mouvement et l’imagerie de la Terre depuis l’espace. La technologie d’imagerie CMOS a donc évolué vers une modalité de prise de vue appelée « snapshot », grâce au développement des Capteurs d’Image à Obturation Globale. Néanmoins, ce type d’imageurs présente une dégradation des performances due à une sensibilité à la lumière parasite non-négligeable du Nœud de Stockage, qui en limite l’exploitation. Bien que beaucoup de travaux aient été consacrés à la réduction de la Sensibilité à la Lumière Parasite, il existe des interrogations et des manquements relatifs à la caractérisation et la modélisation de cette figure de mérite.Ces travaux s’intéressent au développement d’un cadre pour la modélisation, la caractérisation et l’atténuation de la Sensibilité à la Lumière Parasite dans les imageurs CMOS à Obturation Globale.Le cadre se base sur le développement d’une métrique pour la caractérisation, d’une méthode de simulation et de différentes méthodes de correction en post-traitement dans le but de faire émerger des recommandations pour la conception et d'augmenter les performances des imageurs de manière efficace et peu coûteuse.
|
Texte intégral
|
|