Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 09-12-2022
Planès Thomas
Voir le résumé
Voir le résumé
Le transport aérien est à ce jour responsable de 2 à 3 % des émissions mondiales de CO2, ainsi que d'autres impacts climatiques et environnementaux. Les nouveaux concepts d'architectures pouvant contribuer à la réduction de l’impact environnemental de l'aviation suscitent donc un grand intérêt. L’objectif de cette thèse est de contribuer au développement d’une approche holistique, allant de la modélisation et du dimensionnement de nouvelles architectures avion à la simulation de scénarios prospectifs durables pour le transport aérien. Cette approche permet ainsi de relier les enjeux de la conception avion à ceux de l’analyse de scénarios prospectifs pour l’aviation.Dans une première partie, des modèles d'estimation pour différents systèmes avion sont présentés dans le cadre d’un avion plus électrique. Des méthodes variées sont appliquées, par exemple basées sur l’utilisation de modèles énergétiques ou de modèles de régression. Les systèmes de conditionnement d’air et de protection contre le givre sont étudiés, tout comme les systèmes induits par l’électrification des avions (génération et distribution de puissance électrique, management thermique).Dans une deuxième partie, une architecture avion déployable à court terme est dimensionnée à travers une approche basée sur l’utilisation de la plateforme de conception avion FAST-OAD. Cette architecture intègre les systèmes décrits précédemment, dont les performances sont préalablement évaluées individuellement via des modèles spécifiques, ainsi que des améliorations propulsives et aéro-structurelles. Les caractéristiques de l'architecture complète sont alors analysées, notamment concernant ses impacts environnementaux à partir d'un module d'analyse de cycle de vie développé pour FAST-OAD.Dans une dernière partie, l'outil CAST développé dans cette thèse est présenté. Il permet de simuler et d'évaluer des scénarios prospectifs pour le transport aérien. Des modèles sont détaillés pour les différents leviers d’action permettant de réduire l'impact environnemental du transport aérien. Une attention particulière est portée sur l’introduction d’architectures plus efficaces dans la flotte. Pour évaluer la durabilité des scénarios, des méthodologies spécifiques sont proposées pour les enjeux climatiques et énergétiques, en s'appuyant par exemple sur la notion de budget carbone. Plusieurs applications montrent alors le bénéfice des nouvelles technologies mais aussi le besoin d’un arbitrage entre le niveau de trafic aérien et la part du budget carbone mondial allouée au secteur aérien.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 28-11-2022
Palanque Valerian
Voir le résumé
Voir le résumé
L'accumulation de glace sur les avions est un problème bien identifié depuis le début des années 1900. Les solutions actuellement utilisées en vol (soufflage d'air chaud provenant des moteurs, tapis chauffants électrothermiques, boudins pneumatiques gonflables, bobines électromagnétiques) offrent une protection efficace mais nécessitent une puissance ou un besoin en maintenance important. De plus, dans le cadre d’avions plus électriques, les systèmes dépendant des moteurs thermiques sont susceptibles de devenir obsolètes, ouvrant ainsi la voie à de nouveaux systèmes électriques. Les systèmes de dégivrage électromécaniques se sont récemment avérés pertinents en termes de consommation d'énergie et de masse embarquée, ce qui explique le travail poursuivi dans cette thèse pour développer ce système.Cette thèse se concentre sur la conception de systèmes de dégivrage électromécaniques résonants basés sur de nouvelles structures ou architectures d'actionneurs. Le système de dégivrage électromécanique résonant étudié est basé sur des actionneurs piézoélectriques. Alimentés par un courant alternatif, les céramiques piézoélectriques vibrent en excitant la structure à une fréquence donnée. Lorsqu'elle correspond à une des fréquences naturelles de la structure, l'amplitude des vibrations augmente grâce au phénomène de résonance, générant des niveaux élevés de contraintes et de déformations, dépassant finalement la résistance mécanique de la glace. L'objectif est de développer un prototype qui pourrait démontrer une protection efficace contre le givre pour une faible puissance absorbée (moins de 10 kW/m²).Afin de concevoir un système de dégivrage électromécanique résonnant efficace et peu consommateur, de nombreuse thématiques ont été étudiés et sont donc développés dans ce manuscrit de thèse.En se basant sur la mécanique des fractures, les mécanismes de fissuration et détachement de la glace sont étudiés. Tout d'abord, des simples échantillons plaques sont utilisés pour faciliter les calculs et les expériences. En utilisant l'analyse modale par éléments finis et les outils d'analyse de fracture, les différents mécanismes de fracture de la glace sont identifiés et les conditions de déclenchement définies. Les mécanismes théoriques supposés sont confirmés par des vérifications expérimentales. Sur la base de ces connaissances, une campagne hybride numérique/expérimentale est menée pour mesurer avec précision les propriétés mécaniques de la glace atmosphérique. Enfin, les mécanismes de fissuration identifiés sont améliorés par le développement et l’utilisation d'un outil d'optimisation, modifiant la géométrie du substrat pour maximiser l'efficacité du dégivrage.Des applications plus réalistes sont ensuite étudiées. Tout d'abord, l'actionnement de la structure est amélioré en minimisant la durée du processus d’identification et d'excitation des modes. Ensuite, afin de faciliter la sélection des modes d'intérêt et l’identification des principales caractéristiques du système, des critères de conception sont définis en fonction de la puissance mécanique, de l'énergie ou de la force à fournir à la structure pour réaliser le dégivrage. En utilisant ces critères, les propriétés de la glace et les connaissances des mécanismes de fracture acquises grâce aux études préliminaires, un prototype NACA réaliste est usiné et instrumenté. Permettant ainsi d'effectuer des tests de vérification dans la soufflerie givrante de l'ICA.Enfin, les performances du prototype sont comparées aux systèmes existant de protection contre le givre. L'impact du système au niveau de l'avion est évalué en quantifiant la puissance requise, la traînée induite et la masse supplémentaire du système et de ses sous-systèmes. Cette approche permet de mettre en avant les avantages de la solution électromécanique développée dans cette thèse au niveau de la flotte aérienne.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 09-09-2022
Rudel Clément
Voir le résumé
Voir le résumé
Dans une optique de réduction du bruit engendré par les avions, de nombreux phénomènes restent encore à mieux comprendre et de nombreuses configurations sont à étudier. Un besoin en outils de simulation précis et efficaces se fait donc ressentir pour répondre à ces problématiques de propagation d'ondes. Une approche envisageable est celle des équations one-way. En effet, cette méthode permet de décomposer la résolution des équations en fonction du sens de propagation des ondes le long d'un axe. Ainsi, au sein d'un écoulement, cet axe est naturellement celui de l'écoulement principal. Cependant, l'application des équations one-way dans le cadre de la mécanique des fluides souffre d'une limitation majeure. La complexité des équations résolues (équations d'Euler ou de Navier-Stokes) impose une hypothèse d'écoulement faiblement variable, limitant de ce fait le domaine d'application d'une telle méthode. Le premier objectif a donc été de développer une reformulation de ces équations one-way, dans le but de pouvoir appliquer certaines méthodes permettant la levée d'une telle hypothèse. Pour cela, l'exploitation de deux conditions aux limites non-réfléchissantes a permis la construction d'une factorisation purement numérique de l'opérateur de propagation. A partir de cette méthode, il est ensuite possible d'appliquer des formalismes comme les équations one-way true amplitude ou les séries de Bremmer, permettant de prendre en compte les ondes réfractées et/ou réfléchies. Le second objectif a été de mettre à l'épreuve ces méthodes sur différentes applications. Ces dernières sont constituées d'écoulements variant le long de l'axe de propagation, de conduits à section variable ou partiellement traités acoustiquement (liners acoustiques) ou encore d'un jet chaud subsonique. Dans tous ces cas, les résultats fournis par les approches one-way montrent un bon accord avec les données expérimentales et avec différentes méthodes numériques plus coûteuses.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 10-06-2022
Faïsse Emmeline
Voir le résumé
Voir le résumé
La conception de la prochaine génération d’avions se doit d’être plus efficace dans sa consommation de carburant. Ces dernières années, la masse structurelle des ailes a été réduite grâce à l’usage de matériaux composites, entraînant une augmentation de leur flexibilité, et le rapport longueur/largeur des ailes a augmenté. Ces évolutions tendent à accroître le risque d’apparition du phénomène de flottement. Pour enrayer ce problème, des méthodes actives sont étudiées, et en particulier des lois de suppression active de flottement. Cette thèse de doctorat étudie donc deux sujets. Le premier est le développement d’une loi de contrôle actif du flottement pour un modèle d’avion de recherche. Le deuxième est l’application du co-design, soit l’optimisation simultanée de la structure et des lois de contrôle, pour un aile avec un dispositif de contrôle du flottement. Les méthodologies présentées sont testées sur un modèle aéroélastique à deux degrés de liberté puis implémentées sur un modèle d’avion complet. Le modèle 2D a été développé pour permettre l’élaboration de méthode de co-design pour les systèmes aéroélastiques. Les lois de suppression du flottement sont développées en utilisant une synthèse H∞ structurée.Les résultats montrent que, sur le modèle industriel, une augmentation de la vitesse de flutter de 11% est possible. L’architecture co-design imbriquée est utilisée afin d’optimiser simultanément la structure de l’aile et la loi de contrôle. L’utilisation du contrôle de flutter dans la boucle d’optimisation permet de réduire de 150 kg la masse structurelle par comparaison avec une optimisation structurelle avec une contrainte de flutter. Une étude est menée sur la formulation de la fonction objective de la boucle externe d’optimisation pour obtenir de meilleurs résultats, et elle permet de réduire la masse finale de la structure de 100 kg supplémentaires.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 23-05-2022
Ziri Sabrine
Voir le résumé
Voir le résumé
Bien que la fusion laser sur lit de poudre (LPBF) soit le procédé de fabrication additive le plus abouti aujourd’hui, peu de pièces industrielles sont fabriquées avec ce procédé. Le coût de fabrication et la taille des pièces limitent le champ d’action de cette technologie aux secteurs de l’énergie, de l’aérospatiale, et du biomédical. Ces industries imposent des exigences strictes (densité, tenue mécanique, état de surface,…) auxquelles doivent répondre les pièces. L’enjeu majeur du procédé LPBF est la maîtrise des propriétés dimensionnelles, mécaniques et métallurgiques des pièces. Ceci impose, d’une part, la compréhension du procédé et la maitrise des paramètres qui le gouvernent, et d’autre part, la quantification de l’impact des avaries de fabrication (état de surface, défauts, microstructures instables,…) sur les propriétés mécaniques et particulièrement la tenue en fatigue des pièces.L'objectif de cette thèse est de fournir une meilleure compréhension des mécanismes à l’origine de l'effet combiné des propriétés de la poudre et des paramètres du procédé sur les propriétés de l'acier inoxydable 316L élaboré par LPBF et d'étudier l’influence de ces propriétés résultantes sur le comportement mécanique et la tenue en fatigue. Différentes poudres et divers paramètres procédé sont considérés. Des poudres fines, standards et grosses sont utilisées pour tester la gamme complète des poudres commerciales disponibles pour le procédé LPBF. Une large gamme de paramètres procédé est utilisée pour couvrir les trois régimes de fusion identifiés dans la littérature : « manque de fusion », « Keyhole » et « conduction ». Une analyse complète de la densité des échantillons, de leur rugosité de surface et des contraintes résiduelles générées a été réalisée pour ces trois régimes. Les tailles des microstructures cellulaires/dendritiques sont estimées et sont corrélées avec les taux de refroidissement. Ces taux de refroidissement sont estimés en utilisant les champs de température prédits analytiquement et l'espacement des bras dendritiques déterminé expérimentalement. L'influence de la densité d'énergie et des propriétés des poudres sur les taux de refroidissement et l'espacement des bras dendritiques est étudiée. Une corrélation entre les modes de fusion, la densité d'énergie et les propriétés de la poudre est établie. Par conséquent, les poudres adéquates pour le procédé LPBF sont identifiées. L'étude des propriétés mécaniques est ensuite réalisée en utilisant ces poudres. De possibles relations entre les microstructures obtenues, les propriétés mécaniques statiques, les caractéristiques de la poudre et les paramètres du procédé sont recherchées. Enfin, les limites de fatigue des pièces presque denses produites dans les régions de conduction et de Keyhole sont étudiées à l'aide de deux approches. Tout d'abord, les limites de fatigue sont déterminées en utilisant la méthode d'auto-échauffement. Ensuite, des essais de fatigue à grand nombre de cycles sont réalisés. Enfin, les analyses fractographiques ont permis de déterminer les défauts critiques et les corréler avec les modes de fusion initiaux, les paramètres du procédé et les propriétés des poudres.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 19-04-2022
Constans Yohann
Voir le résumé
Voir le résumé
Les capteurs satellitaires ne pouvant acquérir des images d'observation de la Terre à hautes résolutions spatiale et spectrale, une solution consiste à combiner une image panchromatique (PAN) à haute résolution spatiale avec une image hyperspectrale (HS) à haute résolution spectrale, pour générer une nouvelle image hautement résolue spatialement et spectralement. Ce procédé de fusion, appelé pansharpening HS, présente toutefois certaines limitations, parmi lesquelles la gestion des pixels HS mixtes, particulièrement présents en milieu urbain.Cette thèse a pour objectif de développer et valider une nouvelle méthode de pansharpening HS dans le domaine réflectif [0,4 - 2,5 µm] optimisant la reconstruction des pixels mixtes. Pour ce faire, une méthode de la littérature appelée Spatially Organized Spectral Unmixing (SOSU) a été choisie comme point de départ. Elle est basée sur des étapes de prétraitement de démélange spectral et de réorganisation spatiale des pixels mixtes, et une étape de fusion appelée Gain.Afin d'évaluer les méthodes de fusion, des jeux de données simulés présentant plusieurs niveaux de complexité spatiale et acquis par différents instruments ont été construits à partir de données aéroportées existantes. D'autre part, un protocole robuste d'évaluation de performances a été proposé. Il est basé sur le protocole de Wald et l'application de critères de qualité à différentes échelles spatiales et sur différents domaines spectraux, et il est complété par un produit à valeur ajoutée (cartes d'occupation des sols par classification supervisée).Des améliorations ont été apportées à SOSU pour l'adapter progressivement à des scènes de complexité spatiale élevée. Une nouvelle approche de réorganisation spatiale par analyse combinatoire a été proposée pour le traitement des milieux agricoles à péri-urbains. Des améliorations supplémentaires ont été apportées pour le traitement des milieux urbains, en modélisant notamment l'analyse combinatoire comme un problème d'optimisation, et ont conduit à la méthode Combinatorial OptimisatioN for 2D ORganisation (CONDOR). Les performances de cette méthode ont été évaluées et comparées à celles de méthodes de référence. Elles ont révélé des améliorations visuelles et numériques de la qualité de la reconstruction, et ont montré que la limitation la plus importante provient de la non-représentation du domaine SWIR [1,0 - 2,5 µm] dans l'image PAN en entrée de la fusion.Un nouveau choix d'instrumentation, reposant sur l'utilisation d'une seconde voie PAN dans le domaine SWIR II [2,0 - 2,5 µm], a ainsi été introduit pour dépasser cette limitation. Les méthodes Gain-2P et CONDOR-2P, extensions des méthodes Gain et CONDOR prenant en compte cette seconde voie PAN, ont été développées. L'analyse des résultats a révélé l'apport conséquent de ces deux méthodes étendues (jusqu'à 60 % et 45 % d'amélioration par rapport à leurs versions initiales sur des données respectivement péri-urbaines et urbaines), ainsi que l'amélioration de la qualité de l'image fusionnée avec CONDOR-2P par rapport à Gain-2P (jusqu'à 9 % d'amélioration).Enfin, une étude de sensibilité a été menée afin d'évaluer la robustesse des méthodes proposées vis-à-vis des défauts et caractéristiques instrumentaux (rapport de résolutions spatiales, déregistration, bruit et fonction de transfert de modulation), en choisissant des configurations représentatives des instruments satellitaires existants. Malgré la sensibilité de l'ensemble des méthodes aux différents paramètres, les analyses ont montré que CONDOR-2P obtient quasi-systématiquement la meilleure qualité de reconstruction, et se révèle particulièrement robuste vis-à-vis de l'augmentation du rapport de résolutions spatiales (10 % d'amélioration par rapport à Gain-2P pour une valeur de 8 en milieu péri-urbain).
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 14-04-2022
Perron Nicolas
Voir le résumé
Voir le résumé
Depuis 1957, on estime que plus de 1600 tonnes de débris spatiaux ont pu parvenir à la surface de la Terre après avoir effectué une rentrée atmosphérique, représentant un risque pour les biens et les personnes au sol. L'estimation du risque à l'impact est devenue un enjeu majeur pour tous les acteurs du spatial, et en particulier pour le CNES depuis le vote en 2008 et la mise en application en 2021 de la Loi sur les Opérations Spatiales (LOS) qui impose des contraintes fortes sur les débris spatiaux.La simulation numérique « haute fidélité » de la rentrée atmosphérique des débris spatiaux tout au long de leur trajectoire ne peut être mise en œuvre du fait d’un coût de calcul trop important et hors de portée des calculateurs actuels. Des modèles analytiques ou modèles réduits sont donc utilisés. Actuellement, le couplage fort entre les phénomènes physiques de l'écoulement et le niveau de dégradation du matériau n'est pas pris en compte dans ces modèles. De plus, l'utilisation de matériaux composites rend complexe les simulations car leurs réactions de dégradation sont multiples et leurs propriétés thermophysiques ne sont pas totalement caractérisées. L'objectif de cette thèse est donc de comprendre et modéliser les processus physiques dans les matériaux composites carbone/époxy et à leurs surfaces, pour une rentrée atmosphérique complète, tenant compte de la dégradation thermochimique, sur des géométries 3D représentatives des débris spatiaux.Pour atteindre cet objectif, un modèle de déplacement de maillage 3D des matériaux avec forte déformation a été développé et intégré dans le code matériau MoDeTheC de l’ONERA. Dans le même temps, le matériau composite carbone/époxy M55J/M18 fabriqué par Thales Alenia Space a été caractérisé avec les moyens d'essais de l’ONERA. Un modèle multi-constituants, permettant de rendre compte de l’évolution des propriétés du matériau en fonction de la température et de son niveau de dégradation, a été défini. L’utilisation de ces propriétés dans MoDeTheC, au sein du code de rentrée atmosphérique ARES (code intégrant les solveurs FAST, MUSIC, AtMoS et MoDeTheC), a permis de simuler la dégradation de réservoirs sphériques sur une trajectoire complète de rentrée. Enfin, pour quelques points de vol le long de ces trajectoires, les influences du soufflage et des réactions des gaz de pyrolyse sur le flux de chaleur convecto-diffusif ont été étudiées numériquement, avec le code Navier-Stokes CEDRE de l’ONERA.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 17-03-2022
Fragge Beatrice
Voir le résumé
Voir le résumé
Cette thèse présente une nouvelle approche d’allumage des foyers aérobies basée sur le retournement temporel microonde. Dans la première partie on montre les bases de la théorie de combustion diphasique, le système d’allumage classique qu’est la bougie à arc ainsi que l’histoire et le fonctionnement du retournement temporel spécifiquement dans le cadre de cette étude. Le remplacement de la bougie à arc est un sujet largement étudié et on montre l’état de l’art des différentes approches. La première étape de notre étude est l’étude de la capacité d’un plasma crée par des micro-ondes focalisées pour allumer un carburant liquide. Cette étape est décrite par la partie II de ce manuscrit, qui traite le premier banc d’essai conçu pendant les travaux de thèse. Cette étude se fait dans une cavité résonante avec des initiateurs et un train de gouttes de carburant. On explique l’intérêt et la démarche adoptée pour la conception de ce banc d’essai avant de montrer les résultats d’allumage des gouttes d’éthanol et de kérosène. Après la démonstration de l’allumage de kérosène on passe au retournement temporel (RT) dans la troisième partie. Pour l’étude du claquage d’un plasma par RT dans l’air à pression ambiante, on a conçu un deuxième banc d’essai constitué d’une cavité multimodale de grande taille. Cette dernière partie présente la conception de la cavité ainsi que les premiers essais RT en basse puissance. Après l’optimisation du RT, on passe aux essais en puissance. On utilise à nouveau des initiateurs (SRR) pour augmenter le champ électrique. Les résultats montrent un claquage réussi avec un signal sinusoïdal et un signal RT. On finit cette partie avec les tests d’allumage d’un brouillard de kérosène avec une bougie à arc et les plasmas claqués par signal sinusoïdal et RT dans les gaps des SRRs. Pendant ces travaux de thèse, deux bancs d’essai ont été conçus à partir de zéro. On a démontré sur le premier banc la capacité d’un plasma par micro-ondes focalisées d’allumer un carburant liquide. Ensuite, on a mené des tests RT sur le deuxième banc. On a claqué des plasmas dans l’air à pression ambiante dans les deux cavités avec des initiateurs et un signal sinusoïdal. Les travaux se finissent par l’allumage réussi d’un brouillard de kérosène par RT.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 08-03-2022
Robert Emilie
Voir le résumé
Voir le résumé
Les images de notre quotidien du 21ème siècle sont acquises et visionnées en couleur. Nos télévisions, nos téléphones et ordinateurs, tous permettent une vision indirecte, de la scène à l’œil en passant par un système de d’acquisition et une système d’affichage, avec l’illusion d’une concordance optimale avec la vision directe (de la scène à l’œil) que nous portons au monde qui nous entoure. Pour certaines applications d’imagerie extrêmement exigeantes en termes de colorimétrie, telles que : l’industrie du cinéma, la surveillance, l’industrie du textile ou bien encore l’exploration spatiale, cette illusion est régulièrement altérée par les conditions extrêmes d’acquisition rencontrées. L’objectif de cette thèse est de définir des méthodes pour la reproduction d’images numériques de très haute qualité colorimétrique. Deux axes de recherche principaux sont considérés: la sensibilité spectrale de l’œil humain, et la chaîne du traitement de l’information couleur par les capteurs d’images modernes. Les deux premiers chapitres du manuscrit donnent les connaissances et méthodes liées à ces deux axes. Dans ce cadre, deux études ont été menées sur (i) la méthode de calcul de la matrice de correction des couleurs, et (ii) la prise en compte des variations individuelles de la vision des couleurs par l’humain. Ce travail de thèse vise à définir si l’un de ces deux aspects de la chaîne de la vision indirecte, souvent étudiés indépendamment l’un de l’autre, est à l’origine de trouble importants pour la fidélité colorimétrique. Pour répondre à cette problématique, deux études ont été réalisées: la première quantifie les erreurs résiduelles après l’application à une image de corrections calculées selon deux méthodes calculatoires (moindres carrés linéaires et régression polynomiale d’ordre 2). L’étude se penche en particulier sur deux types de scènes: celles qui présentent des particularités spectrales restreintes, et celles ne permettant pas l’utilisation de mires de calibration. Les résultats sont issus de l’étude de deux capteurs d’images CMOS et sous illuminant D65. Ils indiquent en bon accord avec les études précédentes que pour des scènes contenant des couleurs de l’ensemble du domaine spectral visible, le nombre de patches utilisés pour le calcul de la matrice de correction des couleurs (CCM) peut être réduit en dessous de 24 (mire ColorChecker® X-rite). Concernant les scènes présentant des particularités spectrales, des corrections teintes-spécifiques ont été appliquées à partir de la mire Next Generation Target (NGT). Les résultats suggèrent de compléter l’étude par d’autres méthodes de sélection des teintes pour le calcul de CCM. Dans les applications qui ne permettent pas l’utilisation de mires de calibration, une méthode de caractérisation par imageur multispectral 6-bandes (déjà disponible sur de nombreuses applications spatiales) est étudiée. Elle présente des résultats acceptables sur la caractérisation de la mire ColorChecker® X-rite qui présente des réflectances qui varient de manière très progressive sur le domaine du visible. La deuxième étude quantifie les différences qui peuvent être engendrées par les variations individuelles de la vision humaine, dernier élément de la chaine de la vision indirecte. Les résultats issus de données en accès-libre dans la littérature, montrent que pour certaines teintes les différences de vision des couleurs peuvent s’avérer très critiques et suggèrent le développement de méthodes d’individualisation des images. Une revue est ensuite faite concernant les leviers technologiques utilisés pour le développement d’une expérience d’égalisation visant à mesurer la sensibilité spectrale d’individus soumis à ce contexte d’exigences colorimétriques importantes. Une discussion est alors ouverte concernant le développement de nouvelles expériences d’égalisations, proposant des alternatives pratiques issues des travaux de la littérature très récente.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 15-12-2021
El Idrissi Essebtey Salma
Voir le résumé
Voir le résumé
Les expérimentations de proximité sont un outil essentiel dans la télédétection de la terre car elles permettent d’acquérir de longues séries temporelles de mesures pouvant anticiper et accompagner le développement de nouvelles technologies spatiales. Dans le cadre de la préparation de la mission spatiale BIOMASS, le diffusiomètre TropiScat-2 installé sur la tour Guyaflux (Guyane Française) a permis d’étendre et de consolider l’expérimentationinitiale TropiScat. BIOMASS sera le premier radar imageur en bande P (λ ≈ 70 cm) dont l’objectif est de cartographier le stock de carbone dans les forêts à l’échelle globale grâce à des mesures inédites en configuration repeat-pass interférométrique et tomographique. L’efficacité de ces modes a été démontrée grâce aux campagnes aéroportées sans pour autant s’assurer de leur robustesse par rapport aux conditions d’observation variables. A partir des séries multifréquences inédites de l’expérimentation TropiScat-2, cette thèse vise à caractériser les variations temporelles du signal radar rétrodiffusé sur un site de forêt tropicale dense. Des mesures en bande P, L et C ont été acquises quasi simultanément toutes les 15 minutes, constituant une base de données d’environ deux années pour ce travail de thèse. L’exploitation de ces données a été réalisée grâce à des algorithmes implémentés au cours de ce travail, se basant d’une part sur les réponses impulsionnelles issues des mesures fréquentielles, et d’autre part sur la formation de tomogrammes dans le cas des données en bande P. Des corrections adaptées ont été développées et intégrées à ces algorithmes afin de tenir compte des spécificités de ce type d’expérimentation. L’exploitation des séries temporelles en bande P a permis de quantifier la décorrélation temporelle à long terme d’une forêt tropicale, selon des intervalles de temps clés des scénarii d’acquisition de BIOMASS. Cette étude révèle que les cohérences temporelles à 18 jours (correspondant à l’intervalle de temps entre la première et la dernière acquisition du traitement tomographique BIOMASS) varient en fonction de la saisonnalité et peuvent donc impacter les performances de la mission. En outre, des valeurs significatives ont été obtenues pour les cohérences à 7 et 14 mois, ouvrant la voie à de nouvelles méthodes pour l’exploitation des données issues de différents cycles de la mission. L’exploitation du traitement tomographique a permis d’imager dans le plan vertical la rétrodiffusion en bande P de la forêt. Ce traitement a permis de séparer les contributions de rétrodiffusion au niveau du sol et celles au niveau du volume de la forêt, permettant ainsi la caractérisation de leurs évolutions temporelles respectives à court terme via les variations diurnes et à long terme via les effets saisonniers. L’aspect multifréquence des données TropiScat-2 a été initié par l’analyse de données inédites en bande C. Cette étude a permis de dissocier les sources de décorrélation temporelle impactant le signal bande C notamment le vent et l’évapotranspiration. Des pistes de synergies inter-fréquences ont pu être initiées à travers l’exploitation simultanée des données en bandes P, L et C, qui a permis de caractériser les liens entre ces trois fréquences que ce soit pour les cohérences ou les intensités. Ce travail de thèse permet de souligner le rôle de la décorrélation temporelle non seulement comme une source de perturbation pour les applications cohérentes mais également comme un indicateur pertinent de l’évolution des forêts. Les résultats obtenus permettent d’enrichir nos connaissances sur l’interaction des micro-ondes avec la végétation dense, sur lesquelles pourront se baser des scénarii d’acquisition innovants pour BIOMASS, en lien avec d’autres missions à plus haute revisite temporelle.
|
Texte intégral
|
|