Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-03-2022
Monnin Loanne
Voir le résumé
Voir le résumé
Les décharges électrostatiques (ESD) sont dues aux interactions entre le panneau solaire et l'environnement spatial. Majoritairement bénignes pour le satellite, elles peuvent cependant mener à la création d'un arc secondaire qui court-circuite une partie du générateur solaire. L'arc secondaire se déclenche dans un plasma de décharge appelé flash-over créé par l'ESD. En effet, le flash-over constitue le milieu conducteur idéal à l'apparition d’un arc. Cette thèse présente un modèle physique de la génération et de la propagation du flash-over. Ce modèle doit permettre d'identifier les situations propices au passage à l'arc. L'étude de la propagation du flash-over se fait en deux parties. Dans un premier temps, un modèle de spot cathodique est construit. Il s'agit du point d'émission du plasma, le modèle fourni les caractéristiques physiques du flash-over (température, densité, etc.). Il est adapté pour correspondre parfaitement à l'étude du flash-over, notamment en ce qui concerne la géométrie du système et l'influence de l'environnement spatial. La deuxième partie de l'étude porte sur le couplage entre le modèle de spot et un modèle d'expansion d'un plasma dans le vide. Le modèle ainsi obtenu prédit l'évolution du flash-over à la surface d'un panneau solaire. Il fournit notamment une durée maximale de la décharge et la température du plasma. Les résultats obtenus sont comparés avec des mesures expérimentales effectuées sur des panneaux entiers. Le modèle présenté dans ce manuscrit est un socle robuste, validé expérimentalement, qui permet d'expliquer le phénomène de flash-over et sa propagation à la surface du panneau solaire. Des premières pistes d'améliorations ont été étudiées et sont présentées afin de rendre compte des possibilités offertes par le modèle.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 26-10-2021
Chebbi Jawhar
Voir le résumé
Voir le résumé
Les drones multirotor ont un énorme potentiel d'application dans le milieu industriel. Un exemple pertinent est celui de la société Donecle, la première au monde à développer des drones d'inspection visuelle pour la maintenance aéronautique. Les freins au déploiement à plus grande échelle de ces drones (pour inspecter tout type de structure, et en toute condition) sont d'abord législatifs et ensuite technologiques. En effet, les interactions entre le vent, les hélices et le corps du drone créent des perturbations complexes qui peuvent dégrader la précision du suivi de trajectoire au point de rendre le vol à proximité des avions risqué et donc non certifiable. Cette thèse financée par Donecle vise à augmenter la capacité des contrôleurs de ses drones à résister aux perturbations aérodynamiques.L'approche adoptée pour répondre à ce problème a été motivée par l'objectif pratique de la thèse : fournir des techniques de contrôle qui peuvent être rapidement déployées sur des drones industriels existants sans apporter de modifications matérielles. L'idée fut alors de partir des contrôleurs PID, qui fonctionnent très bien dans la plupart des cas, de comprendre leurs limites en termes de rejet des perturbations et de les surpasser en apportant progressivement de nouvelles briques algorithmiques qui s'adaptent bien au cas d'utilisation de Donecle : un drone en configuration contrarotative coaxiale, des vols à basse vitesse et une carte autopilote à mémoire limitée.Deux contributions principales sont proposées : D'une part, une nouvelle stratégie d'allocation des commandes moteurs (mixage) qui ne néglige pas les interférences entre les hélices coaxiales. D'autre part, la généralisation d'une technique de contrôle robuste au cas d'un contrôleur avec un observateur de perturbations (à savoir le contrôle actif de rejet des perturbations ADRC) pour garantir que les incertitudes sur les paramètres du système (variant dans des plages préétablies) ne causeront pas de dégradation des performances ou ne conduiront pas à l'instabilité. Cette amélioration de l'ADRC permet de rendre le même algorithme, avec le même réglage initial, capable de gérer les changements de configurations et de régimes de vol. Les essais expérimentaux ont accompagné toutes les phases de cette thèse et forment de ce fait une part importante des contributions. Ils ont notamment permis d'orienter notre choix vers certaines techniques de contrôle.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 17-12-2020
Dahmen Nour Allah
Voir le résumé
Voir le résumé
Les ceintures de radiation terrestres constituent un environnement radiatif naturel très dynamique, hostile à la plupart des satellites artificiels, et dont la modélisation physique demeure aujourd’hui encore imparfaite. Cette dynamique est généralement décrite par des codes numériques résolvant une équation de diffusion. Du fait des forts gradients dans l’espace de la fonction de distribution et de l’intense dynamique des ceintures de radiation, les méthodes numériques employées doivent être très robustes. Le code Salammbô 3D développé et perfectionné depuis de nombreuses années au sein du département Environnement Spatial de l’ONERA a acquis aujourd’hui une maturité reconnue internationalement. Il constitue aussi bien le modèle physique sur lequel s’appuie le développement des futurs modèles de spécification d’environnement, qu’un laboratoire virtuel d’observation et d’analyse des mécanismes physiques gouvernant la dynamique des ceintures de radiations.Salammbô 3D repose sur un schéma numérique de type explicite, différences finies. Ce schéma possède le principal avantage d’être simple à mettre en place de par sa formulation. Cependant, sa stabilité est limitée par la condition CFL. De plus, des termes de diffusion croisés rendent ce schéma instable. L’objectif de cette thèse est donc de développer et valider un nouveau coeur numérique au code Salammbô 3D en version implicite. Le but recherché est triple : (1) rendre le code plus robuste aux forts gradients spatiaux des différents termes de diffusion, (2) accélérer le code tout en conservant, voire améliorant sa précision, (3) prendre en compte les termes de diffusion croisés ignorés dans le cas d’un schéma explicite.Enfin, dans une dernière partie, il serait intéressant d’affiner le code implicite mis en place pour qu’il puisse répondre à deux problématiques physiques actuelles : (1) optimiser la résolution spatiale du modèle au niveau des orbites basses pour mieux reproduire l’environnement des satellites en LEO, et (2) estimer les précipitations de particules des ceintures de radiation dans l’atmosphère (intérêt supplémentaire des volumes finis).
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 15-12-2020
Grosjean Eudes
Voir le résumé
Voir le résumé
La contamination moléculaire des satellites est un phénomène de pollution des surfaces des satellites en orbite. Elle désigne la formation de dépôts de molécules indésirés qui peuvent modifier les propriétés des surfaces des composants qui en sont sensibles. Ces molécules sont issues des matériaux du satellite, de l’activité humaine et de la propulsion. Les performances des composants sensibles, généralement optiques ou thermiques, peuvent être dégradées jusqu’à entrainer une perte de fonctionnalité. La contamination moléculaire peut alors mettre en péril les objectifs de la mission spatiale. Pour garantir le succès de la mission, il est alors nécessaire de maîtriser les niveaux de contaminants. La quantification des dépôts moléculaires pendant la phase de conception repose sur des prédictions à l’échelle de la mission spatiale. Chaque molécule qui constitue les dépôts possède ses propres propriétés de dégazage, d’adsorption et de réémission. L’identification et la détermination de la contribution des molécules qui constituent un mélange, appelée séparation des espèces, est nécessaire pour pouvoir réaliser des prédictions fiables. Les techniques standards de caractérisation actuelles de la contamination, utilisées pour obtenir les paramètres numériques des modèles, se basent majoritairement sur des analyses thermogravimétriques de microbalances à quartz (ATG). Bien que les cinétiques de réémission des molécules soient différentes suivant leur nature chimique, elles sont thermiquement proches. La séparation obtenue par analyses thermogravimétriques est incomplète car les signaux des différentes espèces se chevauchent. Cela induit une incertitude sur les paramètres numériques, et peut entraîner des erreurs de plusieurs ordres de grandeurs sur les niveaux de contamination prédits. Pour résoudre ce problème, l’ONERA a développé une méthode de séparation basée sur le couplage in situ et en temps réel d’analyses thermogravimétriques et d’un spectromètre de masse (ATG/SM). Son objectif est d’obtenir avec plus de précision les contributions de chaque espèce dans le mélange, afin de réduire les incertitudes générées sur les paramètres numériques et les erreurs commises sur les prédictions des niveaux de contamination. Ces informations permettent également d’avoir un regard neuf sur la physique qui régit la contamination. Les travaux de la présente thèse s’inscrivent dans la continuité de cette démarche de développement de la méthode ATG/SM avec pour objectif de caractériser les molécules les moins volatiles, pourtant les plus dangereuses en orbite. La première mission ont consisté à augmenter les capacités de génération de données de spectrométrie de masse à haute température. Les travaux se sont ensuite orientés vers le développement de la régulation thermique du porte-échantillon et l’augmentation de la sensibilité du spectromètre de masse. Grâce au développement d’un nouveau traitement de données, cette étude a permis de réaliser une séparation complète du matériau spatial Scotchweld EC2216.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-12-2020
Lemiere Kevin
Voir le résumé
Voir le résumé
Les capteurs d’image embarqués à bord des satellites, également appelés imageurs, jouent un rôle crucial pour le bon déroulement des missions spatiales. Cependant, ces matrices de pixels sont sensibles aux particules énergétiques issues des diverses sources de rayonnement de l’environnement spatial. Dans certains cas, les interactions entre le rayonnement énergétique et la matière modifient la structure cristalline du semi-conducteur qui compose la zone sensible du pixel. Par la suite, les défauts cristallins produits lors de l’irradiation vont se réorganiser pour former des entités électriquement actives et stables dans le temps. Ces défauts, également appelés pièges, vont contribuer à augmenter le signal parasite intrinsèque à chaque pixel : le courant d’obscurité. Après irradiation et sans exposition lumineuse, une augmentation de l’amplitude moyenne du courant d’obscurité ainsi que sa disparité entre chaque pixel est observée. La distribution des courants d’obscurité (également appelée « DarkCurrent Non Uniformity » en anglais, abrégé DCNU) évolue dans le temps avec le niveau d’irradiation.La thèse vise à apporter des éléments de compréhension pour améliorer l’estimation de l’augmentation du courant d’obscurité après irradiation. Les travaux de recherches menés au cours de cette thèse se focalisent en grande partie sur la prédiction du nombre et de l’intensité des pixels fortement dégradés, car ce sont les plus pénalisants pour le fonctionnement nominal d’un imageur. La méthode de prédiction des distributions de courant d’obscurité post-irradiation développée par l’ONERA (DAAN) a été améliorée par l’adjonction de nouveaux modèles.La démarche des travaux de thèse a consisté dans un premier temps à améliorer la prise en compte des effets du champ électrique sur le taux de génération de paires électron-trou des défauts électriquement actifs. En première approximation, les mécanismes physiques liés à l’influence du champ électrique étaient modélisés en une dimension. Cependant, une telle modélisation est connue pour surestimer l’impact du champ électrique sur le courant d’obscurité. C’est pourquoi nous avons développé un modèle original d’effets de champ électrique en trois dimensions. Ce nouveau modèle permet de réduire l’amplitude des effets du champ électrique sur le taux de génération de paires électron-trou, et par extension sur le courant d’obscurité.La méthode de prédiction originale utilise le facteur de dommage universel. Ce coefficient empirique représente une dégradation moyenne, et masque les phénomènes de réorganisation qui se mettent en place au cours du temps. C’est pourquoi dans un second temps, un modèle de réorganisation des défauts dans la matière cristalline a été développé. Ce modèle repose sur un algorithme de type Kinetic Monte Carlo (KMC) optimisé par méthode dite « octree ». D’une part cet outil a pour but d’estimer la population type de pièges présente après des temps longs de guérison. D’autre part, cet algorithme est utilisé pour évaluer le nombre de défauts qui ont guéri au cours du temps par rapport à l’état initial. En première approximation, une répartition uniforme de ces défauts dans le volume de simulation est considérée à l’état initial.Dans un dernier temps, les cascades de dommage sont modélisées avec GEANT4 puis sont traitées par notre outil KMC pour estimer de manière la plus réaliste possible les processus de guérison.Les taux de guérison obtenus sont en accord avec la littérature. Ces informations sont ensuite utilisées dans l’outil de prédiction des courants d’obscurité, ce qui permet de s’affranchir de l’utilisation du facteur de dommage universel et d’estimer de manière la plus réaliste possible l’augmentation du courant d’obscurité après irradiation. Cette chaîne de modélisation simule des distributions de courant d’obscurité proches des mesures expérimentales. Nous proposons de cette manière une méthode analytique alternative au facteur de dommage universel.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 19-11-2020
Plaçais Adrien
Voir le résumé
Voir le résumé
La fusion nucléaire contrôlée par confinement magnétique dans les réacteurs de type Tokamak et le spatial avec les charges utiles des satellites ont en commun d’utiliser des systèmes haute-fréquence (HF) de forte puissance (du kilowatt au mégawatt) et fonctionnant sous vide. La puissance transmissible par de tels systèmes P_max est limitée par l’effet multipactor, qui apparaît quand les électrons présents dans le système entrent en résonance avec le signal HF. Si leur énergie est suffisante, d’autres électrons peuvent être extraits des parois et la population électronique peut croitre de manière exponentielle. Ce nuage électronique peut perturber le signal transmis, dégrader des surfaces voire provoquer un arc électrique. Bien maîtrisée dans les configurations les plus simples (e.g. : guide d’onde rectangulaire métallique), la prévision du phénomène multipactor est plus difficile dans les scénarios complexes, notamment en présence de champs magnétiques et/ou de matériaux de type diélectriques. Ces deux paramètres influencent aussi bien les trajectoires des électrons que les phénomènes d’émission secondaire à l’origine de l’augmentation de la population électronique. L’objectif de la thèse est de modéliser et comprendre l’apparition du multipactor dans ces configurations complexes. Dans ce cadre, j’ai développé le modèle POTOMAC (Physical simulatiOn TOol for Multipactor in Advanced Configurations). Grâce à POTOMAC, j’ai tout d’abord pu montrer que la précision du modèle d’émission électronique utilisé avait une importance capitale, et ce d’autant plus que la configuration étudiée utilise des matériaux diélectriques. Pour modéliser des géométries réalistes, j’ai proposé une extension en trois dimensions du modèle de Dionne, qui est le seul modèle d’émission électronique capable de prendre en compte la charge déposée dans les diélectriques. Enfin, j’ai montré que l’accumulation de charges électriques à la surface des diélectriques avait un impact considérable sur l’apparition du multipactor, en favorisant ou défavorisant certains modes multipactor. Cette influence a été partiellement vérifiée de manière expérimentale, en collaboration avec un partenaire industriel.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 30-09-2020
Ruffenach Marine
Voir le résumé
Voir le résumé
Depuis le début de la conquête spatiale démarrée en octobre 1957 avec le lancement du satellite Spoutnik-1 par l’ex-URSS, le nombre de satellites envoyés dans l’espace n’a cessé d’augmenter. Cependant, l’environnement spatial terrestre est un milieu hostile pour les satellites artificiels et leurs composants, en particulier à cause des ceintures de radiations peuplées de protons et d’électrons énergétiques. Le département DPHY de l’ONERA étudie les ceintures de radiations et développe des modèles afin de les modéliser, étudie leurs effets sur les équipements des satellites, et conçoit des moniteurs de radiations afin de disposer de mesures in-situ. Des modèles sont disponibles pour connaître l’énergie, le type et la localisation des particules dans les ceintures de radiations. Ils sont créés à partir des mesures faites par les moniteurs de radiations. Cependant, très peu de mesures de protons de faibles énergies (de quelques MeV) sont disponibles. Par ailleurs, les moniteurs de radiations mesurant plusieurs types de particules sur une grande gamme en énergie sont massifs et volumineux, et non adaptés pour être embarqués sur des petits satellites tels que les Cubesats.
Les objectifs de cette thèse sont donc de développer une tête de détection capable de mesurer les protons de quelques MeV, et un moniteur de radiations miniaturisé pour mesurer simultanément l’énergie incidente des protons et des électrons.
La première partie de cette thèse a été consacrée au développement de la tête de détection de protons de basses énergies compatible avec le moniteur ICARE-NG. La bonne mesure des protons de quelques MeV dépend de la capacité de la tête de détection à limiter la contribution des protons énergétiques et des électrons. Dans ce but, le blindage de la tête est constitué d’une structure sandwich Al-W-Al. Des aimants sont utilisés à l’entrée de la tête de détection afin de dévier les électrons, et le diamètre des diodes est optimisé pour réduire la contribution des protons énergétiques et des électrons. L’analyse des comptages prédits à l’aide des modèles AE-8 et AP-8 montre que l’électronique ne subira pas de saturation et que les protons de basses énergies seront correctement mesurés pour de grandes régions dans les ceintures de radiations. Enfin, le modèle d’essai de la tête de détection est fabriqué, et le modèle de vol sera embarqué sur deux satellites fabriqués par Airbus-DS début 2021.
La deuxième partie de la thèse a été consacrée au développement de la tête de détection miniaturisée basée sur l’utilisation du Timepix. L’utilisation de la puce Timepix couplée à un blindage différentiel, ou bien dans un spectromètre magnétique n’ont pas été concluantes. Le traitement des données acquises par le Timepix à l’aide des réseaux de neurones à convolution est quant à lui intéressant et prometteur. Les réseaux de neurones à convolution développés durant cette thèse permettent de discriminer les protons et les électrons d’une part, et de déduire leur énergie incidente afin d’établir des gammes en énergie d’autre part. Ces réseaux sont entraînés sur des données simulées à l’aide de GEANT4, et leur application sur des données réelles acquises par l’instrument SATRAM présent sur le satellite Proba-V depuis 2013 mène à de meilleurs résultats que ceux obtenus jusqu’alors à l’aide d’autres méthodes. Ils permettent de discriminer correctement dans 95 % des cas les protons et les électrons, et d’établir des gammes en énergie proches de celles obtenues avec d’autres moniteurs de radiations, et ce avec un instrument de 380 grammes.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 17-01-2020
Petit Valentine
Voir le résumé
Voir le résumé
Le nuage d'électrons se développant dans les chambres à vide du LHC lors de l'opérationdes faisceaux de protons engendre une charge thermique sur le système cryogénique deses aimants supraconducteurs. La valeur de cette charge thermique présente une fortedispersion entre les différents arcs du LHC, pourtant identiques par design, dont certainssont actuellement proches de la limite de la capacité cryogénique. Sous l'effet du nuaged'électrons, le conditionnement de la surface de cuivre des chambres à vide du LHCa lieu, réduisant son rendement d'électrons secondaires. Un tel processus est supposédécroitre l'activité du nuage vers un niveau acceptable pour l'opération du LHC et sembledonc localement mis en défaut. Ce travail a analysé les phénomènes de conditionnementdu cuivre ayant lieu dans le LHC afin d'expliquer les différences d'activités du nuageélectronique observées dans l'accélérateur. L'étude des mécanismes de conditionnementdu cuivre en laboratoire, à température ambiante, en remplaçant le nuage par un canon àélectrons, a mis en évidence le rôle crucial du carbone dans la décroissance du rendementd'électrons secondaires. L'étude du déconditionnement, ayant lieu à la remise à l'air d'unesurface irradiée (étape nécessaire à l'extraction de tubes faisceau du LHC) a permisd'établir une procédure limitant l'effacement de l'état de conditionnement in-situ de cescomposants en vue de l'analyse de leur surface en laboratoire. Des analyses réaliséessur des tubes faisceau extraits d'un aimant à faible charge thermique montrent que cessurfaces présentent des caractéristiques similaires à celles conditionnées en laboratoire.En revanche, les tubes faisceau extraits d'un aimant à forte charge thermique présententdu CuO ainsi qu'un taux de carbone surfacique extrêmement faible. Il est prouvé que cesmodifications résultent de l'opération du LHC et conduisent à un conditionnement altéréde ces surfaces. Ces modifications sont actuellement le meilleur candidat pour expliquerl'origine des différences de charge thermique observées dans le LHC.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 19-11-2019
Rostand Neil
Voir le résumé
Voir le résumé
L’objectif de cette thèse était le développement de modèles SET (Single Event Transient) et TID (Total Ionizing Dose) pour les MOSFETs de technologies fortement intégrées, reposant notamment sur la technologie SOI. Ces modèles devaient respecter les standards de la modélisation compacte afin d’assurer leur utilisation dans les simulateurs de circuits SPICE (ELDO, SPECTRE, PSPICE …) tout en assurant la justesse du contenu physique. Le langage d’implémentation est alors le Verilog-A. En 1A, l’investigation physique des SET a été effectuée à l’aide de simulations TCAD. Cette tâche a supporté le développement d’un premier modèle physique SET (validé par la TCAD) adapté aux technologies BULK.En 2A, le modèle physique a été rendu compact et implémenté en Verilog-A. Ce travail a nécessité le développement d’une méthode d’implémentation faisant appel à la considération d’un circuit électrique équivalent au phénomène SET. Le modèle ainsi implémenté en SPICE a été capable de prédire l’occurrence de SEUs (Single Event Upset) dans les mémoires et des erreurs plus fonctionnelles dans les registres à décalage. En parallèle, l’investigation physique du TID a été effectuée à l’aide simulations TCAD. Par ailleurs, les effets TID ont été modélisés et implémentés dans le modèle standard compact LETI – UTSOI décrivant le fonctionnement des transistors FDSOI. Le modèle a été validé à l’aide de simulations TCAD et a été utilisé pour extraire les paramètres TID sur des MOSFETs FDSOI irradiés au CEA/DAM.En 3A, un modèle compact SET pour technologies fortement intégrées (reposant sur la technologie SOI) a été développé. Ce modèle prend en compte l’amplification bipolaire inhérente à ce type de structure ainsi que la morphologie 3D de la charge générée par la particule ionisante. Des validations TCAD de ce modèle ont été effectuées. Par ailleurs, ce modèle SET a été interfacé avec le simulateur multi-physiques MUSCA SEP3 afin d’estimer le risque SEE sur des matrices mémoires FDSOI. L’apport du modèle SET a été mis en évidence dans la fiabilité de cette estimation.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 19-12-2018
Rousselin Thomas
Voir le résumé
Voir le résumé
L’électronique embarquée dans l’aéronautique, couramment appelé avionique, est chargée d’effectuer des tâches critiques et doit présenter une fiabilité élevée. La technologie Complementary Metal Oxyde Semiconductor (CMOS) est couramment utilisée pour réaliser des composants critiques, comme des mémoires. Les composants CMOS sont susceptibles à deux types d’erreurs : les dégradations liées au vieillissement et les évènements singuliers causés par les particules cosmiques. Or, les conditions d’utilisation de l’avionique renforcent la fréquence d’occurrence de ces deux types d’erreurs. Le vieillissement consiste, pour les composants CMOS, en la dégradation de ses interfaces métal/oxyde et oxyde/semi-conducteur au cours de sa durée de vie. Les composants avioniques subissent un vieillissement accéléré de par leur condition d’utilisation intensive. Le rayonnement cosmique est composé de particules énergétiques d’origine extrasolaire. Certaines de ces particules sont susceptibles d’interagir un composant électronique et d’y déposer de l’énergie, cela peut causer une erreur appelée évènement singulier. L’avionique est particulièrement concernée par cette problématique car ces évènements peuvent être critiques et qu’elle rencontre un flux élevé de particules.Auparavant, la sensibilité aux radiations était considérée comme indépendante du vieillissement. Seulement, les évolutions des technologies CMOS nous amènent à remettre en cause cette hypothèse. Afin d’étudier ce nouveau phénomène, une méthode de modélisation a été développée. Celle-ci couple la modélisation des évènements singuliers à une modélisation électrique circuit du vieillissement. Elle permet d’effectuer des simulations sur un circuit mémoire spécifique dans des environnements radiatifs variés. De ces simulations ressortent l’influence de certains paramètres électriques, qui permettent de proposer une simulation opérationnelle appliquée à l’avionique.
|
Texte intégral
|
|