Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-03-2022
Monnin Loanne
Voir le résumé
Voir le résumé
Les décharges électrostatiques (ESD) sont dues aux interactions entre le panneau solaire et l'environnement spatial. Majoritairement bénignes pour le satellite, elles peuvent cependant mener à la création d'un arc secondaire qui court-circuite une partie du générateur solaire. L'arc secondaire se déclenche dans un plasma de décharge appelé flash-over créé par l'ESD. En effet, le flash-over constitue le milieu conducteur idéal à l'apparition d’un arc. Cette thèse présente un modèle physique de la génération et de la propagation du flash-over. Ce modèle doit permettre d'identifier les situations propices au passage à l'arc. L'étude de la propagation du flash-over se fait en deux parties. Dans un premier temps, un modèle de spot cathodique est construit. Il s'agit du point d'émission du plasma, le modèle fourni les caractéristiques physiques du flash-over (température, densité, etc.). Il est adapté pour correspondre parfaitement à l'étude du flash-over, notamment en ce qui concerne la géométrie du système et l'influence de l'environnement spatial. La deuxième partie de l'étude porte sur le couplage entre le modèle de spot et un modèle d'expansion d'un plasma dans le vide. Le modèle ainsi obtenu prédit l'évolution du flash-over à la surface d'un panneau solaire. Il fournit notamment une durée maximale de la décharge et la température du plasma. Les résultats obtenus sont comparés avec des mesures expérimentales effectuées sur des panneaux entiers. Le modèle présenté dans ce manuscrit est un socle robuste, validé expérimentalement, qui permet d'expliquer le phénomène de flash-over et sa propagation à la surface du panneau solaire. Des premières pistes d'améliorations ont été étudiées et sont présentées afin de rendre compte des possibilités offertes par le modèle.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 15-02-2022
Erdmann Simon
Voir le résumé
Voir le résumé
Supposons qu'on image en transmission ou en rétrodiffusion un milieu éclairé en lumière cohérente. Supposons également que ce milieu est tel que la phase du champ rétrodiffusé apparaît en tout point comme aléatoire. On obtient alors un motif également aléatoire constitué de grains: du speckle.Si, de plus, le milieu varie au cours du temps, le signal de speckle fluctue également. Imager certaines statistiques temporelles du signal peut alors permettre d'imager le mouvement: c'est l'objet de l'imagerie de speckle dynamique. Ses applications sont nombreuses : étude de suspensions colloïdales, de séchage de peinture, imagerie médicale. Elle s'appuie souvent sur l'autocorrélation temporelle du signal: la forme de cette dernière renseigne sur le type de mouvement, et son temps caractéristique de décroissance est lié à la vitesse de fluctuation du milieu.Cependant, faute de caméras suffisamment rapides, il a longtemps été impossible d'accéder directement à l'autocorrélation temporelle des signaux rencontrés expérimentalement. L'accès aux caractéristiques du mouvement n'était donc possible que via des méthodes indirectes, comme le contraste, assez imprécises et qualitatives. Toutefois, ces dernières années, la diffusion de plus en plus large de caméras haute cadence (jusqu'à plusieurs dizaines de kHz), a changé la donne. La voie s'est ainsi ouverte à un raffinement considérable des modèles et à des gains importants en précision et en rapidité de traitement.Une telle caméra a été utilisée dans le cadre de ces travaux de thèse. Elle a permis d'imager la vascularisation sous-cutanée sur des zones variées du corps humain. On a ainsi pu évaluer la pertinence de plusieurs paramètres pour imager qualitativement le mouvement: l'efficacité du premier terme de la fonction d'autocorrélation, par exemple, a été mise en évidence. Dans le même temps, on a aussi pu constater certaines limites du speckle dynamique que la très haute cadence ne permettait pas de lever. Ainsi, au-delà d'un certain seuil, augmenter la cadence n'apporte plus d'information, tandis que l'hypothèse de stationnarité du signal est ébranlée par les effets de la pulsation cardiaque. Ces limites ne remettent pas en question l'apport considérable de la haute cadence, mais illustrent à quel point il s'agit d'un changement de paradigme.Pour en prendre la pleine mesure et exploiter au maximum le gain en résolution temporelle permis par les caméras rapides, il est nécessaire, en parallèle des études expérimentales, d'affiner les modèles existants. C'est dans cette optique qu'un travail de modélisation et de simulation du système d'imagerie a été mené. Notre but était de relier le plus précisément possible un type de dynamique du milieu aux statistiques du signal obtenu. Ainsi, il a été possible de redémontrer rigoureusement et de nuancer des résultats tenus pour phénoménologiques dans la littérature, tels que certains modèles d'autocorrélation temporelle. Ces résultats fondent la possibilité, à terme, de remonter à des grandeurs physiques fiables à partir d'un signal de speckle dynamique.Enfin, comme les modèles inverses de speckle dynamique s'appuient sur des statistiques parfois complexes sur les signaux, il convient de s'assurer que celles-ci ne sont pas altérées par des traitements tiers. En particulier, beaucoup d'opérations de traitement du signal, notamment de rééchantillonnage (sur-échantillonnage, sous-échantillonnage, recalage) sont effectuées sans conscience des effets considérables qu'elles peuvent avoir sur les statistiques du signal. Un troisième axe de ces travaux a donc consisté à caractériser ces effets en fonction des méthodes utilisées. Il a par exemple été établi qu'un filtre passe-bas (préalable à un sous-échantillonnage) tend à générer d'autant plus de corrélation longue distance qu'il est resserré en fréquence --- et donc qu'il permet d'éviter l'aliasing. Le même type de résultat a été établi avec les méthodes d'interpolation.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 02-02-2022
Laffont Adrien
Voir le résumé
Voir le résumé
Gaz ionisés composés d’électrons, d’ions et de neutres, les décharges plasmas ont déjà démontré leur potentialité pour le développement de systèmes radiofréquences et micro-ondes. Plus particulièrement, le contrôle de la densité électronique et l’aspect allumage/extinction (mode ON/OFF) des décharges plasmas suscitent un intérêt croissant pour le développement d’antennes furtives reconfigurables en fréquence et/ou en diagramme de rayonnement. Ces antennes exploitent principalement deux comportements électromagnétiques des décharges plasmas, le comportement électrique, pour lequel la partie réelle de la permittivité relative du plasma est grandement négative, et le comportement diélectrique lorsque cette dernière est comprise entre 0 et 1.Récemment, un nouveau type d’antenne plasma miniature a été proposé et expérimentalement étudié en bande VHF [1]. Dans son utilisation, le plasma ne se comporte ni comme un bon conducteur électrique, ni comme un matériau diélectrique, mais comme un mauvais conducteur aussi appelé matériau ENG (Epsilon NéGatif). L’antenne consiste alors en un monopole miniature couplé à un résonateur ENG hémisphérique de dimension sub-longueur d’onde obtenu grâce à une décharge plasma. Les travaux présentés dans [1], issus d’une précédente thèse [2], permirent de mettre en évidence un phénomène de résonance associé à un rayonnement électromagnétique de l’antenne plasma miniature. La reconfigurabilité en fréquence de l’antenne a également été observée en modifiant la puissance électromagnétique communiquée au plasma et donc sa densité électronique.Dans ces travaux de thèse, nous poursuivons le développement de cette antenne plasma miniature. Plus spécifiquement, ce travail de recherche a pour but de :
• comprendre le phénomène physique opérant au sein du plasma à l’origine du rayonnement électromagnétique de l’antenne plasma miniature
• mettre en œuvre des dispositifs de mesure pour évaluer ses performances antennaires,
• étudier expérimentalement les propriétés potentielles de durcissement électromagnétique de l’antenne
• proposer une modélisation numérique de cette antenne non-standard.Au cours de cette thèse, les différents travaux de recherche ayant été menés afin de répondre aux objectifs sont :
• un état de l’art sur les antennes à plasma
• le développement d’un modèle analytique afin de proposer une description phénoménologique de la résonance plasmonique, phénomène physique à l’origine du rayonnement électromagnétique de l’antenne
• l’élaboration de dispositifs de mesure dédiés à la caractérisation des propriétés de cette antenne
• la mesure des performances de l’antenne plasma miniature ainsi que la mise en évidence expérimentale de ses propriétés de durcissement électromagnétique
• la mise en œuvre d’une stratégie pour modéliser numériquement cette antenne plasma miniature
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 26-11-2021
Levillayer Maxime
Voir le résumé
Voir le résumé
L’essor des satellites artificiels couvrant des applications de télécommunication et d’observation scientifique, ainsi que des besoins miliaires, requiert le développement de puissants systèmes d’alimentation électrique en milieu spatial.Ces systèmes reposent très majoritairement sur la conversion photovoltaïque et la technologie des cellules solaires à multi-jonction (MJSC).La structure standard de MJSC utilisée pour les applications spatiales est la tri-jonction GaInP/(In)GaAs/Ge. Afin d’augmenter le rendement de cette MJSC, il est nécessaire de mieux exploiter le proche infrarouge en remplaçant la souscellule de germanium ou en introduisant une 4e sous-cellule dont l’énergie de bande interdite est égale à 1 eV. Cette cellule doit avoir le même paramètre de maille que Ge ou GaAs et doit être capable de générer environ 15 mA/cm2 en condition d’intégration. De plus, il est indispensable que cette cellule soit résistante aux radiations spatiales afin de garantir une longue durée de vie de la structureMJSC.Dans le cadre de cette thèse, nous avons étudié le quaternaire InGaAsN pour répondre à ces exigences d’intégration MJSC et de tenue en milieu spatial. Nous avons commencé par faire croître des couches cellules solaires et des couches bulk d’InGaAsN par épitaxie par jets moléculaires (EJM). De nombreuses caractérisations matériaux nous ont permis de comprendre l’impact des conditions de croissance épitaxiale sur les propriétés opto-électroniques de l’InGaAsN et ainsid’optimiser notre procédé de fabrication.Des cellules solaires ont par ailleurs été fabriquées en salle blanche (lithographie, métallisation, gravure) avant d’être caractérisées par mesure courant tension et réponse spectrale. En conditions d’intégration MJSC, nos cellules pourraient générer des densités de courant environ égales à 8 mA/cm2. L’intégration de ces cellules au sein d’une structure tandem GaAs/InGaAsN a par ailleurs étédémontrée. Des cellules solaires InGaAsN ainsi que des échantillons pour la photoluminescence (PL) et la spectroscopie de défauts profonds (DLTS) ont par la suite été irradiés sous électrons et protons 1 MeV. La comparaison des caractéristiques matériaux et cellules avant et après irradiation nous a permis d’analyser les mécanismes de dégradation ayant lieu dans l’InGaAsN. Globalement, les cellules solaires d’InGaAsN apparaissent plus résistantes aux irradiations électroniques et protoniques que les cellules de GaAs.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 07-10-2021
Miraglio Thomas
Voir le résumé
Voir le résumé
Les pressions climatiques et anthropiques croissantes font des écorégions méditerranéennes, des réservoirs exceptionnels de biodiversité, certains des écosystèmes les plus menacés. Les méthodes de télédétection aéroportée et satellitaire, qui peuvent permettre d'obtenir des estimations sur de vastes étendues de façon régulière, sont particulièrement adaptée aux futurs efforts globaux de suivi de la biodiversité végétale. Cependant, de nombreuses difficultés survienne quand les écosystèmes imagés sont composés de canopées ouvertes, particulièrement présentes dans les régions au climat méditerranéen. Cette thèse a pour objectif de développer des méthodes d'estimation de traits de végétation de canopées ouvertes, quand les connaissances terrains sont insuffisantes pour directement calibrer des modèles de régression. Initialement, des images aéroportées acquises avec un GSD de 18 m ont été utilisées. En utilisant le modèle DART, une modélisation simplifiée des forêts, avec des couronnes ellipsoïdales et un sol plat lambertien, a été démontrée suffisante pour réaliser des estimation de LAI et de contenus en pigments foliaires par méthode physique. Ensuite, des travaux exploratoires ont été menés pour identifier une méthode permettant d'estimer EWT et LMA de façon satisfaisante, tout d'abord en considérant des raffinements dans les pas d'échantillonnages utilisés pour générer les bases de données, puis en évaluant l'influence de la modélisation en 3D au sein de DART sur les propriétés radiatives des arbres. Enfin, les différents résultats ont été utilisés pour estimer plusieurs traits de végétation (fraction de trous, contenus foliaires en chlorophylles et caroténoïdes, EWT, LMA) à partir d'images hyperspectrales satellitaires synthétiques ayant des GSD de 8 m et 30 m en utilisant un méthode hybride. Cette thèse a démontré que les méthodes physiques et hybrides étaient adéquates pour l'estimation de plusieurs traits de végétation à partir d'images hyperspectrales satellitaires ayant des GSD de 8 à 30 m dans un contexte opérationnel, n'utilisant que peu ou pas de connaissances a priori. Pour consolider les résultats, de plus amples travaux sont nécessaires pour tester ces méthodes sur différents écosystèmes qui présenteraient plus de diversité, et pour d'autres traits de végétation. De plus, identifier des méthodes d'estimation pour les périodes où le sous-bois est photosynthétiquement actif serait nécessaire pour suivre les forêts tout au long du cycle phénologique annuel.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 23-07-2021
Salgado Sandra
Voir le résumé
Voir le résumé
L’essor de la télédétection optique a permis des avancées majeures dans notre compréhension du fonctionnement de notre Terre, avec des applications terrestres, maritimes et météorologiques. Reposant sur l’exploitation d’un rayonnement électromagnétique, les capteurs enregistrent le signal de la scène en trois dimensions : deux dimensions spatiales et une dimension spectrale. On obtient ainsi une signature spectrale en chaque point de l’image. Parmi les capteurs optiques, les capteurs hyperspectraux sensibles dans le domaine du visible à l’infrarouge courte longueur d’onde (0.4-2.5 µm) permettent d’acquérir le signal incident dans un grand nombre de bandes spectrales, étroites et contiguës. Le signal enregistré est composé de plusieurs contributions radiatives issues de la surface, mais également de l’atmosphère. Une étape de correction atmosphérique est alors nécessaire afin de s’affranchir des effets de l’atmosphère et de remonter aux propriétés intrinsèques de la surface : la réflectance de surface. Cette étape est aujourd’hui très bien maîtrisée en condition de ciel clair. Or les nuages recouvrent environ les deux-tiers de la surface terrestre, modifiant les effets radiatifs sur la scène par rapport au ciel clair et rendant la correction atmosphérique plus complexe.L’objectif de cette thèse est de proposer une méthode de correction atmosphérique en présence de nuages à partir d’une unique image hyperspectrale.Deux méthodes de correction atmosphériques sont étudiées selon le type de nuages : Les nuages semi-transparents de type cirrus fins, dont une partie du signal issu de la surface est accessible. Les nuages opaques, caractérisés par une transmission nulle. En revanche, leur présence provoque des ombres portées, dans lesquels une information de la surface est toujours présente. Une correction est alors envisageable à l’ombre de ces nuages.Cette thèse est divisée en deux parties : une première partie consacrée aux cirrus, et une seconde aux ombres des nuages opaques.En préliminaire, une étude phénoménologique du comportement radiatif de ces deux types de nuage a été menée. Les modèles actuels ne considérant que des nuages homogènes infinis, une modélisation spécifique à des nuages épars a été développée afin de simuler de nouvelles situations nuageuses : nuage sur le trajet soleil-surface, nuage sur le trajet surface-capteur. Ces simulations nous ont permis d’analyser leurs comportements radiatifs et d’extraire, en particulier pour les cirrus, des relations permettant de remonter à certaines de leurs propriétés telles que l’épaisseur optique et la transmission.Ces différentes configurations adaptées aux cirrus ont permis d’évaluer les performances du modèle de correction atmosphérique en présence de cirrus proposé par Gao et Li (2017), d’identifier leurs limitations et de proposer des améliorations. Notre évaluation a été réalisée sur plusieurs couples d’images satellites (nuageuse et ciel clair de référence) et montrent des améliorations significatives de 50 % lorsqu’un cirrus est présent sur le trajet soleil-sol.Quant aux ombres des nuages opaques, il a, dans un premier temps, été effectué une analyse phénoménologique sur diverses images afin d’avoir une meilleure compréhension du signal reçu au niveau du capteur. Dans un second temps, comme pour le cirrus, un modèle de correction des ombres présent dans la littérature a été validé sur un couple d’images et diverses surfaces, permettant également d’établir des limites au modèle.Des perspectives de travaux futurs sont ensuite évoquées.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 23-06-2021
Doyen Célestin
Voir le résumé
Voir le résumé
Dans un contexte très concurrentiel et riche d’innovations, il est crucial de pouvoir évaluer les performances des capteurs de manières précises. Pour ce faire deux supports de caractérisation sont envisageables : le capteur complet ou les structures de test. Sur le capteur complet sont extraits des paramètres dans un environnement et des conditions proches de l’application. Les structures de test, elles, permettent de ne s’intéresser qu’à une zone spécifique d’un pixel et de pouvoir étudier les phénomènes physiques en jeu et dissocier les différentes contributions possibles à un paramètre pixel étudié. Une meilleure compréhension de ce même paramètre extrait sur capteur complet est alors possible. De plus elles facilitent l’étude de différents essais de procédés en début de développement. Les travaux de cette thèse proposent de nouvelles méthodologies de mesure et de caractérisation de paramètres sur structures de test complémentaires à ce qui se fait sur un capteur complet. Dans ce manuscrit sont développées notamment de nouvelles structures de test afin d’étudier la contribution de l’interface arrière de pixels BSI au courant d’obscurité. Une nouvelle méthode d’extraction de potentiels est également présentée et permet l’extraction d’une multitude de potentiels d’intérêts présents dans les pixels. Enfin une nouvelle méthode d’extraction de la charge à saturation sur structures de test est proposée.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 21-01-2021
Pace Federico
Voir le résumé
Voir le résumé
L’imagerie à haute-vitesse sans distorsions spatiales est devenue cruciale pour une large gamme d’applications comme la vision industrielle, la reconnaissance du mouvement et l’imagerie de la Terre depuis l’espace. La technologie d’imagerie CMOS a donc évolué vers une modalité de prise de vue appelée « snapshot », grâce au développement des Capteurs d’Image à Obturation Globale. Néanmoins, ce type d’imageurs présente une dégradation des performances due à une sensibilité à la lumière parasite non-négligeable du Nœud de Stockage, qui en limite l’exploitation. Bien que beaucoup de travaux aient été consacrés à la réduction de la Sensibilité à la Lumière Parasite, il existe des interrogations et des manquements relatifs à la caractérisation et la modélisation de cette figure de mérite.Ces travaux s’intéressent au développement d’un cadre pour la modélisation, la caractérisation et l’atténuation de la Sensibilité à la Lumière Parasite dans les imageurs CMOS à Obturation Globale.Le cadre se base sur le développement d’une métrique pour la caractérisation, d’une méthode de simulation et de différentes méthodes de correction en post-traitement dans le but de faire émerger des recommandations pour la conception et d'augmenter les performances des imageurs de manière efficace et peu coûteuse.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 15-12-2020
Grosjean Eudes
Voir le résumé
Voir le résumé
La contamination moléculaire des satellites est un phénomène de pollution des surfaces des satellites en orbite. Elle désigne la formation de dépôts de molécules indésirés qui peuvent modifier les propriétés des surfaces des composants qui en sont sensibles. Ces molécules sont issues des matériaux du satellite, de l’activité humaine et de la propulsion. Les performances des composants sensibles, généralement optiques ou thermiques, peuvent être dégradées jusqu’à entrainer une perte de fonctionnalité. La contamination moléculaire peut alors mettre en péril les objectifs de la mission spatiale. Pour garantir le succès de la mission, il est alors nécessaire de maîtriser les niveaux de contaminants. La quantification des dépôts moléculaires pendant la phase de conception repose sur des prédictions à l’échelle de la mission spatiale. Chaque molécule qui constitue les dépôts possède ses propres propriétés de dégazage, d’adsorption et de réémission. L’identification et la détermination de la contribution des molécules qui constituent un mélange, appelée séparation des espèces, est nécessaire pour pouvoir réaliser des prédictions fiables. Les techniques standards de caractérisation actuelles de la contamination, utilisées pour obtenir les paramètres numériques des modèles, se basent majoritairement sur des analyses thermogravimétriques de microbalances à quartz (ATG). Bien que les cinétiques de réémission des molécules soient différentes suivant leur nature chimique, elles sont thermiquement proches. La séparation obtenue par analyses thermogravimétriques est incomplète car les signaux des différentes espèces se chevauchent. Cela induit une incertitude sur les paramètres numériques, et peut entraîner des erreurs de plusieurs ordres de grandeurs sur les niveaux de contamination prédits. Pour résoudre ce problème, l’ONERA a développé une méthode de séparation basée sur le couplage in situ et en temps réel d’analyses thermogravimétriques et d’un spectromètre de masse (ATG/SM). Son objectif est d’obtenir avec plus de précision les contributions de chaque espèce dans le mélange, afin de réduire les incertitudes générées sur les paramètres numériques et les erreurs commises sur les prédictions des niveaux de contamination. Ces informations permettent également d’avoir un regard neuf sur la physique qui régit la contamination. Les travaux de la présente thèse s’inscrivent dans la continuité de cette démarche de développement de la méthode ATG/SM avec pour objectif de caractériser les molécules les moins volatiles, pourtant les plus dangereuses en orbite. La première mission ont consisté à augmenter les capacités de génération de données de spectrométrie de masse à haute température. Les travaux se sont ensuite orientés vers le développement de la régulation thermique du porte-échantillon et l’augmentation de la sensibilité du spectromètre de masse. Grâce au développement d’un nouveau traitement de données, cette étude a permis de réaliser une séparation complète du matériau spatial Scotchweld EC2216.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-12-2020
Lemiere Kevin
Voir le résumé
Voir le résumé
Les capteurs d’image embarqués à bord des satellites, également appelés imageurs, jouent un rôle crucial pour le bon déroulement des missions spatiales. Cependant, ces matrices de pixels sont sensibles aux particules énergétiques issues des diverses sources de rayonnement de l’environnement spatial. Dans certains cas, les interactions entre le rayonnement énergétique et la matière modifient la structure cristalline du semi-conducteur qui compose la zone sensible du pixel. Par la suite, les défauts cristallins produits lors de l’irradiation vont se réorganiser pour former des entités électriquement actives et stables dans le temps. Ces défauts, également appelés pièges, vont contribuer à augmenter le signal parasite intrinsèque à chaque pixel : le courant d’obscurité. Après irradiation et sans exposition lumineuse, une augmentation de l’amplitude moyenne du courant d’obscurité ainsi que sa disparité entre chaque pixel est observée. La distribution des courants d’obscurité (également appelée « DarkCurrent Non Uniformity » en anglais, abrégé DCNU) évolue dans le temps avec le niveau d’irradiation.La thèse vise à apporter des éléments de compréhension pour améliorer l’estimation de l’augmentation du courant d’obscurité après irradiation. Les travaux de recherches menés au cours de cette thèse se focalisent en grande partie sur la prédiction du nombre et de l’intensité des pixels fortement dégradés, car ce sont les plus pénalisants pour le fonctionnement nominal d’un imageur. La méthode de prédiction des distributions de courant d’obscurité post-irradiation développée par l’ONERA (DAAN) a été améliorée par l’adjonction de nouveaux modèles.La démarche des travaux de thèse a consisté dans un premier temps à améliorer la prise en compte des effets du champ électrique sur le taux de génération de paires électron-trou des défauts électriquement actifs. En première approximation, les mécanismes physiques liés à l’influence du champ électrique étaient modélisés en une dimension. Cependant, une telle modélisation est connue pour surestimer l’impact du champ électrique sur le courant d’obscurité. C’est pourquoi nous avons développé un modèle original d’effets de champ électrique en trois dimensions. Ce nouveau modèle permet de réduire l’amplitude des effets du champ électrique sur le taux de génération de paires électron-trou, et par extension sur le courant d’obscurité.La méthode de prédiction originale utilise le facteur de dommage universel. Ce coefficient empirique représente une dégradation moyenne, et masque les phénomènes de réorganisation qui se mettent en place au cours du temps. C’est pourquoi dans un second temps, un modèle de réorganisation des défauts dans la matière cristalline a été développé. Ce modèle repose sur un algorithme de type Kinetic Monte Carlo (KMC) optimisé par méthode dite « octree ». D’une part cet outil a pour but d’estimer la population type de pièges présente après des temps longs de guérison. D’autre part, cet algorithme est utilisé pour évaluer le nombre de défauts qui ont guéri au cours du temps par rapport à l’état initial. En première approximation, une répartition uniforme de ces défauts dans le volume de simulation est considérée à l’état initial.Dans un dernier temps, les cascades de dommage sont modélisées avec GEANT4 puis sont traitées par notre outil KMC pour estimer de manière la plus réaliste possible les processus de guérison.Les taux de guérison obtenus sont en accord avec la littérature. Ces informations sont ensuite utilisées dans l’outil de prédiction des courants d’obscurité, ce qui permet de s’affranchir de l’utilisation du facteur de dommage universel et d’estimer de manière la plus réaliste possible l’augmentation du courant d’obscurité après irradiation. Cette chaîne de modélisation simule des distributions de courant d’obscurité proches des mesures expérimentales. Nous proposons de cette manière une méthode analytique alternative au facteur de dommage universel.
|
Texte intégral
|
|