Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 13-03-2021
Bieder Corinne
Voir le résumé
Voir le résumé
Le SGS (Système de Gestion de la Sécurité) est présenté dans l'aviation comme l'approche la plus prometteuse pour améliorer la sécurité. Pourtant, son efficacité perçue en tant qu'approche de management de la sécurité est mitigée. Cette thèse explore comment le SMS a été adopté dans l'aviation dans les années 2010, comme un changement radical dans le management de la sécurité et un moyen de réduire les occurrences d'accidents. Plus précisément, deux questions sont abordées : Comment le SGS de l'aviation tient-il ses promesses en matière de sécurité ? Comment le SGS a-t-il atterri dans l'aviation ?Sur la base d'une revue de littérature et d'une analyse des guides et outils pour le SGS produits par les autorités de l'aviation civile de trois régions représentatives, différentes philosophies du SGS sont mises en évidence : d'une approche basée sur la conformité, s'appuyant fortement sur une customisation minimale de documents génériques mis à disposition par les autorités, à une approche réflexive amenant les organisations aéronautiques à réfléchir sur leurs propres pratiques et à proposer leurs propres mesures pour gérer au mieux la sécurité.Une analyse critique de la manière dont le SGS tient ses promesses est alors effectuée. Elle passe en revue des raccourcis conceptuels (ex : confusion entre sécurité et SGS ; assimilation de la sécurité à la gestion des risques), les écueils méthodologiques, et les biais introduits par la mise en œuvre pratique du SGS.Pourtant, malgré ces limites, le SGS a été massivement adopté dans les industries à haut risque. Une recherche complémentaire s’imposait pour dépasser ce constat. Elle a été réalisée au moyen d'une approche socio-historique combinant l'analyse de traces écrites et l'interview de 18 ‘anciens’ du management de la sécurité déjà acteurs du domaine au moment de l'émergence et de la diffusion du SGS (fin des années 70 à 90 essentiellement). Cette analyse met en évidence les motivations des différents acteurs de la sécurité à changer d’approche de management de la sécurité, allant de l'amélioration de la performance globale, à des enjeux de responsabilité et de transparence. Elle souligne également le rôle du contexte global dans la convergence vers une approche de type SGS, en particulier : l'élan sociétal vers le New Public Management basé sur la gestion des risques et les audits généralisés ; la diffusion des systèmes de management de la qualité dans l’industrie. Enfin, l’histoire des idées autour du management de la sécurité est explorée. Elle souligne le rôle des communautés, en particulier des communautés de pratique au sein des industries, des communautés d'utilisateurs et des communautés scientifiques, ainsi que celui de certains individus et mécanismes qui ont favorisé la transversalité entre communautés. Au final, le SGS s'avère être l'émanation d'un contexte complexe mêlant de multiples aspects interdépendants.Ces constats conduisent à proposer trois voies à explorer, allant crescendo dans leur décalage avec les pratiques actuelles : 1/ Une extension du cadre, de l’horizon temporel et de la portée de l'analyse des risques, et des méthodes de travail plus inclusives dans le processus de gestion des risques ; 2/ Une extension de la définition de la sécurité au-delà de la gestion des risques reconnaissant l'incertitude, et le développement de capacités à faire face aux inévitables imprévus. Cela implique une flexibilité des modes d’action et de décision pour s’adapter aux situations et par suite, une évolution des modèles de gouvernance vers des modèles plus contextualisés et plus inclusifs ; 3/ Dépasser le périmètre de la sécurité pour mieux la manager, en appréhendant la complexité du contexte global et les multiples enjeux avec lesquels elle interagit. Par ailleurs, aborder la question des enjeux multiples sous un angle favorisant les synergies entre eux plutôt les tensions. Cela passe notamment par une révision des modes de gouvernance et structures organisationnelles.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 23-03-2022
Casadei Loris
Voir le résumé
Voir le résumé
Le bruit de choc du rotor est aujourd'hui une des principales sources de bruit des moteurs d'avions dans les conditions de décollage et de montée. Le contrôle et la réduction de cette source de bruit sont d'une importance primordiale pour les avionneurs pour se conformer aux réglementations internationales et améliorer le confort des passagers. Des outils de simulation haute fidélité sont nécessaires pour son étude, avec prise en compte de tous les effets géométriques et d'écoulement 3D ainsi que la modélisation des traitements acoustiques incorporés dans les parois de l'entrée d'air de nacelle. Les solveurs Euler et Navier-Stokes proposent des solutions pour calculer la propagation non linéaire des fluctuations de pression de forte amplitude des chocs créés par les rotors dans l'entrée d'air. Cependant, la modélisation des revêtements acoustiques dans ces solveurs reste un défi de l'acoustique numérique moderne, en raison de leur appartenance naturelle au domaine fréquentiel. Le présent travail se concentre sur la validation et l'extension de la condition limite d'impédance dans le domaine temporel (TDIBC) basée sur la Représentation Oscillo-Diffusive (ODR) et son implémentation dans un solveur CFD industriel. L'ODR s'est déjà avéré être un outil mathématique performant pour traduire l'opérateur d'impédance (ou de reflection) dans le domaine temporel.Un développement numérique dans un formalisme Navier-Stokes Characteristic Boundary Condition (NSCBC) a permis l'implémentation de ce modèle temporel dans le solveur Navier-Stokes à volumes finis elsA. Les validations de cette méthodologie sont réalisées par rapport à des données acoustiques issus de la littérature et de mesures expérimentales industrielles. Ils ont tous démontré que la nouvelle TDIBC est correctement implémentée dans le solveur CFD et prouvé son efficacité en termes de temps de calcul et stabilité numérique. Enfin, une application à la propagation et à l'atténuation des ondes de choc créées par les rotors dans une entrée d'air traiteé est proposée.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace, Macquarie University (Sydney, Australie)
/ 17-03-2022
Dehez Clementi Marina
Voir le résumé
Voir le résumé
En 2016, le nombre de décès dus aux accidents de la route atteignait 1,35 million, et ces accidents sont souvent imputable à l’erreur humaine. L'expansion technologique d'Internet et des réseaux interconnectés facilitent l'échange d'informations, parfois vitales. C'est pourquoi beaucoup de travaux ont été produit sur l'automatisation des véhicules. L’amélioration de la sécurité routière est l'un des facteurs qui motive la recherche dans ce domaine et pousse vers l’adoption de systèmes de transport intelligents (ITS) et de réseaux véhiculaires ad hoc (VANET).Un VANET est défini comme un réseau ad-hoc particulier, formé de véhicules capables de communiquer et de traiter l’information reçue, et évoluent en milieu urbain (rues ou autoroutes). Les véhicules peuvent communiquer directement, de pair à pair, ou via un nœud intermédiaire.L'objectif principal de la sécurité des VANETs et des communications véhiculaires est de fournir l'intégrité des messages échangés et la disponibilité des services qui supportent ces échanges. La protection de la confidentialité de ce qu'ils contiennent est un objectif secondaire car non vital. Assurer la responsabilité, c'est-à-dire proposer un moyen d'identifier les entités communicantes et de les tenir responsables pour les messages qu’ils diffusent, est essentiel voire légalement obligatoire. Ce mécanisme doit garantir que tout nœud qui subit une faute, panne ou agit de façon malveillante, soit identifié, révoqué, finalement puni pour ses actions et leurs conséquences. Cependant, un tel mécanisme d'identification pose un problème et risque de compromettre la vie privée des utilisateurs, même lorsqu'ils sont honnêtes.Cette thèse porte sur le délicat compromis entre anonymat et traçabilité dans systèmes distribués tels que les ITSs. Nous étudions l'utilisation des blockchains (chaînes de blocs) dans la construction de primitives cryptographiques à seuil. Ces primitives sont utilisées afin de préserver la vie privée mais aussi la responsabilité des acteurs et étudiées dans leur application au cas des VANETs.Notre première contribution, appelée DOGS, est un schéma de signature de groupe basé sur la blockchain qui propose la fonctionnalité d'ouverture distribuée. Nous montrons, dans cette thèse, que le système améliore un schéma de signature de groupe existant et exploite un protocole de génération de clé distribuée pour répartir le rôle de l'ouvreur (Opener) sur un ensemble de nœuds appelés les sous-ouvreurs (sub-openers).Notre deuxième contribution est une génération de clé distribuée anonyme mais traçable, appelé BAT-Key, qui utilise une blockchain pour assurer la confiance entre les différentes entités qui composent le système. Dans la suite de la thèse, nous expliquons comment nous avons amélioré les protocoles traditionnels avec la propriété d'anonymat qui protège l'identité des participants.Notre troisième contribution, appelée TOAD, est un schéma de chiffrement à seuil basé sur la blockchain avec un service de déchiffrement anonyme mais traçable. Nous montrons que le schéma s'appuie sur un schéma de chiffrement à seuil connu et l’améliore par un processus de déchiffrement collaboratif qui protège l'identité des serveurs de déchiffrement.Tout au long des chapitres, nous expliquons comment l'utilisation de la blockchain garantit la traçabilité des actions effectuées au sein du système par des nœuds anonymes et assure ainsi leur responsabilité tout en préservant la vie privée.Ces schémas sont de la plus haute importance dans l'ère du numérique, même en dehors du domaine des ITSs. Pourtant, nous avons choisi d'illustrer leur importance dans le contexte des VANETs à travers notre dernière contribution : la description de notre construction d'un système de rapport de trafic routier basé sur la blockchain qui préserve l’anonymat des nœuds qui rapportent les informations, mais les tient pour responsables de leurs messages en cas de litige.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 16-03-2022
El Masri Maxime
Voir le résumé
Voir le résumé
De nombreuses disciplines scientifiques s’intéressent à l’estimation d’espérances d’une fonction d’intérêt selon une certaine loi de probabilité. Cette fonction peut être considérée comme une boite noire, potentiellement couteuse à évaluer. Une méthode couramment utilisée pour estimer des espérances, tout en limitant le nombre d’appels à la boite noire, est la méthode stochastique d’échantillonnage préférentiel (Importance Sampling, IS) qui consiste à échantillonner selon une loi de probabilité auxiliaire au lieu de la loi initiale. L’estimateur d’IS est défini à partir de l’estimateur de Monte-Carlo, avec des poids d’importance, et converge presque sûrement vers l’espérance voulue, par la loi des grands nombres. Cependant, sa variance, et donc la précision de l’estimation, dépend fortement du choix de la densité auxiliaire. Une densité optimale d’échantillonnage préférentiel minimisant la variance peut être définie sur le plan théorique mais n’est pas connue en pratique. Une possibilité est alors de choisir la densité auxiliaire dans une famille paramétrique, avec la-quelle il est facile de générer des échantillons, afin d’approcher la distribution optimale théorique. Des algorithmes adaptatifs (Adaptive Importance Sampling, AIS), qui estiment les paramètres de manière itérative, ont été développés pour trouver les paramètres optimaux permettant d’approcher la densité théorique visée. Mais lorsque la dimension de l’espace des paramètres augmente, l’estimation des paramètres se dégrade et les algorithmes d’AIS, et l’IS en général, deviennent inefficaces. L’estimation finale de l’espérance devient alors très imprécise, notamment du fait de l’accumulation des erreurs commises dans l’estimation de chaque paramètre. L’objectif principal de cette thèse est ainsi d’améliorer la précision de l’IS en grande dimension, en réduisant le nombre de paramètres estimés à l’aide de projections dans un sous-espace de petite dimension. Nous nous concentrons particulièrement sur la recherche de directions de projection influentes pour l’estimation de la matrice de covariance dans un cadre gaussien unimodal (où l’on met à jour le vecteur moyenne et la covariance). La première piste explorée est la projection sur le sous-espace de dimension un engendré par la moyenne optimale. Cette direction est particulièrement pertinente dans le cas d’estimation d’une probabilité d’événement rare, car la variance semble diminuer selon cette direction. La seconde proposition correspond à la projection optimale obtenue en minimisant la divergence de Kullback-Leibler avec la densité visée. Cette seconde proposition permet de projeter dans un espace de plusieurs dimensions contrairement à la première, et permet d’identifier les directions les plus influentes. Dans un premier temps, l’efficacité de ces projections est testée sur différents exemples d’estimation d’espérances en grande dimension, dans un cadre théorique n’impliquant pas d’algorithmes adaptatifs. Les simulations numériques réalisées montrent une nette amélioration de la précision de l’estimation par IS avec les deux techniques de projection sur tous les exemples considérés. Ensuite, nous proposons un couplage de ces projections avec l’algorithme d’Entropie Croisée (Cross Entropy, CE), un algorithme d’AIS destiné à l’estimation de probabilités d’événements rares. L’efficacité de ces algorithmes est vérifiée sur plusieurs cas-tests avec un faible budget de simulation. La technique basée sur la projection dans les directions optimales permet d’obtenir des estimations très précises pour des dimensions modérément grandes (plusieurs dizaines). Le couplage avec la projection sur la moyenne reste en revanche performante dans des dimensions de quelques centaines dans la plupart des exemples. Dans tous les cas, les simulations montrent que les méthodes proposées sont plus précises que la CE classique en grande dimension avec un même budget.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 15-02-2022
Erdmann Simon
Voir le résumé
Voir le résumé
Supposons qu'on image en transmission ou en rétrodiffusion un milieu éclairé en lumière cohérente. Supposons également que ce milieu est tel que la phase du champ rétrodiffusé apparaît en tout point comme aléatoire. On obtient alors un motif également aléatoire constitué de grains: du speckle.Si, de plus, le milieu varie au cours du temps, le signal de speckle fluctue également. Imager certaines statistiques temporelles du signal peut alors permettre d'imager le mouvement: c'est l'objet de l'imagerie de speckle dynamique. Ses applications sont nombreuses : étude de suspensions colloïdales, de séchage de peinture, imagerie médicale. Elle s'appuie souvent sur l'autocorrélation temporelle du signal: la forme de cette dernière renseigne sur le type de mouvement, et son temps caractéristique de décroissance est lié à la vitesse de fluctuation du milieu.Cependant, faute de caméras suffisamment rapides, il a longtemps été impossible d'accéder directement à l'autocorrélation temporelle des signaux rencontrés expérimentalement. L'accès aux caractéristiques du mouvement n'était donc possible que via des méthodes indirectes, comme le contraste, assez imprécises et qualitatives. Toutefois, ces dernières années, la diffusion de plus en plus large de caméras haute cadence (jusqu'à plusieurs dizaines de kHz), a changé la donne. La voie s'est ainsi ouverte à un raffinement considérable des modèles et à des gains importants en précision et en rapidité de traitement.Une telle caméra a été utilisée dans le cadre de ces travaux de thèse. Elle a permis d'imager la vascularisation sous-cutanée sur des zones variées du corps humain. On a ainsi pu évaluer la pertinence de plusieurs paramètres pour imager qualitativement le mouvement: l'efficacité du premier terme de la fonction d'autocorrélation, par exemple, a été mise en évidence. Dans le même temps, on a aussi pu constater certaines limites du speckle dynamique que la très haute cadence ne permettait pas de lever. Ainsi, au-delà d'un certain seuil, augmenter la cadence n'apporte plus d'information, tandis que l'hypothèse de stationnarité du signal est ébranlée par les effets de la pulsation cardiaque. Ces limites ne remettent pas en question l'apport considérable de la haute cadence, mais illustrent à quel point il s'agit d'un changement de paradigme.Pour en prendre la pleine mesure et exploiter au maximum le gain en résolution temporelle permis par les caméras rapides, il est nécessaire, en parallèle des études expérimentales, d'affiner les modèles existants. C'est dans cette optique qu'un travail de modélisation et de simulation du système d'imagerie a été mené. Notre but était de relier le plus précisément possible un type de dynamique du milieu aux statistiques du signal obtenu. Ainsi, il a été possible de redémontrer rigoureusement et de nuancer des résultats tenus pour phénoménologiques dans la littérature, tels que certains modèles d'autocorrélation temporelle. Ces résultats fondent la possibilité, à terme, de remonter à des grandeurs physiques fiables à partir d'un signal de speckle dynamique.Enfin, comme les modèles inverses de speckle dynamique s'appuient sur des statistiques parfois complexes sur les signaux, il convient de s'assurer que celles-ci ne sont pas altérées par des traitements tiers. En particulier, beaucoup d'opérations de traitement du signal, notamment de rééchantillonnage (sur-échantillonnage, sous-échantillonnage, recalage) sont effectuées sans conscience des effets considérables qu'elles peuvent avoir sur les statistiques du signal. Un troisième axe de ces travaux a donc consisté à caractériser ces effets en fonction des méthodes utilisées. Il a par exemple été établi qu'un filtre passe-bas (préalable à un sous-échantillonnage) tend à générer d'autant plus de corrélation longue distance qu'il est resserré en fréquence --- et donc qu'il permet d'éviter l'aliasing. Le même type de résultat a été établi avec les méthodes d'interpolation.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-02-2022
Fabozzi Fabio
Voir le résumé
Voir le résumé
Dans cette thèse de doctorat, nous nous intéressons à l'estimation robuste de la phase de la porteuse en utilisant le filtrage bayésien variationnel. La mesure de la phase porteuse est devenue une tâche fondamentale dans de nombreuses applications d'ingénierie telles que le positionnement précis dans le domaine du GNSS. Malheureusement, les mesures de phase obtenues par les techniques traditionnelles de poursuite de phase peuvent être fortement mises à mal par la présence de sauts de phase ambigus, appelés sauts de cycle. Ces derniers peuvent durement impacter les performances des algorithmes de poursuite conduisant, dans le pire des cas, à une perte permanente de verrouillage du signal. Un processus de ré-acquisition est alors nécessaire qui affecte les performances de suivi. Par conséquent, pour résoudre ce problème, nous proposons un filtre non linéaire robuste de poursuite de phase basé sur l'inférence de Bayes variationnelle. Tout d'abord, l'algorithme est développé en supposant une dynamique lente de phase (c'est-à-dire la boucle au premier ordre), puis, son ordre est augmenté en estimant un vecteur d'état formé par la phase et ses dérivées. Les performances de ce nouvel algorithme sont comparées avec celles de techniques conventionnelles (tels que la DPLL (Digital Phase Lock Loop) et la KF (Kalman Filter)-DPLL) en terms de précision d'estimation et d'occurence de sauts de cycle. La comparaison est d'abord effectuée à l'aide de données synthétiques, puis de données GNSS réelles dans un récepteur radio logicielle GNSS. Les résultats montrent que la méthode proposée a de meilleures performances par rapport aux filtres linéaires conventionnels, lorsque le rapport signal sur bruit est faible.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace, Polytechnique Montréal
/ 07-05-2021
Fernandez Escudero Claudia
Voir le résumé
Voir le résumé
Les phénomènes aéroélastiques ont lieu lorsqu’une structure interagit avec un écoulement qui l’entoure et elles sont une des principaux facteurs qui limitent l’enveloppe de vol des avions.Cette interaction fluide-structure peut entraîner de l’endommagement structurel, immédiat ou du à la fatigue. Depuis le début de l'histoire aéronautique, l'aéroélasticité a toujours été un facteur important dans la conception des avions. De nos jours, les progrès de l'industrie aéronautique conduisent à la conception d'ailes plus efficaces, présentant généralement des géométries plus allongées et l'utilisation de matériaux plus légers et plus flexibles. Ces nouvelles ailes sont plus sujettes que jamais à un comportement aéroélastique, ce qui signifie que le contrôle aéroélastique reste un domaine d'étude important. De plus, les nouveaux designs des drones remettent en question l'aéroélasticité traditionnelle.L'objectif de ce travail est de présenter, analyser et tester une solution innovante qui contrôle le comportement aéroélastique d'une aile d'avion pour des conditions de vol plus sûres et / ou une enveloppe de vol élargie. La solution présentée est basée sur des absorbeurs secondaires utilisés à ce jour sur d'autres applications, comme les ponts suspendus. Le système de contrôle est passif, ce qui signifie qu’aucun apport d'énergie externe n'est requis. Le système est intégré dans l'aile par un volet qui oscille dans l’écoulement. Les avantages de ce volet sont que l'oscillateur secondaire est placé dans l’écoulement pout bénéficier d'un amortissement aérodynamique et qu'il ajoute une masse faible, ce qui est toujours une priorité en aéronautique. Le système de contrôle peut présenter une rigidité non linéaire le rendant efficace aux fréquences large bande. C'est une caractéristique importante car les fréquences de l'aile évolueront avec la vitesse du vent.Afin de présenter et valider ce dispositif de contrôle innovant dans le domaine complexe de l'aéroélasticité non linéaire, une double approche est suivie utilisant à la fois l'analyse expérimentale et des simulations numériques. Concernant l'approche expérimentale, deux bancs d'essais sont créés et testés en soufflerie: une aile bidimensionnelle et une aile tridimensionnelle.Le premier banc expérimental consiste en une configuration d'aile bidimensionnelle à deux degrés de liberté, avec un volet qui peut être bloqué ou débloqué comme troisième degré de liberté, agissant comme oscillateur secondaire. Cette maquette permet de réaliser une preuve de concept du système de contrôle et met en évidence les avantages des caractéristiques non linéaires par rapport à une version linéaire. On observe que l'aile bidimensionnelle présente du flottement classique par coalescence de ses deux modes structuraux. Lorsque le système de commande est débloqué, la vitesse de flottement augmente, ainsi élargissant l'enveloppe de vol. De plus, le système de commande montre de bonnes performances de dissipation des vibrations pendant le régime post-flottement, en particulier lorsqu'il est équipé d'une rigidité non linéaire.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 02-02-2022
Laffont Adrien
Voir le résumé
Voir le résumé
Gaz ionisés composés d’électrons, d’ions et de neutres, les décharges plasmas ont déjà démontré leur potentialité pour le développement de systèmes radiofréquences et micro-ondes. Plus particulièrement, le contrôle de la densité électronique et l’aspect allumage/extinction (mode ON/OFF) des décharges plasmas suscitent un intérêt croissant pour le développement d’antennes furtives reconfigurables en fréquence et/ou en diagramme de rayonnement. Ces antennes exploitent principalement deux comportements électromagnétiques des décharges plasmas, le comportement électrique, pour lequel la partie réelle de la permittivité relative du plasma est grandement négative, et le comportement diélectrique lorsque cette dernière est comprise entre 0 et 1.Récemment, un nouveau type d’antenne plasma miniature a été proposé et expérimentalement étudié en bande VHF [1]. Dans son utilisation, le plasma ne se comporte ni comme un bon conducteur électrique, ni comme un matériau diélectrique, mais comme un mauvais conducteur aussi appelé matériau ENG (Epsilon NéGatif). L’antenne consiste alors en un monopole miniature couplé à un résonateur ENG hémisphérique de dimension sub-longueur d’onde obtenu grâce à une décharge plasma. Les travaux présentés dans [1], issus d’une précédente thèse [2], permirent de mettre en évidence un phénomène de résonance associé à un rayonnement électromagnétique de l’antenne plasma miniature. La reconfigurabilité en fréquence de l’antenne a également été observée en modifiant la puissance électromagnétique communiquée au plasma et donc sa densité électronique.Dans ces travaux de thèse, nous poursuivons le développement de cette antenne plasma miniature. Plus spécifiquement, ce travail de recherche a pour but de :
• comprendre le phénomène physique opérant au sein du plasma à l’origine du rayonnement électromagnétique de l’antenne plasma miniature
• mettre en œuvre des dispositifs de mesure pour évaluer ses performances antennaires,
• étudier expérimentalement les propriétés potentielles de durcissement électromagnétique de l’antenne
• proposer une modélisation numérique de cette antenne non-standard.Au cours de cette thèse, les différents travaux de recherche ayant été menés afin de répondre aux objectifs sont :
• un état de l’art sur les antennes à plasma
• le développement d’un modèle analytique afin de proposer une description phénoménologique de la résonance plasmonique, phénomène physique à l’origine du rayonnement électromagnétique de l’antenne
• l’élaboration de dispositifs de mesure dédiés à la caractérisation des propriétés de cette antenne
• la mesure des performances de l’antenne plasma miniature ainsi que la mise en évidence expérimentale de ses propriétés de durcissement électromagnétique
• la mise en œuvre d’une stratégie pour modéliser numériquement cette antenne plasma miniature
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 08-04-2022
Lafont Victor
Voir le résumé
Voir le résumé
La réduction des nuisances sonores est un enjeu permanent pour les acteurs du transport aérien, notamment autour des aéroports. En particulier, le bruit de soufflante (fan noise) tient une place importante dans le bruit global de l’avion. Aussi, relativement à la réduction du bruit d'aéronef, sont développés des matériaux dits liners positionnés le long de la nacelle moteur. De par leur position à l'intérieur des nacelles de réacteurs, ces traitements acoustiques sont soumis à de forts niveaux sonores, à un écoulement rasant important, et à des gradients thermiques intenses.Cette étude a consisté à mettre en place une métrologie multi-physiques (acoustique, aérodynamique, thermique et turbulence) permettant de constituer une base de données expérimentales, afin d’améliorer la compréhension des phénomènes physiques en jeu et d’alimenter les modèles de conception de liners pour répondre aux nouveaux enjeux posés par l'implantation des liners dans les nacelles.Compte tenu de la complexité des phénomènes physiques mis en jeu, un effort important a été conduit pour disposer d'outils expérimentaux performants pour caractériser finement le couplage entre l'acoustique, la thermique et la turbulence. On associe donc des mesures microphoniques classiques permettant de déterminer le comportement acoustique des liners et des mesures par thermographie infrarouge pour caractériser leur réponse aérothermique. Une veine d'essai spécifique permettant d'intégrer ces différentes techniques de mesure a été réalisée, et une nouvelle méthode de détermination d'impédance acoustique a été développée afin de prendre en compte les effets aéroacoustiques. Une modélisation des phénomènes de transfert et de convection thermiques a ensuite permis de lier la réponse aérothermique au comportement acoustique des échantillons de liners sélectionnés pour l'étude.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 16-12-2021
Marchenay Yann
Voir le résumé
Voir le résumé
Lors de la rentrée atmosphérique d’un véhicule hypersonique, l’écoulement présente une onde de choc détachée enveloppant le véhicule et une couche limite visqueuse au voisinage de la paroi qui conduit à son échauffement. Dans les basses couches de l’atmosphère, l'écoulement évolue d'un régime laminaire à un régime turbulent en raison de l’augmentation du nombre de Reynolds. L’échauffement de la paroi conduit à la détérioration du matériau sous l’effet de l’ablation et de réactions chimiques susceptibles de modifier l’état de surface. Dans le cas d’un écoulement pleinement turbulent, l'effet des rugosités de paroi se traduit par une augmentation du frottement et des échanges de chaleur. Actuellement, on dispose de modèles avec différents degrés de sophistication et de validation qui reproduisent cet effet par augmentation de la turbulence en proche paroi. Concernant le soufflage en paroi, des modèles existent qui permettent de reproduire l'effet d'injection de fluide à la paroi sur le développement de la turbulence. L’objectif de cette thèse est de mettre au point un modèle permettant de tenir compte d'effets conjoints/couplés de rugosité et de soufflage adapté à des approches RANS (Reynolds Averaged Navier-Stokes) de la turbulence, par exemple modèle à deux équations de type k-ω;, dans le contexte d’écoulements hypersoniques. La thèse se déroulera en 3 ans dans le cadre d’une collaboration entre le CEA-CESTA (à proximité de Bordeaux) et l’ONERA-DMAE (Toulouse). Le déroulement se fera comme suit: - Tout d'abord une revue bibliographique la plus exhaustive possible sera entreprise sur la problématique des parois rugueuses avec soufflage. Cette revue doit aboutir à l'élaboration d'une base de données détaillée. On distinguera notamment les écoulements subsoniques incompressibles des écoulements supersoniques et hypersoniques. A partir de cette base de données, la seconde étape de la thèse sera la construction d'un modèle de rugosité/soufflage. - Dans un premier temps, on adoptera une approche avec un couplage faible entre les effets de rugosité et de soufflage. Ainsi, les modèles de rugosité actuels seront couplés à des conditions limites de soufflage pour voir dans quelle mesure une telle approche peut s'appliquer. - Ensuite, on considèrera des approches où les effets de soufflage, notamment sur la turbulence de proche paroi, seront pris en compte en supplément des effets de rugosités dans la formulation du modèle de turbulence. Enfin, on envisage le développement d'un modèle directement à partir de la base de données collectée, dans lequel les effets de rugosité et de soufflage sont fortement couplés. Les différents modèles identifiés seront développés dans un code de couche limite (code CLICET de l'ONERA) puis dans un solveur Navier-Stokes (code CEA). Une phase de validation sur des cas pertinents d'application sera ensuite menée.
|
Texte intégral
|
|