Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 07-12-2021
Schouler Marc
Voir le résumé
Voir le résumé
Pour le développement d’une nouvelle génération de satellites très basse orbite, il est fondamental de minimiser la traînée et les contraintes aérothermodynamiques afin de pouvoir se déplacer sur des orbites les plus basses possibles tout en garantissant l’intégrité de la charge utile. En parallèle, la loi d’opération spatiale de 2008 impose aux opérateurs français de limiter les risques liés aux débris spatiaux lors de leur désorbitation. De même, la conception de nouveaux véhicules de rentrée réutilisables nécessite une connaissance toujours plus aboutie des conditions de vol propres à une rentrée atmosphérique. L’atteinte de ces objectifs passe donc par la maîtrise de l’ensemble des contraintes aérodynamiques (coefficients de forces et de moments) et aérothermodynamiques (flux de chaleur pariétal) notamment à haute altitude. Les écoulements rencontrés en orbite basse et durant la première phase de rentrée atmosphérique sont des écoulements hypersoniques raréfiés en déséquilibre fort, de sorte que les méthodes de CFD traditionnelles basées sur l’hypothèse des milieux continus ne sont pas applicables. Dans ce cas, il convient d’utiliser des méthodes de résolution de l’équation de Boltzmann de type DSMC (Direct Simulation Monte-Carlo). Cependant, en raison du couplage fort existant entre la trajectographie, la forme de l’objet et l’écoulement, il est impossible d’élaborer une géométrie optimisée ni de simuler la rentrée atmosphérique complète avec des outils dits de « haute-fidélité ». L’objectif de cette thèse est donc de développer des modèles réduits en régime hypersonique raréfié capables de déterminer les coefficients aérodynamiques et le flux de chaleur pariétal d’une géométrie quelconque en des temps de calcul très faibles. Dans un premier temps, les phénomènes propres aux écoulements hypersoniques raréfiés ont été étudiés en considérant plusieurs rentrées véhiculaires pour lesquelles des données de vol ont été obtenues. Un ensemble de simulations DSMC avec le code SPARTA, a ainsi permis d’établir une stratégie pour le développement d’une nouvelle forme de modèles réduits. Deux modèles de krigeage ont d’abord été développés pour estimer les coefficients de pression et de flux de chaleur au point d’arrêt en fonction des conditions de vol. Ensuite, des réseaux de neurones profonds ont été entraînés pour calculer les distributions de pression, de frottement et de flux de chaleur en tout point d’un véhicule. Enfin, l’évaluation de ces modèles par comparaison aux méthodes par panneaux actuellement utilisées dans la majorité des codes de rentrée a mis en avant le meilleur niveau de précision des méthodes d’apprentissage. Un certain nombre de perspectives ont également été ouvertes quant à des voies d’améliorations futures.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-12-2021
Singh Gaganpreet
Voir le résumé
Voir le résumé
Le Manned-Unmanned Teaming (MUM-T) peut être compris comme une équipe coopérative de plusieurs agents : plusieurs véhicules aériens sans pilote (drones) et éventuellement plusieurs avions pilotés agissant ensemble dans des missions critiques. Par conséquent, une nouvelle perspective est proposée pour l'avenir de l'interaction humain-drone via une telle coopération en équipe, s'inscrivant dans le cadre de l'interaction à initiative mixte (MII). Dans ce contexte, nous considérons que l'agent humain (pilote) n'est pas un agent infaillible. Par exemple, des états mentaux dégradés pourraient diminuer les capacités de l'agent humain pendant l'exécution de la mission. Ainsi, dans ce travail de thèse, nous étudions des algorithmes de calcul physiologique et d'intelligence artificielle pour estimer l'état mental du pilote humain (par exemple, la charge mentale) lorsqu'il interagit avec une équipe de drones dans des conditions de mission difficiles, et ce, afin d'adapter l'interaction entre agents pour améliorer la performance globale.Ainsi, ce travail de thèse commence par la compréhension et l’évaluation les états mentaux des pilotes humains lorsqu'ils interagissent avec les drones. Nous avons développé un scénario employant une équipe humain-drones (MUM-T) dans une mission de recherche et de sauvetage, où les participants jouent le rôle d'un pilote coopérant avec trois drones. Dans une première campagne expérimentale, les missions ont été conçues pour induire des niveaux de charge mentale faibles et élevées, qui ont été évalués à l'aide de mesures subjectives, comportementales et physiologiques (i.e. métriques cérébrales, cardiaques et oculomotrices). Cette première campagne nous a permis (i) de caractériser la charge mentale à partir de signaux physiologiques, étant donné l'impact significatif de la charge mentale sur toutes les mesures ; et (ii) de proposer différentes chaînes de classification qui ont atteint une précision moyennes de classification allant de 75% pour la meilleure à 59,8% pour la moins bonne, en utilisant les caractéristiques cardiaques seules ou en combinaison avec les caractéristiques cérébrales et oculomotrices. Ensuite, sur la base de ces résultats, ce travail de thèse se concentre sur la construction d'un système de prise décision séquentielle qui est capable de surveiller l'état mental de l'homme à travers la sortie du classifieur et de sélectionner les actions appropriées pour adapter l'interaction dans le but de maximiser la performance humaine. Étant donné l'observabilité partielle de l'état mental humain et la nature non déterministe d'un tel système, nous avons construit ce travail dans le cadre des Processus Décisionels de Markov Partiellement Observable (POMDP). Les paramètres du modèle POMDP, qui vise à contrôler l'interaction, ont été approchés en utilisant toutes les données collectées lors de la première campagne expérimentale et les résultats de classification associés. Enfin, ce travail de thèse se termine par une deuxième campagne expérimentale, dont le but été l'évaluation d'une telle politique de contrôle de l'interaction basée sur modèle POMDP, en ce qui concerne la gestion de la performance et de la charge mentale. Dans cette campagne, tous les développements ont été intégrés et testés en ligne : extraction et traitement des caractéristiques physiologiques, estimation de l'état mental humain, et adaptation de l'interaction. Les résultats subjectifs obtenus ont montré que les participants ressentaient une charge de travail significativement moindre lorsque l'approche adaptative était utilisée, par rapport à un système d'interaction non adaptatif. Cependant, les performances réalisées par les participants n’ont pas été significativement améliorées. Ces derniers résultats ont mis en évidence la nécessité d'affiner le modèle de prise de décision, en particulier pour améliorer la performance humaine et la performance globale de l'équipe, et ouvrent plusieurs perspectives de recherche.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 23-07-2021
Salgado Sandra
Voir le résumé
Voir le résumé
L’essor de la télédétection optique a permis des avancées majeures dans notre compréhension du fonctionnement de notre Terre, avec des applications terrestres, maritimes et météorologiques. Reposant sur l’exploitation d’un rayonnement électromagnétique, les capteurs enregistrent le signal de la scène en trois dimensions : deux dimensions spatiales et une dimension spectrale. On obtient ainsi une signature spectrale en chaque point de l’image. Parmi les capteurs optiques, les capteurs hyperspectraux sensibles dans le domaine du visible à l’infrarouge courte longueur d’onde (0.4-2.5 µm) permettent d’acquérir le signal incident dans un grand nombre de bandes spectrales, étroites et contiguës. Le signal enregistré est composé de plusieurs contributions radiatives issues de la surface, mais également de l’atmosphère. Une étape de correction atmosphérique est alors nécessaire afin de s’affranchir des effets de l’atmosphère et de remonter aux propriétés intrinsèques de la surface : la réflectance de surface. Cette étape est aujourd’hui très bien maîtrisée en condition de ciel clair. Or les nuages recouvrent environ les deux-tiers de la surface terrestre, modifiant les effets radiatifs sur la scène par rapport au ciel clair et rendant la correction atmosphérique plus complexe.L’objectif de cette thèse est de proposer une méthode de correction atmosphérique en présence de nuages à partir d’une unique image hyperspectrale.Deux méthodes de correction atmosphériques sont étudiées selon le type de nuages : Les nuages semi-transparents de type cirrus fins, dont une partie du signal issu de la surface est accessible. Les nuages opaques, caractérisés par une transmission nulle. En revanche, leur présence provoque des ombres portées, dans lesquels une information de la surface est toujours présente. Une correction est alors envisageable à l’ombre de ces nuages.Cette thèse est divisée en deux parties : une première partie consacrée aux cirrus, et une seconde aux ombres des nuages opaques.En préliminaire, une étude phénoménologique du comportement radiatif de ces deux types de nuage a été menée. Les modèles actuels ne considérant que des nuages homogènes infinis, une modélisation spécifique à des nuages épars a été développée afin de simuler de nouvelles situations nuageuses : nuage sur le trajet soleil-surface, nuage sur le trajet surface-capteur. Ces simulations nous ont permis d’analyser leurs comportements radiatifs et d’extraire, en particulier pour les cirrus, des relations permettant de remonter à certaines de leurs propriétés telles que l’épaisseur optique et la transmission.Ces différentes configurations adaptées aux cirrus ont permis d’évaluer les performances du modèle de correction atmosphérique en présence de cirrus proposé par Gao et Li (2017), d’identifier leurs limitations et de proposer des améliorations. Notre évaluation a été réalisée sur plusieurs couples d’images satellites (nuageuse et ciel clair de référence) et montrent des améliorations significatives de 50 % lorsqu’un cirrus est présent sur le trajet soleil-sol.Quant aux ombres des nuages opaques, il a, dans un premier temps, été effectué une analyse phénoménologique sur diverses images afin d’avoir une meilleure compréhension du signal reçu au niveau du capteur. Dans un second temps, comme pour le cirrus, un modèle de correction des ombres présent dans la littérature a été validé sur un couple d’images et diverses surfaces, permettant également d’établir des limites au modèle.Des perspectives de travaux futurs sont ensuite évoquées.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 30-06-2021
Sáez Mischlich Gonzalo
Voir le résumé
Voir le résumé
Les méthodes numériques d’ordre élevé se sont avérées être un outil essentiel pour améliorer la précision des simulations concernant des écoulements turbulents par la résolution des lois de conservation. Ces écoulements se trouvent dans une grande variété d’applications industrielles et leur prédiction et modélisation est cruciale pour améliorer l’efficacité des procès. Cette thèse met en oeuvre et analyse différents types de schémas de discrétisation spatiale d’ordre élevé pour des maillages non structurés afin d’évaluer et de quantifier leur précision dans les simulations d’écoulements turbulents. En particulier, les méthodes de volumes finis (FVM) d’ordre élevé basées sur les opérateurs de déconvolution des moindres carrés et entièrement contraints sont considérées. De plus, leur précision est évaluée par une analyse analytique et pour des cas linéaires et non linéaires. Une attention spéciale est portée à la comparaison des FVM de second ordre et d’ordre élevé, montrant que la première peut surpasser la seconde en termes de précision et de performance de calcul dans des configurations sous-résolues. Les méthodes d’éléments spectraux (SEM) d’ordre élevé, y compris Spectral Difference (SD) et Flux Reconstruction (FR), sont comparées dans différentes configurations linéaires et non linéaires. De plus, un solveur SD basé sur GPU est développé et ses performances par rapport `a d’autres solveurs basés sur CPU seront discutées, montrant ainsi que le solveur développé basé sur GPU surpasse d’autres solveurs basés sur CPU en termes de performance économique et énergétique. La précision et le comportement des SEM avec de l’aliasing sont évalués dans des cas de test linéaires à l’aide d’outils analytiques. L’utilisation de grilles avec des cellules d’ordre élevé, qui permettent de mieux d’écrire les surfaces d’intérêt des simulations, en combinaison avec le SEM est également analysée. Cette dernière analyse démontre qu’un traitement particulier doit être implémenté pour assurer une précision numérique appropriée lors de l’utilisation de mailles avec ces éléments. Ce document présente également le développement et l’analyse de la méthode Spectral Difference Raviart-Thomas (SDRT) pour les éléments bidimensionnels et tridimensionnels de type produit tensoriel et simplex. Cette méthode est équivalente à la formulation SD pour les éléments de produit tensoriel et peut être considérée comme une extension naturelle de la formulation SD pour les éléments de type simplex. En outre, une nouvelle famille de méthodes FR, équivalente à la méthode SDRT dans certaines circonstances, est décrite. Tous ces développements ont été implémentés dans le solveur open-source PyFR et sont compatibles avec les architectures CPU et GPU. Dans le contexte des simulations d’ordre élevé d’écoulements turbulents trouvés dans les cas d’interaction rotor-stator, une méthode de maillage glissant (qu’implique des grilles non-conformes et le mouvement des maillages) spécifiquement adaptée aux simulations massivement parallèles est implémenté dans un solveur basé sur CPU. La méthode développée est compatible avec FVM et SEM de second ordre et d’ordre élevé. D’autre part, le mouvement de la grille, nécessaire pour simuler les cas d’essai rotor-stator `a cause du mouvement relatif de chaque zone du domaine, est traité à l’aide de la formulation Arbitrary-Lagrangian-Eulerian (ALE). L’analyse de cette formulation montre son influence importante sur la précision numérique et la stabilité des simulations numériques avec du mouvement de maillage.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 27-05-2021
Sarazin Gabriel
Voir le résumé
Voir le résumé
Dans le contexte d'une analyse de fiabilité, pour évaluer la position de retombée d'un étage de lanceur de satellite et pour estimer le risque de défaillance associé, il est souvent nécessaire d'utiliser un code de simulation numérique dont les entrées sont des mesures issues de systèmes embarqués. La méconnaissance des incertitudes affectant ces entrées mesurées peut avoir un impact considérable sur la qualité de l'estimation du risque de défaillance. Ces travaux de thèse ont deux objectifs principaux : - Implémenter un algorithme permettant d'acquérir le maximum de connaissances sur la distribution des entrées (sachant que la seule matière première est un jeu de données de petite taille) avant d'utiliser le résultat de cette apprentissage pour quantifier le risque de défaillance. - Effectuer une analyse de sensibilité permettant de comprendre quelles sont les variables d'entrée ou bien les motifs de dépendance en entrée qui jouent un rôle clé dans le processus d'estimation du risque.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 31-03-2021
Sensfelder Nathanaël
Voir le résumé
Voir le résumé
L'objectif de cette thèse est d'offrir des outils d'aide à la certification aéronautique de processeurs COTS multi-cœurs. Ces architectures sont par nature parallèles et peuvent de ce fait largement améliorer les performances de calcul. Cependant elles souffrent d'un grand manque de prédictibilité, au sensoù calculer les pires d'exécution même pour des programmes simples est un problème complexe, voire impossible dans le cas général. En effet, les cœurs partagent l'accès à presque toutes les ressources ce qui provoque des conflits(qualifiés d'interférences) entrainant des variations non maîtrisées des temps d'exécutions. Parmi les mécanismes complexes d'un processeur multi-coeur se trouve la cohérence de caches. Celle-ci assure que tous les cœurs lisant ou écrivant dans un même bloc mémoire ne peuvent pas aveuglement ignorer les modifications appliquées par les autres. Afin de maintenir la cohérence de caches, le processeur suit un protocole pré-déterminé qui définit les messages à envoyer en fonction des actions d'un cœur ainsi que les actions à effectuer lors de la réception du message d'un autre cœur.Cette thèse porte sur l'identification des interférences générées par les mécanismes de cohérence de caches ainsi que sur les moyens de prédiction de leurs effets sur les applications en vue de réduire les effets négatifs temporels. La première contribution adresse les ambiguïtés dans la compréhension que les applicants ont de la cohérence de cache réellement présente dans l'architecture. En effet, la documentation des architectures ne fournit généralement pas suffisamment de détails sur les protocoles. Cette thèse propose une formalisation des protocoles standards, ainsi qu'une stratégie, reposant sur les micro-benchmarks, pour clarifier les choix d'implémentation du protocole de cohérence présent sur l'architecture. Cette stratégie a notamment été appliquée sur le NXP QorIQ T4240. Une fois le protocole correctement identifié, la seconde contribution consiste à réaliser une description bas-niveau de l'architecture en utilisant des automates temporisés afin de représenter convenablement les micro-comportements et comprendre clairement comment le protocole de cohérence de cache agit. Ainsi,un framework de génération de modèles génériques a été développé, capable de supporter plusieurs protocoles de cohérence de cache et de représenter différents agencements d'architectures afin de mieux correspondre à l'architecture choisie par le postulant. La troisième contribution explique comment utiliser cette représentation de l'architecture pour exhiber les interférences. Elle propose une stratégie pour détailler les causes et effets de chaque interférence liée à la cohérence de caches sur les programmes.Commençant par une simple analyse de temps d'exécution, les résultats descendent jusqu'au niveau des instructions pour indiquer comment chaque instruction génère et souffre des interférences. L'objectif étant alors de fournir suffisamment d'information à l'appliquant à la fois pour la certification, mais aussi pour définir une stratégie d'atténuation et de maîtrise des effets temporels.Ainsi, cette thèse fournit l'appliquant des outils pour comprendre les mécanismes de cohérence de cache présent sur une architecture donnée et pour exhiber les interférences associées.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 16-12-2020
Saint-James Julien
Voir le résumé
Voir le résumé
La méthode des paraboles, contrairement aux critères de transition classiques, permet une analyse fine du phénomène de transition. Elle repose sur l'utilisation d'une base de données,résultant d'études de stabilité de profils de couches limites génériques et constitue une méthode robuste et précise pour déterminer la position de la transition. A l'heure actuelle, elle est limitée au cas d'écoulements non décollés sur parois adiabatiques. La thèse visera donc à étendre cette méthode aux cas réalistes de parois chauffées. Cette extension consistera, dans le cas des parois chauffées par exemple, à étendre la base de donnée en réalisant des études de stabilité de profils de couche limite se développant sur parois chaudes et de modéliser ensuite les taux d'amplification des instabilités en introduisant un (des) nouveau(x) paramètre(s) comme par exemple le rapport de températures (Tp/Tf). Dans un second temps, cette extension sera introduite dans le solver RANS du logiciel elsA. La validation et la mise en œuvre de ce nouveau modèle s'effectuera sur des cas représentatifs, à savoir une aile laminaire 2D puis 3D soumise dans la région du bord d'attaque à un chauffage de paroi représentatif d'un système de dégivrage
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 28-09-2020
Serhani Anass
Voir le résumé
Voir le résumé
Dans cette thèse, nous nous intéressons à la modélisation, la discrétisation, la simulation et l'analyse numérique de systèmes d'équations aux dérivées partielles dissipatives, contrôlées et observées à la frontière, via le formalisme des systèmes Hamiltoniens à ports d'interaction, ou port-Hamiltonian systems (pHs). L'objectif principal est de préserver le bilan de puissance des systèmes continus lors du passage au discret. Le problème des ondes et de la chaleur y sont largement étudiés.Dans la première partie de la thèse, nous avons étudié un modèle d'ondes hétérogènes anisotropes avec plusieurs types d'amortissement, interne et frontière. Non seulement nous avons rigoureusement éclairci le cadre fonctionnel du problème, mais nous avons mis en évidence son aspect géométrique, plus précisément, en mettant en lumière la structure de Stokes-Dirac sous-jacente au bilan de puissance. Pour discrétiser le problème des ondes amorties, la récenteméthode des éléments finis partitionnés, ou Partitioned Finite Element Method (PFEM), est adoptée pour sa construction systématique et sans traitement supplémentaire d'une structure de Dirac de dimension _nie, ce qui permet l'obtention naturelle d'une version discrète du bilan de puissance ; la simulation s'effectue par la résolution d'une équation différentielle ordinaire (ODE) linéaire. Cette discrétisation structurée est appliquée aux dissipations internes de type fluide et visco-élastique et aux dissipations frontières de type admittance et impédance.Dans la deuxième partie, nous nous sommes intéressés à un problème de diffusion. Le problème de la chaleur est modélisé, en formulation Hamiltonienne, par plusieurs choix de Hamiltoniens possibles, qui découlent soit de la littérature mathématique, soit de la littérature thermodynamique (énergie interne ou bien entropie). Puisque le problème des ondes et le problème de la chaleur partagent le même opérateur de structure, la discrétisation du problème de diffusion hérite d'un grand nombre de raisonnements faits dans la première partie. Néanmoins, le système discret obtenu est alors une équation différentielle algébrique (DAE), linéaire ou bien non-linéaire. La méthode PFEM retenue dans ce travail démontre son efficacité par sa capacité à mimer, au niveau discret, la diffusion bien connue de l'équation de la chaleur, mais également les premier et second principes de la thermodynamique (selon le Hamiltonien choisi lors de la modélisation).La troisième partie de la thèse, très originale, est consacrée à l'analyse numérique de la méthode de discrétisation proposée. La convergence du schéma numérique est démontrée pour des configurations multiples de familles d'éléments finis sur le modèle des ondes de la première partie, et les ordres obtenus sont vérifiés numériquement. En particulier, la configuration optimale des familles d'éléments finis, c'est-à-dire la minimisation du nombre de degrés de liberté pour un ordre de convergence donné, est obtenue en corollaire. La simulation numérique, n-dimensionnelle, des problèmes étudiés a donné lieu à des codes scientifiques développés en Python. Ces derniers sont adressés à destination, à la fois, des utilisateurs novices et des développeurs intéressés pour améliorer les codes ou pour les adapter à d'autres modèles.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 06-03-2020
Singh Jasdeep
Voir le résumé
Voir le résumé
La thèse est une étude d'approches probabilistes pour la modélisation et l'analyse de systèmes temps réel. L'objectif est de comprendre et d'améliorer le pessimisme qui existe dans l'analyse du système. Les systèmes temps réel doivent produire des résultats avec des contraintes de temps réelles. L'exécution des tâches dans le système est basée sur leur pire temps d'exécution. En pratique, il peut y avoir de nombreux temps d'exécution possibles inférieurs au pire des cas. Nous utilisons le temps d’exécution probabiliste dans le pire cas, qui est une distribution de probabilité dans le pire des cas, qui limite tous les temps d’exécution possibles. Nous nous approchons avec le modèle de chaîne de Markov à temps continu pour obtenir des probabilités de manquer une contrainte de synchronisation dans le monde réel. Nous étudions également les systèmes de criticité mixte (MC) car ceux-ci ont également tendance à faire face au pessimisme dans un souci de sécurité. Les systèmes MC consistent en des tâches d’importance ou de criticité ged différentes. Le système fonctionne sous différents modes de criticité dans lesquels l'exécution des tâches de criticité identique ou supérieure est assurée. Nous abordons d’abord les systèmes MC en utilisant la chaîne de Markov en temps discret pour obtenir la probabilité que le système entre dans des niveaux de criticité plus élevés. Nous observons certaines limites de nos approches et nous procédons à la modélisation des systèmes probabilistes MC à l'aide de modèles Graph. Nous remettons en question les approches existantes dans la littérature et fournissons les nôtres. Nous obtenons des calendriers pour les systèmes MC optimisés pour l'utilisation des ressources. Nous faisons également le premier pas vers la dépendance entre les tâches en raison de leur scheduling.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 10-12-2019
Sgueglia Alessandro
Voir le résumé
Voir le résumé
L’augmentation du trafic aérien au cours des dernières décennies et ses prévisions constituent un défi majeur pour arriver à une croissance neutre en carbone. Pour atteindre cet objectif sociétal, il est nécessaire de définir, en rupture avec les configurations actuelles, des concepts d’avion de transport intégrant de nouvelles technologies avec au final un impact minimal sur l’environnement. Ces futurs véhicules aériens reposent entre autres sur diverses interactions entre systèmes, disciplines et composants. Aussi, ces travaux de recherche se focalisent sur le développement d’une méthodologie dédiée à l’exploration et à l’évaluation des performances de configurations non conventionnelles utilisant des concepts de propulsion innovants. Le cas d’utilisation à considérer est l’optimisation au niveau conceptuel d’une aile volante à propulsion électrique distribuée, un concept prometteur combinant des performances aérodynamiques élevées et les avantages de la propulsion électrique.Le processus d’optimisation qui se base sur FAST, l’outil de dimensionnement avionISAE-SUPAERO/ONERA, a été mis en oeuvre dans OpenMDAO, l’environnement d’analyse et d’optimisation multidisciplinaire Open Source de la NASA. Avec l’idée d’une complexité croissante de l’analyse de conception multidisciplinaire et d’une meilleure identification des différents effets, les deux éléments innovants ont été étudiés séparément. Premièrement, le processus classique a été révisé pour tenir compte des systèmes de propulsion hybride. Deuxièmement, une méthode a été appliquée pour estimer le dimensionnement d’une cellule avion radicalement innovante. Enfin, un processus de conception intégrant ces deux aspects inédits a été mis au point pour étudier un concept d’aile volante à propulsion électrique distribuée.En ce qui concerne le processus de conception, les résultats montrent que l’utilisation de gradients dans la procédure d’optimisation réduit les temps de calcul par rapport à une méthode sans gradient d’environ 70%. Ce gain en temps est un avantage important au niveau du processus avant-projet qui facilite les tâches du concepteur. Pour les performances au niveau avion, les résultats ont été comparés à ceux obtenus pour un avion de type A320 classique, fondés sur les mêmes exigences de haut niveau et le même horizon technologique. Globalement, le concept de propulsion électrique hybride est intéressant car il permet des opérations à proximité du sol (atterrissage, décollage) sans émission et d’économiser du carburant pour les missions situées en dessous d’une certaine distance franchissable. Cette limitation est associée à la présence de batteries : elles introduisent en effet une pénalité de masse significative qui ne peut être annulée par les avantages de l’électrification pour de longues distances. Des simulations supplémentaires indiquent qu’un concept d’aile volante fondé sur une architecture uniquement turbo-électrique consomme toujours moins de carburant que l’avion de référence dans les limites des hypothèses prises en compte.
|
Texte intégral
|
|