|<
<< Page précédente
1
2
3
Page suivante >>
>|
5
10
15
20
25
30
35
40
documents par page
Tri :
Date
Editeur
Auteur
Titre
Institut Supérieur de l'Aéronautique et de l'Espace
/ 08-07-2021
Vasconcellos Birro Thiago
Voir le résumé
Voir le résumé
Dans le cadre de la technologie d'assemblage par collage, l'évaluation des propriétés interfaciales est essentielle afin de déterminer la réponse globale de l'assemblage collé. En ce qui concerne la caractérisation mécanique des assemblages collés, une grande gamme de tests est largement utilisée pour déterminer les propriétés des adhésifs (rupture cohésive) et peu de tests sont disponibles afin d’évaluer les propriétés interfaciales entre les adhésifs et les substrats (rupture adhésive). Ainsi, parmi les tests de caractérisation d’une rupture adhésive, le test de flexion trois points peut être appliqué afin d’examiner les interactions entre l'adhésif et le substrat. Néanmoins, une comparaison directe de l’adhérence entre ce test et d’autres essais n’est pas possible, en raison des répartitions des contrainte et de modes de sollicitations différents. Une solution pratique pour résoudre ce problème consiste à l’application d’un critère couplé contrainte-énergétique (CC) puisque les propriétés d'interface sont indépendantes de l'épaisseur du substrat et/ou adhésif. Ces travaux de thèse proposent une méthode originale d'exploitation des essais de flexion trois points pour déterminer les propriétés interfaciales. Cette méthode est basée sur le critère couplé alimenté par une modélisation simplifiée par macro-éléments de l'essai..De plus, le comportement global du test de flexion trois points a été établi en termes d’adhérence, de taux de restitution d’énergie incrémentale et de contrainte critique. La thèse vise à faire un premier lien entre les propriétés interfaciales du système polyépoxy-aluminium et les propriétés cohésives de l’adhésif. Ainsi, cette thèse peut être vue comme un premier pas vers la capacité à prédire la rupture interfaciale dans le cadre d'un test de flexion trois points. En conclusion, l'apparition d'une rupture adhésive ou cohésive et la propagation de rupture instable ou stable des assemblages collés ont été triées et classées en fonction des propriétés d'interface.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 21-09-2020
Van Ghèle Loïc
Voir le résumé
Voir le résumé
Les modèles développés pour l'étude des rentrées atmosphériques sont essentiellement basés sur des mesures en soufflerie. Bien que ces dernières soient riches en enseignements, elles ne sont pas représentatives de l'ensemble des conditions rencontrées lors d'une rentrée atmosphérique. Pour combler ce manque de données il est nécessaire de traiter des mesures réalisées en vol. Les présents travaux de thèse s'inscrivent dans ce contexte et proposent une analyse aérothermodynamique de la rentrée atmosphérique d'un véhicule réutilisable, de type corps portant, depuis une orbite basse terrestre. Plus précisément cette analyse traite du flux de chaleur convecto-diffusif à l'intrados du véhicule. Pour remplir cet objectif l'étude s'appuie principalement sur les mesures de température effectuées au cours de la rentrée atmosphérique de l’IXV (Intermediate eXperimental Vehicle), le premier véhicule autonome de l'Agence Spatiale Européenne piloté sur une trajectoire planante. Les mesures de température ont été réalisées dans les protections thermiques de l’intrados et à la surface extrados des gouvernes à l’aide de thermocouples et d'une caméra infrarouge. L'analyse aérothermodynamique s'articule autour de deux approches complémentaires. La première est une estimation par méthodes inverses 1D et 3D du flux de chaleur convecto-diffusif à la surface intrados de l'IXV à partir des mesures de température. Cependant ces estimations ne permettent pas à elles seules de remonter jusqu'à l'historique des phénomènes physico-chimiques dans la couche de choc. Ce point justifie la présence de la deuxième approche basée sur des simulations Navier-Stokes 1D et 3D de l'écoulement. Ces simulations ont été menées afin d'identifier et d'analyser de possibles scénarios des phénomènes physico-chimiques permettant de reproduire les niveaux du flux de chaleur estimés par méthode inverse. Cette méthode, basée sur les résultats d'une approche par méthode inverse et d'une approche par simulations de l'écoulement, a préalablement été testée sur les données des premiers vols de la navette spatiale américaine Columbia. Finalement, ces travaux de thèse présentent une lecture approfondie des mesures réalisées au cours du vol de l'IXV. Sur le long terme ces données permettront de compléter les bases de données aérothermodynamiques et d'améliorer les outils de dimensionnement des véhicules de rentrée atmosphérique.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 19-12-2019
Verdière Kevin
Voir le résumé
Voir le résumé
Il existe un intérêt croissant pour la mise en œuvre d'outils permettant de monitorer les performances cognitives en environnement réaliste.Les avancées technologiques récentes ont permis la mise en oeuvre de dispositifs de monitoring portables, tels que l'électroencéphalogramme (EEG), la spectroscopie fonctionnelle proche infrarouge proche (fNIRS), l'eye tracking et l'électro-cardiogramme (ECG), afin d'étudier l'activité humaine dans une variété de configurations. Ces capteurs offrent d'intéressantes perspectives pour l'aviation via l’implémentation de systèmes d'interfaces cerveau-ordinateur passives et de technologie neuroadaptive assurant une exploitation plus sûre et plus efficace. Cependant, un problème critique consiste à extraire des marqueurs de la performance humaine pertinents et robustes pour la classification et pouvant être calculés en ligne. Ce doctorat a pour but d'évaluer les métriques de connectivité permettant de monitorer les performances cognitives. Nos travaux expérimentaux suggèrent que les métriques de connectivité en fNIRS (en particulier la cohérence en ondelettes) surpassent les métriques classiques lors de l'estimation de l'engagement dans un simulateur de vol réaliste ou de la fatigue dans des conditions réelles de vol. Nous avons ensuite mis en œuvre une nouvelle méthode, à savoir le compte de coïncidence retardée, pour évaluer la synchronie cardiaque dans un contexte d'hyperscanning. Les résultats ont révélés que cette métrique de connectivité était efficace pour détecter la coopération entre des coéquipiers face à une tâches exigeantes. De plus, les données EEG ont permis de classer la charge de travail et les niveaux de coopération que ce soit en utilisant les métriques issues d'un unique opérateur ou bien les données combinées des deux coéquipiers.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 12-12-2018
Villemant Marc
Voir le résumé
Voir le résumé
Les propulseurs plasma à courant de Hall sont aujourd’hui une technologie mature et couramment utilisée dans l’industrie spatiale pour la mise à poste et le contrôle d’orbite de satellites. Malgré cela, la compréhension de la physique régissant le fonctionnement de ces propulseurs et encore lacunaire. Des phénomènes tels que le transport anormal des électrons dans le canal du propulseur ou la dépendance des performances du propulseur au matériau de paroi ne sont pas compris. Par conséquent le développement et la qualification de nouveaux propulseurs passent par de longues études empiriques sans garantie de succès. La compréhension de la physique des plasmas de propulseurs est donc une problématique clé pour permettre le développement et l’amélioration de cette technologie.Cette thèse consiste en la caractérisation par la modélisation et par des mesures expérimentales de l’interaction entre le plasma d’un propulseur à courant de Hall et les parois dudit propulseur. Cette thèse s’est concentrée sur le phénomène d’émission électronique induite par impact d’électrons (i.e. l’émission d’électrons par les parois du propulseur lorsque celle-ci est soumise à un flux incident d’électrons).La thèse s’est déroulée en trois étapes. Dans un premier temps un modèle d’émission électronique adapté au besoin des modélisations particulaires de plasma de propulseur a été développé et validé par comparaison à des données expérimentales réalisées à l’ONERA. Dans un second temps, ce modèle d’émission électronique a été introduit dans une simulation particulaire de plasma de propulseur développé au Laplace et modifié pour les besoins de cette thèse. Enfin une étude paramétrique a été réalisées afin d’évaluer l’influence de l’émission électronique sur le comportement global du plasma de propulseur.La première partie de cette thèse a permis de réaliser la caractérisation de l’émission électronique pour des matériaux représentatifs du canal des propulseurs à courant de Hall (silice et nitrure de bore). Par ailleurs, un travail de mesure et de calibration a été réalisé afin de caractériser le rendement énergétique de l’interaction entre une population d’électrons et une paroi. Ces nouvelles mesures et ce nouveau protocole de mesure ont donné lieu à la publication de deux articles. La seconde partie de cette thèse a permis de réaliser un modèle détaillé d’émission électronique adapté aux contraintes des modélisations particulaire (temps de calcul réduit, dépendance à différents paramètres physiques, etc.). Cette thèse a permis de montrer un impact non-négligeable de l’émission électronique sur le bilan énergétique du propulseur et sur les fonctions de distributions des ions et des électrons dans le plasma ¬du propulseur.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 01-12-2017
Valéry Benoît
Voir le résumé
Voir le résumé
La viabilité des systèmes de travail complexes repose en partie sur la capacité des opérateurs à y gérer des tâches concurrentes en fonction de leurs priorités respectives. Il s'agit là d'un processus critique qui, lorsqu'il est défaillant, peut amener à des erreurs de négligence ou de persévération sur certaines opérations. Les modèles actuels de la priorisation humaine présentent de nombreuses limites : ils sont souvent normatifs et ne rendent pas suffisamment compte de la façon dont les opérateurs utilisent effectivement l'information disponible dans l'environnement pour le calcul des priorités. Leur faible pouvoir descriptif ne permet pas réellement de comprendre les mécanismes cognitifs contributifs de l'erreur, spécialement dans des situations de surcharge mentale. Cette thèse, en adoptant l'approche de l'ergonomie cognitive, se donne pour objectif de mieux comprendre et décrire ces processus. Trois expérimentations fondamentales ont été menées, qui toutes mettaient les participants aux prises avec des situations de double-tâche, où divers attributs (difficulté, importance, marge d'erreur) des tâches étaient manipulés. Ces tâches reproduisaient des sollicitations des environnements complexes, comme la mémorisation, la surveillance, ou encore le diagnostic sous incertitude. L'ensemble des résultats souligne l'importance de la priorisation dans la bonne tenue des systèmes complexes, et suggère une sensibilisation accrue des opérateurs à ces phénomènes lors de leur formation, ainsi qu'une réflexion à plus long terme sur la présentation de l'information dans le contexte des interfaces homme-machine.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-06-2016
Vicentini Maxime
Voir le résumé
Voir le résumé
De nos jours, la combustion d'hydrocarbures est largement répandue dans de nombreuses applications, notamment la propulsion aéronautique. Toutefois, les turbomachines produisent des niveaux d'émissions d'espèces polluantes qui ne sont plus acceptés. C'est pourquoi, la compréhension des phénomènes physiques mis en jeu dans les chambres de combustion est essentielle pour aider au développement de moteurs plus propres. Dans de tels foyers, le carburant est injecté sous la forme d'un brouillard de gouttes, ce qui génère de fortes interactions avec l'écoulement d'air turbulent et la flamme. L'objectif de cette thèse est de contribuer au développement de modèles en combustion diphasique en vue d'améliorer la capacité prédictive des outils de simulation numérique. Pour cela, un nouveau moyen d'essais dédié à l'étude des flammes diphasiques turbulentes a été conçu et une base de données expérimentales a été constituée (conditions inertes et réactives). Des visualisations simultanées de la diffusion de Mie des gouttes et du taux de dégagement de chaleur ont permis de mettre en évidence une structure de flamme complexe ainsi que l'existence de différents régimes de combustion. Un autre point important de ce travail a été d'analyser statistiquement la distribution spatiale de gouttes en conditions réactives à l'aide d'une méthode de mesure originale. Cette analyse a permis de quantifier les distances inter-gouttes (plus proches voisines) en différents points de l'écoulement et d'estimer les erreurs liées au traitement des données via une approche numérique. En outre, il apparaît que la distribution spatiale des gouttes s'apparente à une loi aléatoire uniforme alors que les modèles de combustion de gouttes s'appuient souvent sur une loi régulière.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 12-12-2014
Vernhes Simon
Voir le résumé
Voir le résumé
Les algorithmes permettant la création de stratégies efficaces pour la résolution d’ensemble de problèmes
hétéroclites ont toujours été un des piliers de la recherche en Intelligence Artificielle. Dans cette optique,
la planification de tâches a pour objectif de fournir à un système la capacité de raisonner pour interagir
avec son environnement de façon autonome afin d’atteindre les buts qui lui ont été assignés. À partir d’une
description de l’état initial du monde, des actions que le système peut exécuter, et des buts qu’il doit atteindre,
un planificateur calcule une séquence d’actions dont l’exécution permet de faire passer l’état du monde dans
lequel évolue le système vers un état qui satisfait les buts qu’on lui a fixés. Le problème de planification est
en général difficile à résoudre (PSPACE-difficile), cependant certaines propriétés des problèmes peuvent être
automatiquement extraites permettant ainsi une résolution efficace.
Dans un premier temps, nous avons développé l’algorithme LMBFS (Landmark-based Meta Best-First Search).
À contre-courant des planificateurs state-of-the-art, basés sur la recherche heuristique dans l’espace d’états,
LMBFS est un algorithme qui réactualise la technique de décomposition des problèmes de planification basés
sur les landmarks. Un landmark est un fluent qui doit être vrai à un certain moment durant l’exécution
de n’importe quel plan solution. L’algorithme LMBFS découpe le problème principal en un ensemble de
sous-problèmes et essaie de trouver une solution globale grâce aux solutions trouvées pour ces sous-problèmes.
Dans un second temps, nous avons adapté un ensemble de techniques pour améliorer les performances de
l’algorithme. Enfin, nous avons testé et comparé chacune de ces méthodes permettant ainsi la création d’un
planificateur efficace.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 25-11-2014
Volpert Thibault
Voir le résumé
Voir le résumé
Les travaux de cette thèse concerne l’étude d’une méthode élément finis
d’ordre spatial élevé que l’on peut assimilé à une extension du schéma de Yee. On parle
alors de méthode différences finies d’ordre élevé. Après avoir donné, dans un premier
chapitre, un historique non exhaustif des principales méthodes utilisées pour résoudre les
équations de Maxwell dans le cadre de problèmes de CEM et montré l’ intérêt de disposer
d’un solveur de type "différences finies d’ ordre élevé", nous pésentons dans un deuxième
chapitre le principe de la méthode. Nous donnons pour cela les caractéristiques du schéma
spatial et temporel en précisant les conditions de stabilité de la méthode. En outre, dans
une étude purement numérique, nous étudions la convergence du schéma. On se focalise
ensuite sur la possibilité d’utiliser des ordres spatiaux variable par cellules dans chaque
direction de l’espace. Des comparaisons avec le schéma de Yee et un schéma de Galerkin
Discontinu particulier sont ensuite effectuées pour montrer les gains en coûts calcul et
mémoire et donc l’intérêt de notre approche par rapport aux deux autres. Dans un troisième
chapitre, nous nous intéressons à l’étude de modèles physiques indispensable au
traitement d’un problème de CEM. Pour cela, nous nous focalisons particulièrement sur
un modèle de fil mince oblique, des modèles de matériaux volumiques et minces et enfin
sur la prise en compte de sol parfaitement métallique dans une agression de type onde
plane. Chaque modèle est détaillé et validé par comparaison avec des solutions analytiques
ou résultant de la littérature, sur des exemples canoniques. Le quatrième chapitre
est dédié à une technique d’hybridation entre notre méthode et une approche Galerkin
Discontinu en vue de traiter des géométries possédant des courbures. Nous donnons
pour cela une stratégie d’hybridation basée sur l’échange de flux qui garantie au niveau
continue la conservation d’une énergie. Nous présentons ensuite quelques exemples montrant
la validité de notre approche dans une stratégie multi-domaines/multi-méthodes
que nous précisons. Enfin le dernier chapitre de cette thèse concerne l’exploitation de
notre méthode sur des cas industriels en comparaisons avec d’autres méthodes ou des
résultats expérimentaux.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 24-11-2014
Vuillemin Pierre
Voir le résumé
Voir le résumé
Les systèmes physiques sont représentés par des modèles mathématiques qui peuvent être utilisés
pour simuler, analyser ou contrôler ces systèmes. Selon la complexité du système qu’il est censé
représenter, un modèle peut être plus ou moins complexe. Une complexité trop grande peut
s’avérer problématique en pratique du fait des limitations de puissance de calcul et de mémoire
des ordinateurs. L’une des façons de contourner ce problème consiste à utiliser l’approximation de
modèles qui vise à remplacer le modèle complexe par un modèle simplifié dont le comportement
est toujours représentatif de celui du système physique.
Dans le cas des modèles dynamiques Linéaires et Invariants dans le Temps (LTI), la complexité
se traduit par une dimension importante du vecteur d’état et on parle alors de modèles
de grande dimension. L’approximation de modèle, encore appelée réduction de modèle dans ce
cas, a pour but de trouver un modèle dont le vecteur d’état est plus petit que celui du modèle
de grande dimension tel que les comportements entrée-sortie des deux modèles soient proches
selon une certaine norme. La norme H2 a été largement considérée dans la littérature pour
mesurer la qualité d’un modèle réduit. Cependant, la bande passante limitée des capteurs et des
actionneurs ainsi que le fait qu’un modèle est généralement représentatif d’un système physique
dans une certaine bande fréquentielle seulement, laissent penser qu’un modèle réduit dont le
comportement est fidèle au modèle de grande dimension dans un intervalle de fréquences donné,
peut être plus pertinent. C’est pourquoi, dans cette étude, la norme H2 limitée en fréquence,
ou norme H2, Ω, qui est simplement la restriction de la norme H2 sur un intervalle de fréquences Ω
, a été considérée. En particulier, le problème qui vise à trouver un modèle réduit minimisant
la norme H2, Ω de l’erreur d’approximation avec le modèle de grande dimension a été traité.
Deux approches ont été proposées dans cette optique. La première est une approche empirique
basée sur la modification d’une méthode sous-optimale pour l’approximation H2. En
pratique, ses performances s’avèrent intéressantes et rivalisent avec certaines méthodes connues
pour l’approximation de modèles sur intervalles de fréquences limités.
La seconde est une méthode d’optimisation basée sur la formulation pôles-résidus de la
norme H2, Ω. Cette formulation généralise naturellement celle existante pour la norme H2 et
permet également d’exprimer deux bornes supérieures sur la norme H∞ d’un modèle LTI, ce
qui est particulièrement intéressant dans le cadre de la réduction de modèle. Les conditions
d’optimalité du premier ordre pour le problème d’approximation optimale en norme H2, Ω
ont été exprimées et utilisées pour créer un algorithme de descente visant à trouver un minimum local au problème d’approximation. Couplée aux bornes sur la norme H∞ de l’erreur d’approximation,
cette méthode est utilisée pour le contrôle de modèle de grande dimension.
D’un point de vue plus pratique, l’ensemble des méthodes proposées dans cette étude ont été
appliquées, avec succès, dans un cadre industriel comme élément d’un processus global visant à
contrôler un avion civil flexible.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 21-11-2014
Vitillo Francesco
Voir le résumé
Voir le résumé
Dans le cadre du programme CEA R&D pour développer un prototype industriel de Réacteur à Neutrons Rapides refroidi au Sodium (RNR-Na), cette thèse vise à proposer une technologie d'échangeur de chaleur compact innovant. Afin d'augmenter la compacité globale du composant la conception est réalisée d’un canal: il peut être considéré comme le résultat de la superposition de deux canaux ondulés en opposition de phase. Afin de fournir un modèle numérique physiquement cohérent, un nouveau modèle de turbulence à viscosité turbulente non linéaire nommé modèle ASST a été développé et implémenté dans le solveur ANSYS FLUENT ®. Il a été démontré que le modèle ASST peut fournir une alternative intéressante aux modèles plus complexes. Pour valider le modèle ASST, deux montages expérimentaux ont été réalisés, dont un utilisant la Vélocimétrie Laser à franges et l'autre la Vélocimétrie Laser par images de particules. Pour la validation thermique, l'installation "VHEGAS" a été construite. Une fois le modèle ASST validé, les performances pour différentes géométries peuvent être étudiées. Enfin, il a été montré que la géométrie innovante est la plus compacte parmi les autres technologies d'échangeurs de chaleur compacts type PCHE.
|
Texte intégral
|<
<< Page précédente
1
2
3
Page suivante >>
>|
5
10
15
20
25
30
35
40
documents par page