Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 07-12-2018
Schmollgruber Peter
Voir le résumé
Voir le résumé
La conception d'un nouvel avion est initiée durant la phase avant-projet. Dans un premier temps, les
concepteurs d’aéronefs identifient un ensemble de concepts potentiels pouvant répondre aux exigences
du client en s’appuyant sur des informations fournies par les spécialistes disciplinaires et experts
système. Ensuite, les solutions sont évaluées via un processus de dimensionnement basé sur une
analyse multidisciplinaire. Dans le domaine des avions de transport civil, les objectifs ambitieux en
termes de consommation de carburant amènent à étudier des configurations innovantes incluant de
nouvelles technologies. Cependant, peu de données sur de telles architectures sont disponibles dans les
phases amont de la conception. Ainsi, afin d'éviter une sélection ou élimination erronnée d'une
solution, un objectif clé de la recherche en conception d'aéronefs est l’ajout de connaissances dans
l'analyse multidisciplinaire.
Aujourd’hui, cet objectif est atteint avec différentes approches: application d’optimisations
multidisciplinaires, ajout de précision grâce aux analyses haute fidélité, introduction de nouvelles
disciplines ou systèmes et enfin, gestion de l'incertitude. Le rôle du concepteur est alors de combiner
ces options dans un processus de conception multidisciplinaire afin de converger vers le concept le
plus performant tout en répondant aux contraintes de certification. Afin d’illustrer ce processus,
l’optimisation d'un avion de transport avec assistance au sol pour le décollage qui a mis en évidence
l'impact des contraintes de certification sur la conception du véhicule a été effectuée. La revue
successive des textes réglementaires et de recherches associées de la gestion du trafic aérien ont conclu
à la nécessité d’inclure des simulations au sein de l’analyse multidisciplinaire. Tenant compte de ces
conclusions, la recherche effectuée dans le cadre de cette thèse propose alors d’ajouter des
connaissances en développant l’analyse et l’optimisation de la conception multidisciplinaire avec un
nouveau module de contrainte de certification et des fonctionnalités de simulation complètes.
Développé dans le cadre de la thèse, le module de contraintes de certification (CCM) a été utilisé pour
résoudre quatre problèmes d’optimisation associés à un avion de transport civil classique basé sur
l’outil de dimensionnement ONERA / ISAE-SUPAERO appelé FAST. Grâce à l'interface utilisateur
du CCM, un gain de temps au niveau de la mise en place de ces optimisations a constaté. De plus, les
résultats ont confirmé la nécessité de définir au mieux et dès que possible les contraintes de
certification.
Pour atteindre des capacités de simulation complètes, l'analyse multidisciplinaire au sein de FAST a
été améliorée. Premièrement, l'outil d'analyse aérodynamique a été modifié afin de générer la base de
données complète pour alimenter un modèle à 6 degrés de liberté. Ensuite, un nouveau module de
calcul des propriétés d'inertie a été ajouté. Enfin, le simulateur open source JSBSim a été utilisé avec
différentes lois de contrôle pour augmenter la stabilité et permettre la navigation automatisée. La
comparaison entre les trajectoires de vol obtenues avec FAST et les données réelles sur les avions
enregistrées avec une antenne ADS-B a confirmé la validité de l'approche.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-12-2021
Singh Gaganpreet
Voir le résumé
Voir le résumé
Le Manned-Unmanned Teaming (MUM-T) peut être compris comme une équipe coopérative de plusieurs agents : plusieurs véhicules aériens sans pilote (drones) et éventuellement plusieurs avions pilotés agissant ensemble dans des missions critiques. Par conséquent, une nouvelle perspective est proposée pour l'avenir de l'interaction humain-drone via une telle coopération en équipe, s'inscrivant dans le cadre de l'interaction à initiative mixte (MII). Dans ce contexte, nous considérons que l'agent humain (pilote) n'est pas un agent infaillible. Par exemple, des états mentaux dégradés pourraient diminuer les capacités de l'agent humain pendant l'exécution de la mission. Ainsi, dans ce travail de thèse, nous étudions des algorithmes de calcul physiologique et d'intelligence artificielle pour estimer l'état mental du pilote humain (par exemple, la charge mentale) lorsqu'il interagit avec une équipe de drones dans des conditions de mission difficiles, et ce, afin d'adapter l'interaction entre agents pour améliorer la performance globale.Ainsi, ce travail de thèse commence par la compréhension et l’évaluation les états mentaux des pilotes humains lorsqu'ils interagissent avec les drones. Nous avons développé un scénario employant une équipe humain-drones (MUM-T) dans une mission de recherche et de sauvetage, où les participants jouent le rôle d'un pilote coopérant avec trois drones. Dans une première campagne expérimentale, les missions ont été conçues pour induire des niveaux de charge mentale faibles et élevées, qui ont été évalués à l'aide de mesures subjectives, comportementales et physiologiques (i.e. métriques cérébrales, cardiaques et oculomotrices). Cette première campagne nous a permis (i) de caractériser la charge mentale à partir de signaux physiologiques, étant donné l'impact significatif de la charge mentale sur toutes les mesures ; et (ii) de proposer différentes chaînes de classification qui ont atteint une précision moyennes de classification allant de 75% pour la meilleure à 59,8% pour la moins bonne, en utilisant les caractéristiques cardiaques seules ou en combinaison avec les caractéristiques cérébrales et oculomotrices. Ensuite, sur la base de ces résultats, ce travail de thèse se concentre sur la construction d'un système de prise décision séquentielle qui est capable de surveiller l'état mental de l'homme à travers la sortie du classifieur et de sélectionner les actions appropriées pour adapter l'interaction dans le but de maximiser la performance humaine. Étant donné l'observabilité partielle de l'état mental humain et la nature non déterministe d'un tel système, nous avons construit ce travail dans le cadre des Processus Décisionels de Markov Partiellement Observable (POMDP). Les paramètres du modèle POMDP, qui vise à contrôler l'interaction, ont été approchés en utilisant toutes les données collectées lors de la première campagne expérimentale et les résultats de classification associés. Enfin, ce travail de thèse se termine par une deuxième campagne expérimentale, dont le but été l'évaluation d'une telle politique de contrôle de l'interaction basée sur modèle POMDP, en ce qui concerne la gestion de la performance et de la charge mentale. Dans cette campagne, tous les développements ont été intégrés et testés en ligne : extraction et traitement des caractéristiques physiologiques, estimation de l'état mental humain, et adaptation de l'interaction. Les résultats subjectifs obtenus ont montré que les participants ressentaient une charge de travail significativement moindre lorsque l'approche adaptative était utilisée, par rapport à un système d'interaction non adaptatif. Cependant, les performances réalisées par les participants n’ont pas été significativement améliorées. Ces derniers résultats ont mis en évidence la nécessité d'affiner le modèle de prise de décision, en particulier pour améliorer la performance humaine et la performance globale de l'équipe, et ouvrent plusieurs perspectives de recherche.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 25-04-2019
Sanfedino Francesco
Voir le résumé
Voir le résumé
L’imagerie satellitaire aide à la surveillance des terrains agricoles, à la
cartographie, à la sylviculture et à la surveillance des eaux. Dans des situations de crise,
l’imagerie peut contribuer à la conduite d’opérations de sauvetage et à l’atténuation des effets
des catastrophes naturelles. Les missions d’observation de la Terre actuelles requièrent de
hautes performances en pointage fin qui justifient les nombreuses recherches sur l’atténuation
des micro-vibrations et les systèmes de stabilisation de la ligne de visée. Les micro-vibrations
sont une classe particulière de vibrations structurelles de petite amplitude (micrométrique)
et avec un large contenu spectral. Elles se propagent depuis les sources aux éléments flexibles
du satellite et provoquent la dégradation des images collectées et la perte d’une partie
de l’information vitale. Dans les plateformes satellitaires, elles sont causées par différentes
sources. Parmi les plus importantes se trouvent les roues à réaction utilisées pour le contrôle
d’attitude et les moteurs d’entrainement des panneaux solaires. Ce travail de thèse présente
une méthodologie complète pour la modélisation d’un satellite flexible avec ses sources principales
de micro-vibrations et la synthèse d’une nouvelle stratégie de contrôle actif pour réduire
la dégradation de la ligne de visée. Un banc d’essai expérimental développé à l’Agence Spatiale
Européenne a permis de valider l’architecture de contrôle proposée.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 30-06-2021
Sáez Mischlich Gonzalo
Voir le résumé
Voir le résumé
Les méthodes numériques d’ordre élevé se sont avérées être un outil essentiel pour améliorer la précision des simulations concernant des écoulements turbulents par la résolution des lois de conservation. Ces écoulements se trouvent dans une grande variété d’applications industrielles et leur prédiction et modélisation est cruciale pour améliorer l’efficacité des procès. Cette thèse met en oeuvre et analyse différents types de schémas de discrétisation spatiale d’ordre élevé pour des maillages non structurés afin d’évaluer et de quantifier leur précision dans les simulations d’écoulements turbulents. En particulier, les méthodes de volumes finis (FVM) d’ordre élevé basées sur les opérateurs de déconvolution des moindres carrés et entièrement contraints sont considérées. De plus, leur précision est évaluée par une analyse analytique et pour des cas linéaires et non linéaires. Une attention spéciale est portée à la comparaison des FVM de second ordre et d’ordre élevé, montrant que la première peut surpasser la seconde en termes de précision et de performance de calcul dans des configurations sous-résolues. Les méthodes d’éléments spectraux (SEM) d’ordre élevé, y compris Spectral Difference (SD) et Flux Reconstruction (FR), sont comparées dans différentes configurations linéaires et non linéaires. De plus, un solveur SD basé sur GPU est développé et ses performances par rapport `a d’autres solveurs basés sur CPU seront discutées, montrant ainsi que le solveur développé basé sur GPU surpasse d’autres solveurs basés sur CPU en termes de performance économique et énergétique. La précision et le comportement des SEM avec de l’aliasing sont évalués dans des cas de test linéaires à l’aide d’outils analytiques. L’utilisation de grilles avec des cellules d’ordre élevé, qui permettent de mieux d’écrire les surfaces d’intérêt des simulations, en combinaison avec le SEM est également analysée. Cette dernière analyse démontre qu’un traitement particulier doit être implémenté pour assurer une précision numérique appropriée lors de l’utilisation de mailles avec ces éléments. Ce document présente également le développement et l’analyse de la méthode Spectral Difference Raviart-Thomas (SDRT) pour les éléments bidimensionnels et tridimensionnels de type produit tensoriel et simplex. Cette méthode est équivalente à la formulation SD pour les éléments de produit tensoriel et peut être considérée comme une extension naturelle de la formulation SD pour les éléments de type simplex. En outre, une nouvelle famille de méthodes FR, équivalente à la méthode SDRT dans certaines circonstances, est décrite. Tous ces développements ont été implémentés dans le solveur open-source PyFR et sont compatibles avec les architectures CPU et GPU. Dans le contexte des simulations d’ordre élevé d’écoulements turbulents trouvés dans les cas d’interaction rotor-stator, une méthode de maillage glissant (qu’implique des grilles non-conformes et le mouvement des maillages) spécifiquement adaptée aux simulations massivement parallèles est implémenté dans un solveur basé sur CPU. La méthode développée est compatible avec FVM et SEM de second ordre et d’ordre élevé. D’autre part, le mouvement de la grille, nécessaire pour simuler les cas d’essai rotor-stator `a cause du mouvement relatif de chaque zone du domaine, est traité à l’aide de la formulation Arbitrary-Lagrangian-Eulerian (ALE). L’analyse de cette formulation montre son influence importante sur la précision numérique et la stabilité des simulations numériques avec du mouvement de maillage.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 10-12-2019
Sgueglia Alessandro
Voir le résumé
Voir le résumé
L’augmentation du trafic aérien au cours des dernières décennies et ses prévisions constituent un défi majeur pour arriver à une croissance neutre en carbone. Pour atteindre cet objectif sociétal, il est nécessaire de définir, en rupture avec les configurations actuelles, des concepts d’avion de transport intégrant de nouvelles technologies avec au final un impact minimal sur l’environnement. Ces futurs véhicules aériens reposent entre autres sur diverses interactions entre systèmes, disciplines et composants. Aussi, ces travaux de recherche se focalisent sur le développement d’une méthodologie dédiée à l’exploration et à l’évaluation des performances de configurations non conventionnelles utilisant des concepts de propulsion innovants. Le cas d’utilisation à considérer est l’optimisation au niveau conceptuel d’une aile volante à propulsion électrique distribuée, un concept prometteur combinant des performances aérodynamiques élevées et les avantages de la propulsion électrique.Le processus d’optimisation qui se base sur FAST, l’outil de dimensionnement avionISAE-SUPAERO/ONERA, a été mis en oeuvre dans OpenMDAO, l’environnement d’analyse et d’optimisation multidisciplinaire Open Source de la NASA. Avec l’idée d’une complexité croissante de l’analyse de conception multidisciplinaire et d’une meilleure identification des différents effets, les deux éléments innovants ont été étudiés séparément. Premièrement, le processus classique a été révisé pour tenir compte des systèmes de propulsion hybride. Deuxièmement, une méthode a été appliquée pour estimer le dimensionnement d’une cellule avion radicalement innovante. Enfin, un processus de conception intégrant ces deux aspects inédits a été mis au point pour étudier un concept d’aile volante à propulsion électrique distribuée.En ce qui concerne le processus de conception, les résultats montrent que l’utilisation de gradients dans la procédure d’optimisation réduit les temps de calcul par rapport à une méthode sans gradient d’environ 70%. Ce gain en temps est un avantage important au niveau du processus avant-projet qui facilite les tâches du concepteur. Pour les performances au niveau avion, les résultats ont été comparés à ceux obtenus pour un avion de type A320 classique, fondés sur les mêmes exigences de haut niveau et le même horizon technologique. Globalement, le concept de propulsion électrique hybride est intéressant car il permet des opérations à proximité du sol (atterrissage, décollage) sans émission et d’économiser du carburant pour les missions situées en dessous d’une certaine distance franchissable. Cette limitation est associée à la présence de batteries : elles introduisent en effet une pénalité de masse significative qui ne peut être annulée par les avantages de l’électrification pour de longues distances. Des simulations supplémentaires indiquent qu’un concept d’aile volante fondé sur une architecture uniquement turbo-électrique consomme toujours moins de carburant que l’avion de référence dans les limites des hypothèses prises en compte.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 06-03-2020
Singh Jasdeep
Voir le résumé
Voir le résumé
La thèse est une étude d'approches probabilistes pour la modélisation et l'analyse de systèmes temps réel. L'objectif est de comprendre et d'améliorer le pessimisme qui existe dans l'analyse du système. Les systèmes temps réel doivent produire des résultats avec des contraintes de temps réelles. L'exécution des tâches dans le système est basée sur leur pire temps d'exécution. En pratique, il peut y avoir de nombreux temps d'exécution possibles inférieurs au pire des cas. Nous utilisons le temps d’exécution probabiliste dans le pire cas, qui est une distribution de probabilité dans le pire des cas, qui limite tous les temps d’exécution possibles. Nous nous approchons avec le modèle de chaîne de Markov à temps continu pour obtenir des probabilités de manquer une contrainte de synchronisation dans le monde réel. Nous étudions également les systèmes de criticité mixte (MC) car ceux-ci ont également tendance à faire face au pessimisme dans un souci de sécurité. Les systèmes MC consistent en des tâches d’importance ou de criticité ged différentes. Le système fonctionne sous différents modes de criticité dans lesquels l'exécution des tâches de criticité identique ou supérieure est assurée. Nous abordons d’abord les systèmes MC en utilisant la chaîne de Markov en temps discret pour obtenir la probabilité que le système entre dans des niveaux de criticité plus élevés. Nous observons certaines limites de nos approches et nous procédons à la modélisation des systèmes probabilistes MC à l'aide de modèles Graph. Nous remettons en question les approches existantes dans la littérature et fournissons les nôtres. Nous obtenons des calendriers pour les systèmes MC optimisés pour l'utilisation des ressources. Nous faisons également le premier pas vers la dépendance entre les tâches en raison de leur scheduling.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 27-05-2021
Sarazin Gabriel
Voir le résumé
Voir le résumé
Dans le contexte d'une analyse de fiabilité, pour évaluer la position de retombée d'un étage de lanceur de satellite et pour estimer le risque de défaillance associé, il est souvent nécessaire d'utiliser un code de simulation numérique dont les entrées sont des mesures issues de systèmes embarqués. La méconnaissance des incertitudes affectant ces entrées mesurées peut avoir un impact considérable sur la qualité de l'estimation du risque de défaillance. Ces travaux de thèse ont deux objectifs principaux : - Implémenter un algorithme permettant d'acquérir le maximum de connaissances sur la distribution des entrées (sachant que la seule matière première est un jeu de données de petite taille) avant d'utiliser le résultat de cette apprentissage pour quantifier le risque de défaillance. - Effectuer une analyse de sensibilité permettant de comprendre quelles sont les variables d'entrée ou bien les motifs de dépendance en entrée qui jouent un rôle clé dans le processus d'estimation du risque.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 31-03-2021
Sensfelder Nathanaël
Voir le résumé
Voir le résumé
L'objectif de cette thèse est d'offrir des outils d'aide à la certification aéronautique de processeurs COTS multi-cœurs. Ces architectures sont par nature parallèles et peuvent de ce fait largement améliorer les performances de calcul. Cependant elles souffrent d'un grand manque de prédictibilité, au sensoù calculer les pires d'exécution même pour des programmes simples est un problème complexe, voire impossible dans le cas général. En effet, les cœurs partagent l'accès à presque toutes les ressources ce qui provoque des conflits(qualifiés d'interférences) entrainant des variations non maîtrisées des temps d'exécutions. Parmi les mécanismes complexes d'un processeur multi-coeur se trouve la cohérence de caches. Celle-ci assure que tous les cœurs lisant ou écrivant dans un même bloc mémoire ne peuvent pas aveuglement ignorer les modifications appliquées par les autres. Afin de maintenir la cohérence de caches, le processeur suit un protocole pré-déterminé qui définit les messages à envoyer en fonction des actions d'un cœur ainsi que les actions à effectuer lors de la réception du message d'un autre cœur.Cette thèse porte sur l'identification des interférences générées par les mécanismes de cohérence de caches ainsi que sur les moyens de prédiction de leurs effets sur les applications en vue de réduire les effets négatifs temporels. La première contribution adresse les ambiguïtés dans la compréhension que les applicants ont de la cohérence de cache réellement présente dans l'architecture. En effet, la documentation des architectures ne fournit généralement pas suffisamment de détails sur les protocoles. Cette thèse propose une formalisation des protocoles standards, ainsi qu'une stratégie, reposant sur les micro-benchmarks, pour clarifier les choix d'implémentation du protocole de cohérence présent sur l'architecture. Cette stratégie a notamment été appliquée sur le NXP QorIQ T4240. Une fois le protocole correctement identifié, la seconde contribution consiste à réaliser une description bas-niveau de l'architecture en utilisant des automates temporisés afin de représenter convenablement les micro-comportements et comprendre clairement comment le protocole de cohérence de cache agit. Ainsi,un framework de génération de modèles génériques a été développé, capable de supporter plusieurs protocoles de cohérence de cache et de représenter différents agencements d'architectures afin de mieux correspondre à l'architecture choisie par le postulant. La troisième contribution explique comment utiliser cette représentation de l'architecture pour exhiber les interférences. Elle propose une stratégie pour détailler les causes et effets de chaque interférence liée à la cohérence de caches sur les programmes.Commençant par une simple analyse de temps d'exécution, les résultats descendent jusqu'au niveau des instructions pour indiquer comment chaque instruction génère et souffre des interférences. L'objectif étant alors de fournir suffisamment d'information à l'appliquant à la fois pour la certification, mais aussi pour définir une stratégie d'atténuation et de maîtrise des effets temporels.Ainsi, cette thèse fournit l'appliquant des outils pour comprendre les mécanismes de cohérence de cache présent sur une architecture donnée et pour exhiber les interférences associées.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 28-04-2022
Sunday Cecily
Voir le résumé
Voir le résumé
Si l’observation depuis la Terre a pu révéler le grand nombre et la diversité des petits corps du système solaire, seule leur exploration in-situ permettra de répondre aux questions qu’ils soulèvent aujourd’hui sur leur composition physique et chimique. Cela explique la recrudescence de missions dédiées aux petits corps (Osiris-Rex, Hayabusa-2, Mars Moon Explorer, etc.) ainsi que les efforts déployés par les agences internationales (DLR, NASA, JAXA) pour permettre l’exploration de leur surface. De par leur faible gravité (entre 10-6 et 10-2 g) les astéroïdes (e.g. Eros), les comètes (e.g. Churyumov-Gerasimenko) et les petits satellites (e.g. Phobos) se révèlent des candidats difficiles pour une mobilité de surface. En milligravité (i.e. autour de 10-3g), le poids très faible d’un véhicule ne permet des tractions que 1,000 fois plus faibles que celles dont bénéficient les rovers martiens et lunaires. Surtout, le comportement du régolithe des petits corps est peu compris et donc difficile à prévoir, notamment à cause du rôle majeur joué par les forces de cohésion à ces échelles de gravité. Le comportement du régolithe tient alors davantage à celui d’une poudre cohésive comme la farine qu’à celui d’un gravier fin. Cette thèse explorera donc la faisabilité et la performance attendue d’un véhicule à roue à la surface d’un petit corps. L’étude reposera sur la modélisation du sol par méthodes à éléments discrets (DEM). Cette approche consiste à simuler l’interaction détaillée des grains de régolithe un-à-un (friction, résistance au roulement, cohésion, etc.). A partir d’un code DEM préexistant (e.g. ESyS-Particle) qui sera identifié au commencement de l’étude, la thèse examinera et implémentera les modifications nécessaires à apporter pour modéliser les interactions spécifiques d’une roue avec le régolithe d’un petit corps. L’étape de modélisation franchie, la thèse appliquera l’outil développé à la résolution du problème du roulage : traction et manœuvrabilité (simplifiée) dans différents types de régolithe, à différents niveaux de gravité. Les travaux seront conduits avec l’ISAE-Supaéro : l’encadrante est une experte du régolithe des petits corps, des méthodes DEM ainsi que du développement d’expériences (vols paraboliques, tours de chute) permettant la validation des simulations numériques. Au terme de la thèse, nous aurons répondu aux questions suivantes : quelle est la force de traction que l’on peut attendre d’un régolithe en milligravité ? comment cette traction évolue-t-elle quand la gravité change ? comment la cohésion du régolithe affecte-elle l’écoulement autour de la roue ? Ces réponses nous permettront de déterminer le seuil de gravité minimum, selon le régolithe attendu, en dessous duquel le roulage devient impraticable ou trop inefficace pour être préféré à d’autres solutions (e.g. les « hoppers » Mascot (DLR), Hedgehog (JPL) ou Minerva (JAXA)). Les missions vers les petits corps constituent des opportunités de collaborations inter-agences très intéressantes et abordables en coût et en complexité. La compétence sur la locomotion en milligravité peut se révéler cruciale pour participer en tant que partenaire à ce genre de mission. C’est également un domaine de coopération actif entre le CNES (à DSO/DV/IF) et le DLR (à Oberpfaffenhofen) qui a déjà une certaine expérience dans le domaine avec leurs outils de simulation multi-corps et leurs outils de modélisation DEM. Cette thèse consoliderait l’axe d’étude et cette coopération.
|
Texte intégral
|
|
Ecole Nationale Supérieure de l'Aéronautique et de l'Espace
/ 04-06-1991
Samblancat Christiane
Voir le résumé
Voir le résumé
Le travail présenté dans cette thèse est une étude à la fois théorique et pratique de la h-infini synthèse. La partie théorique met l'accent sur la formulation du problème d'optimisation h-infini, les algorithmes de calcul et les conditions de résolution. La partie présente une étude complète et réaliste de la synthèse de lois de commande pour un hélicoptère. En particulier, une première application directe de la méthode h-infini permet de mettre en évidence ses avantages (niveau de performance, traitement explicite de la robustesse vis-à-vis des dynamiques négligées et du compromis performance/robustesse) mais aussi ses faiblesses (complexité des compensateurs, caractéristiques modales médiocres, niveau de robustesse aux variations paramétriques faible). Il s'ensuit qu'une application directe et systématique de la synthèse h-infini ne fournit pas une solution réellement satisfaisante au problème posé. Afin de s'affranchir des difficultés mises en évidence lors de la synthèse directe, une méthodologie de commande mixte est finalement proposée. La structure de commande associée est composée d'une boucle interne qui réalise essentiellement une préstabilisation et un prédécouplage du système en termes de structures propres. Une boucle externe de nature h-infini vient compléter la boucle interne, gère le suivi des consignes et assure la robustesse vis-à-vis de la dynamique négligée. On montre de plus, qu'en regard des lois purement h-infini cette méthodologie de synthèse mixte permet de réduire la complexité de la loi de commande et apporte également une solution satisfaisante aux problèmes de caractère modal et paramétrique soulevés précédemment.
|
Texte intégral
|
|