|<
<< Page précédente
1
2
3
Page suivante >>
>|
5
10
15
20
25
30
35
40
documents par page
Tri :
Date
Editeur
Auteur
Titre
Ecole Nationale Supérieure de l'Aéronautique et de l'Espace
/ 22-12-2004
Zenou Emmanuel
Voir le résumé
Voir le résumé
Cette thèse s'inscrit dans le cadre de la classification d'images supervisée appliquée à la robotique mobile autonome en milieu structuré. Pour naviguer, et en particulier pour se repérer, un robot utilise des amers attachés à des sites de l'environnement, modélisé par un graphe topologique. À chaque noeud du graphe est associé un amer. Les amers sont des combinaisons d'attributs visuels optimales, obtenues au travers d'un formalisme particulier appelé "treillis de Galois" ou "treillis de concepts". Des algorithmes de construction de treillis ont été modifiés afin de permettre, de façon incrémentale, l'établissement d'une classification supervisée des images et l'extraction des amers visuels. Une extension probabiliste et une approche locale ont été implémentées pour améliorer les performances de l'apprentissage. Enfin, une application robotique complète a été implémentée dans les laboratoires du LAAS-CNRS et de SUPAERO.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 25-11-2008
Poinsot Damien
Voir le résumé
Voir le résumé
À l'heure actuelle, de nombreux projets d'utilisation de drones s'intéressent à la capacité des véhicules à alterner des phases de vols lentes et des phases de vol rapides. Cela permet entre autre, de traiter une plus grande diversité de missions que celles pouvant être accomplies par des avions conventionnels (approche de bâtiments, évolution en milieu urbain, prises de vue). Cette thèse s'intéresse à la commande de ce type de vecteur, avec l'application au VERTIGO, drone de type VTOL à rotors contrarotatifs et volets déflecteurs de flux. Sur la base d'une campagne en soufflerie, un modèle dynamique et cinématique a été développé. Les modèles obtenus ont permis d'étudier et de piloter l'engin sur un large domaine de vol (du vol stationnaire au vol d'avancement rapide). L'observation du comportement dynamique a conduit au choix de deux structures de pilotages pour couvrir toute l'enveloppe de vol ; une structure de pilotage à gains statiques auto-séquencés de type retour d'états longitudinaux et latéraux pour le vol d'avancement ; et une structure hiérarchique axe par axe pour le vol stationnaire et pseudo stationnaire, proche de ce qui peut être utilisé pour le pilotage des hélicoptères. Des outils d'analyse de robustesse (tel que la µ-analyse) sont utilisés pour prouver la stabilité de la boucle fermée tout au long des trajectoires en vol d'avancement. Un simulateur non linéaire a été développé pour implémenter les lois, analyser le comportement de l'engin durant la phase de transition et a permis une étude sur la génération de trajectoire optimale. Les algorithmes de pilotages ont été implantés sur le calculateur embarqué et une campagne d'essais en vol indoor est également présentée.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 09-06-2009
Clément Joël
Voir le résumé
Voir le résumé
L'optimisation multi-disciplinaire propose des solutions aux problèmes de conception de systèmes complexes. Le terme « optimisation multi-disciplinaire » laisse sous-entendre à tort qu'il ne s'agit que d'un problème d'optimisation. Nous lui préférons ici le terme de « conception collaborative ». En effet, l'optimisation ne représente qu'un aspect, qui ne peut être séparée du reste du problème de conception. Le but n'est pas de créer un processus automatique, mais de faciliter les échanges entre les équipes des différentes disciplines. De nombreuses méthodes, appelées communément formulations MDO (de Multi-Disciplinary Optimization), apparaissent dans la littérature (MDF, IDF, AAO, BLISS, CO). Elles proposent des stratégies permettant, d'une part, d'assurer la cohérence de la description du système complexe et, d'autre part, d'effectuer la recherche de la configuration optimale. Dans un premier temps, nous dressons un état de l'art des formulations MDO. Nous mettons en avant leurs points communs et leurs différences, afin de proposer une implémentation de la manière la plus générale qui soit. Nous proposons, avec la méthode DIVE (Discipline Interaction Variable Elimination), un cadre d'utilisation de méta-modèles au sein des formulations MDO. Le méta-modèle peut se limiter à une approximation linéaire ou quadratique. Il peut s'appuyer sur des méthodes classiques d'apprentissage, telles que les réseaux neuronaux, le Krigeage ou la SVM. Chaque méta-modèle est accompagné d'une région de confiance qui en détermine la validité. Cette approche par approximations locales et successives permet d'aborder les problèmes de grande dimension. Nous présentons des résultats obtenus avec deux cas-tests d'avions d'affaires supersoniques obtenus sous deux environnements différents (Scilab et ModelCenter).
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 01-12-2009
Fezans Nicolas
Voir le résumé
Voir le résumé
Cette thèse se situe dans la continuité de la collaboration entre le CNES et l’ONERA DCSD sur le pilotage des lanceurs et concerne plus particulièrement le développement de méthodologies propres au pilotage des lanceurs réutilisables (RLV), en particulier dans leur phase de rentrée atmosphérique. Une première étape concerne la modélisation du lanceur adaptée au pilotage en phase de rentrée. Cette étape doit s'appuyer sur l'analyse des besoins, spécificités et objectifs de la commande en phase de rentrée d'un RLV et déboucher sur un modèle générique de complexité compatible avec le développement de lois de pilotage. Cette étape de modélisation répond aux questions telles que l'importance et la localisation des non-linéarités, des incertitudes sur les paramètres lanceur et atmosphériques, du domaine de variation des paramètres au cours du
vol et de l'importance des couplages entre les 3 axes. La seconde partie de la thèse, qui constitue la contribution principale de ces travaux, porte sur le développement de méthodologies adaptées au pilotage de cette phase du vol du lanceur. Cette méthodologie s'appuie notamment sur des problèmes de synthèse Hinfini par sensibilité en accélération (Hinfini-SOTAS). Ces formes standard SOTAS sont des solutions du problème inverse Hinfini associé à un système du second ordre généralisé et à un contrôleur par placement de structures propres découplant. Diverses extensions de ces formes standards sont proposées afin de permettre la prise en compte de critères additionnels pendant la synthèse. La méthodologie proposée et ses propriétés sont illustrées par des exemples académiques et de la dynamique latérale d'un avion de transport. Elle est finalement validée par l'application à un véhicule de rentrée atmosphérique réalisée au cours de la thèse.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace, École Polytechnique de Montréal
/ 25-08-2010
Saussié David
Voir le résumé
Voir le résumé
Satisfaire les qualités de manoeuvrabilité demeure toujours une contrainte essentielle lors de la conception des commandes de vol. Ces critères de différentes natures sont le fruit d'une longue expérience d'essais en vol et d'analyse de données et il convient de les considérer pour espérer un bon comportement de l'appareil en vol. Dans ce cadre, l'enjeu de cette thèse est d'élaborer des méthodes de synthèse capables de satisfaire au mieux ces critères en respectant d'une part des architectures classiques imposées par le constructeur et, d'autre part, en adoptant une nouvelle architecture de contrôle. Le travail est effectué sur le vol longitudinal d'un avion d'affaire de Bombardier Inc., le Challenger 604. Une première étape consiste à rassembler les qualités de manoeuvrabilité les plus souvent utilisées et de les confronter. Nous étudions plus particulièrement le critère du dropback pour lequel une analyse théorique permet d'établir une formulation pratique utilisable lors d'une synthèse. De plus, la confrontation de ces critères sur un modèle standard met en évidence des critères dominants, qui, une fois satisfaits, impliquent que d'autres critères le sont aussi. Nous pouvons dès lors considérer le problème de satisfaction de ces critères dominants dans le cadre d'une loi de contrôle dont l'architecture est imposée. Nous nous tournons alors du côté des applications gardiennes. Initialement destinées à l'étude de la robustesse, elles sont intégrées dans différents algorithmes pour la synthèse de correcteur. Ce problème s'inscrit dans le cadre plus général de stabilisation par retour de sortie et de synthèse de correcteurs d'ordre réduit. Il en ressort des algorithmes permettant la stabilisation de système et le placement de pôles dans une région du plan complexe. Ceux-ci sont étendus dans le cadre du séquencement du contrôleur sur toute l'enveloppe de vol en fonction de certains paramètres. Nous faisons ensuite fi de la structure du correcteur en conservant seulement les mêmes sorties. L'idée est à présent d'utiliser une synthèse H∞ pour obtenir un correcteur satisfaisant les qualités de manoeuvrabilité grâce à l'appariement avec un modèle de référence; ce correcteur est aussi robuste à des variations de masse et de centrage de l'avion. Grâce aux travaux sur la commande modale robuste, nous pouvons réduire substantiellement l'ordre de ce correcteur ainsi que le structurer afin de nous rapprocher d'une architecture classique. Une méthode d'auto-séquencement de correcteurs, nous permet finalement de séquencer ce correcteur à travers toute l'enveloppe de vol. Deux voies différentes sont donc empruntées pour la résolution du même problème; chacune montre ses avantages et ses inconvénients.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 19-11-2010
Kang GuoDong
Voir le résumé
Voir le résumé
Les services de localisation de personnes et de matériels sont de plus en plus demandés. En environnement extérieur, les outils GPS offrent une réponse à cette demande croissante, avec une précision de l'ordre du mètre en espace dégagé. En intérieur, il n'existe pas d'outil aussi performant. Les solutions commerciales sont coûteuses en équipement. Les propositions de recherche, quant à elles, font appel soit à du matériel coûteux soit à une infrastructure lourde. Enfin, le succès actuel des téléphones mobiles “intelligents” auprès du grand public d'une part, et l'émergence des réseaux de capteurs dans le monde académique nous amènent à étudier des solutions viables y compris pour des mobiles ne disposant que de la réception de signaux radio. L'objectif de cette thèse est de proposer une mécanisme de localisation en intérieur à la fois peu coûteux, sans recours à des équipements dédiés du type UWB ni à des infrastructures supplémentaires, tout en offrant une précision de l'ordre du mètre. Pour cela, nous faisons l'hypothèse que l'utilisateur désirant se localiser est environné de pairs sachant estimer leur position, éventuellement de façon grossière, et que l'utilisateur peut patienter quelques instants pendant que l'algorithme de localisation s'exécute. L'utilisateur collecte alors de façon opportuniste les informations de localisation de tous ces pairs. Dans cette thèse nous étudions les performances en termes de précision d'une méthode de localisation utilisant des inégalités matricielles linéaires (LMI), en faisant varier un grand nombre de paramètres. Nous comparons systématiquement ces performances à celles de l'une des solutions les plus simples, celle du centre de gravité de tous les pairs à portée. Nous améliorons ensuite l'approche LMI en la couplant à une moyenne pondérée dans le temps, qui permet d'obtenir une bien meilleure précision proche du mètre. Enfin, nous terminons par des considérations d'implémentation. Les travaux de cette thèse ont été menés dans le cadre du projet ANR Fusion d'Information de Localisation (FIL).
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-12-2010
Soro Alexandre
Voir le résumé
Voir le résumé
Depuis l'avènement de la théorie de l'information, la question de la fiabilisation des transmissions est allée de pair avec l'évolution des technologies et des applications.
La fiabilisation des transmissions couvre l'ensemble des techniques permettant de lutter contre les erreurs et les pertes d'un canal de transmission. Parmi les mécanismes existants, la fiabilisation pro-active consiste à mettre en place une redondance au niveau d'un émetteur, celle-ci permettant de compenser à priori les pertes subies par le canal. La fiabilisation pro-active trouve son sens lorsque l'émetteur ne peut avoir d'information sur l'état actuel du canal de transmission, ou lorsque elle est inutile du fait de contraintes temporelles, mais aussi lorsqu'un
émetteur doit s'adapter aux contraintes de plusieurs récepteurs. Initialement, les mécanismes de fiabilisation pro-actifs utilisant cette redondance sont connus sous le nom de codes correcteurs. La problématique associée à ces codes est alors une problématique d'optimisation : il s'agit de créer des codes flexibles permettant une génération rapide de la redondance par l'émetteur et une récupération des données initiales par le récepteur à faible coût, tout en conservant la meilleure capacité de correction possible. Par extension, la question de la fiabilisation concerne également l'étude de l'impact de mécanismes de suppression de redondance sur la fiabilité d'un système. Dans des réseaux plus spécifiques, où la question de l’utilisation de la bande passante est cruciale, des mécanismes de
compression protocolaire peuvent être mis en place afin de diminuer la proportion de trafic engendrée par les en-têtes protocolaires.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace, Instituto Nacional de Pesquisas Espaciais (Brésil)
/ 03-03-2011
De Oliveira Ramos Fausto
Voir le résumé
Voir le résumé
Ce mémoire présente les avantages de combiner des techniques établies dans le domaine de l'ingénierie de contrôle avec des éléments de l'intelligence calculatoire, en fournissant un certain niveau d'automatisation et la possibilité d'explorer des propositions innovantes pour une meilleure conformité avec les spécifications. L'adoption de cette philosophie est justifiée par la complexité de certains systèmes, où des multiples exigences contradictoires doivent être remplies à chaque point de fonctionnement. L'automaticien se rendra compte parfois que certains choix doivent être faits au détriment d'autres solutions qui pourraient également être explorées. Dans ce contexte, un mécanisme basé sur l'intelligence calculatoire peut accélérer le développement du projet et révéler de nouvelles possibilités. L'apport de ce mécanisme est évalué sur deux études de cas, toutes deux basées sur un modèle variant dans le temps d'un véhicule de lancement, où le séquencement de gain est appliqué aux techniques quadratique linéaire et H-infinie. Dans le cas linéaire quadratique, à part le lissage des gains du régulateur, on obtient l'optimisation du système de contrôle pour toute la trajectoire du véhicule, un fait qui est validé par des simulations hardware-in-the-loop. Dans le cas H- infini, on ajoute la duplication fonctionnelle du compensateur, permettant de l'utiliser également en tant qu'observateur; l'intelligence calculatoire peut être utilisée pour définir la choix de la dynamique d'estimation dans des situations où le nombre des combinaisons (pôles en boucle fermée) est très élevé, afin de fournir les meilleures estimés.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace
/ 14-03-2011
Adeline Romain
Voir le résumé
Voir le résumé
Pour certifier un système aéronautique, des études de Sûreté de Fonctionnement (SdF) visent à démontrer qu’il répond à des exigences de sécurité de haut niveau. La complexité des systèmes étudiés ayant évolué, les exigences à démontrer devenant toujours plus nombreuses, les analyses actuelles (e.g. arbre de défaillance) peuvent aujourd’hui présenter des limites d’utilisation. Pour aller à l’encontre de ces limites, l’Ingénierie Dirigée par les Modèles s’est développée et s’intéresse aux études de SdF. L’objectif est alors de 1) modéliser dans un langage adapté (le langage AltaRica a ici été utilisé) les comportements fonctionnels et dysfonctionnels d’un système et de ses composants en présence de défaillances, 2) s’assurer que le modèle est une abstraction valide du système réel et 3) vérifier la tenue des exigences du système par le modèle. Les travaux effectués dans cette thèse se sont intéressés aux deux premiers points. Une méthodologie a été
proposée pour spécifier l’abstraction du comportement de composants de systèmes multi physiques. Des bibliothèques AltaRica ont été réalisées pour modéliser des sous-systèmes d’un turbomoteur d’hélicoptère. Les résultats obtenus via le modèle ont été comparés avec ceux des analyses existantes de
SdF. Pour les projets futurs où celles-ci ne seraient plus disponibles, un processus de validation a été proposé pour caractériser le degré de revue atteint lors de la simulation d'un jeu de tests sur le modèle. Inspiré du « génie logiciel », ce processus s’étend sur trois niveaux de validation (unitaire ; intégration des
composants ; modèle complet) et propose des critères de couvertures applicables et mesurables sur un modèle AltaRica.
|
Texte intégral
Institut Supérieur de l'Aéronautique et de l'Espace, Université Autonome de Barcelone (UAB)
/ 23-09-2011
Pradas Fernández David
Voir le résumé
Voir le résumé
Les satellites de communication apparaissent comme une solution particulièrement intéressante pour fournir une connectivité à large bande à un grand nombre d'utilisateurs. La propriété de diffusion naturelle des satellites (et ses bandes de fréquence Ku/Ka) rend leur utilisation évidente pour les services de multidiffusion, multimédia, ainsi que pour l’interconnexion de réseaux à haut débit. Toutefois, les signaux de cette bande de fréquence sont beaucoup plus sensibles aux interférences atmosphériques. La principale innovation permettant de résoudre
ces problèmes a été l'adoption du codage et de la modulation adaptatifs. Ceci est le principal moteur de cette thèse car cette adaptabilité rend les systèmes par satellite traditionnels inefficaces. Nous nous concentrons sur un paradigme différent pour traiter ces nouveaux défis. Celui-ci est basé sur l’optimisation conjointe des couches de la pile de protocoles. L'idée fondamentale est le
fait que l'adaptabilité de la couche physique doit être suivi au niveau des couches supérieures afin de réaliser une gestion efficace des ressources, ceci afin de respecter les exigences strictes (QoS) des nouveaux services. Nous couvrons plusieurs aspects liés à "l’optimisation réseau"; réaliser une allocation efficace des ressources qui maximise le débit tout en assurant l'équité entre tous les utilisateurs, et ce, en fonction des conditions de canal. Nous avons également mis l'accent sur le choix de la meilleure méthodologie permettant de choisir les outils mathématiques appropriés, l'architecture la plus efficace, des technologies adaptatives sur les couches supérieures, ainsi que la meilleure approche de conception "crosslayer".
|
Texte intégral
|<
<< Page précédente
1
2
3
Page suivante >>
>|
5
10
15
20
25
30
35
40
documents par page