Tri :
Date
Editeur
Auteur
Titre
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 19-12-2017
Le Bihan Bastien
Voir le résumé
Voir le résumé
Au cours des dernières décennies, l’étude de la dynamique autour des points de Lagrange des systèmes Terre-Lune (EMLi) et Terre-Soleil (SELi) a ouvert de nouvelles possibilités pour les orbites et les transferts spatiaux. Souvent modélisés comme des Problèmes à Trois Corps (CR3BP) distincts, ces deux systèmes ont également été combinés pour produire des trajectoires
à faible coût dans le système Terre-Lune-Soleil étendu. Cette approximation (PACR3BP) a permis de mettre en évidence un réseau à faible énergie de trajectoires (LEN) qui relie la Terre, la Lune, EML1,2 et SEL1,2. Cependant, pour chaque trajectoire calculée, le PACR3BP nécessite une connexion arbitraire entre les CR3BPs, ce qui complique son utilisation systématique. Cette thèse vise à mettre en place une modélisation à quatre corps non autonome pour l’étude du LEN basé sur un système Hamiltonien périodique cohérent, le Problème Quasi-Bicirculaire (QBCP). Tout d’abord, la Méthode de Paramétrisation est appliquée afin d’obtenir une représentation semi-analytique des variétés invariantes autour de chaque point de Lagrange. Une recherche systématique de connexions EML1,2-SEL1,2 peut alors être effectuée dans l’espace des paramètres : les conditions initiales sur la variété centrale-instable de EML1,2 sont propagées et les trajectoires résultantes sont projetées sur la variété centrale de SEL1,2 . Un transfert est détecté lorsque la distance de projection est proche de zéro. Les familles de transfert obtenues sont corrigées dans un modèle newtonien haute-fidélité du système solaire. La structure globale des connections est largement préservée et valide l’utilisation du QBCP comme modèle de base du LEN.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 19-12-2017
Delmas Kévin
Voir le résumé
Voir le résumé
La sûreté de fonctionnement occupe une place prépondérante dans la conception de systèmes critiques, puisqu'un dysfonctionnement peut être dangereux pour les utilisateurs ou l'environnement. Les concepteurs doivent également démontrer aux autorités de certification que les risques encourus sont acceptables. Pour cela, le concepteurs définissent une architecture contenant un ensemble de mécanismes de sûreté permettant de mitiger ou tout du moins limiter la probabilité d’occurrence des risques identifiés. L'objectif de ce travail est de développer une méthode automatique et générique de synthèse d’architecture assurant formellement le respect d’exigences de sûreté. Cette activité de synthèse est formalisée comme un problème d'exploration de l'espace des architectures c'est-à-dire trouver un candidat appartenant à un espace de recherche fini, respectant les exigences de sûreté. Ainsi nous proposons un processus de résolution complet et correct des problèmes d'exploration basé sur l'utilisation des solveurs SMT. Les contributions principales sont:
1- La formalisation de la synthèse comme un problème de Satisfiabilité Modulo Théorie (SMT) afin d’utiliser les solveurs existants pour générer automatiquement une solution assurant formellement le respect des exigences;
2- Le développement de méthodes d’analyse spécialement conçues pour évaluer efficacement la conformité d’une architecture vis-à-vis d’un ensemble d’exigences;
3- La définition d'un langage KCR permettant de formuler les problèmes d'exploration et l'implantation des méthodes de résolution au sein de l'outil KCR Analyser.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 13-12-2017
Guet Fabrice
Voir le résumé
Voir le résumé
Dans les systèmes informatiques temps réel, les tâches logicielles sont contraintes par le temps. Pour garantir la sûreté du système critique controlé par le système temps réel, il est primordial d'estimer de manière sûre le pire temps d'exécution de chaque tâche. Les performances des processeurs actuels du commerce permettent de réduire en moyenne le temps d'exécution des tâches, mais la complexité des composants d'optimisation de la plateforme rendent difficile l'estimation du pire temps d'exécution. Il existe différentes approches d'estimation du pire temps d'exécution, souvent ségréguées et difficilement généralisables ou au prix de modèles coûteux. Les approches probabilistes basées mesures existantes sont vues comme étant rapides et simples à mettre en œuvre, mais souffrent d'un manque de systématisme et de confiance dans les estimations qu'elles fournissent. Les travaux de cette thèse étudient les conditions d'application de la théorie des valeurs extrêmes à une suite de mesures de temps d'exécution pour l'estimation du pire temps d'exécution probabiliste, et ont été implémentées dans l'outil diagxtrm. Les capacités et les limites de l'outil ont été étudiées grâce à diverses suites de mesures issues de systèmes temps réel différents. Enfin, des méthodes sont proposées pour déterminer les conditions de mesure propices à l'application de la théorie des valeurs extrêmes et donner davantage de confiance dans les estimations.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 21-09-2017
Amari Ahmed
Voir le résumé
Voir le résumé
La complexité et le besoin en bande passante des architectures de communication avionique
ne cessent de croitre avec le nombre des calculateurs et l’expansion des données échangées. La
technologie AFDX a été introduite pour offrir des communications haut débit (100Mbps) pour
les avions de nouvelle génération. Cependant, ce réseau commuté est déployé de manière
entièrement redondante, ce qui conduit à des quantités importantes de câbles, augmentant le
poids et les coûts d’intégration. Pour faire face à ces problèmes, on propose dans cette thèse
l’intégration d’un réseau Ethernet en anneau comme une solution principale pour diminuer
le poids et la complexité liés au câblage. Dans ce contexte, notre objectif est de concevoir et
valider un nouveau réseau de communication avionique, AeroRing, basé sur de l’Ethernet
Gigabit avec une topologie anneau.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 02-05-2017
Leserf Patrick
Voir le résumé
Voir le résumé
L’analyse de compromis d’un modèle système a pour but de minimiser ou de maximiser différents objectifs tels que le coût ou les performances. Les méthodes actuelles de type OOSEM avec SysML ou ARCADIA sont basées sur la classification ; il s’agit de définir les différentes variantes de l’architecture d’un système de base puis d’analyser ces variantes. Dans ces approches, les choix d’architecture sont contraints : la plateforme d’exécution et la topologie sont déjà figées. Nous proposons la notion de « points de décision » pour modéliser les différents choix du système, en utilisant de nouveaux stéréotypes. L’avantage est d’avoir une modélisation plus « compacte » des différentes variantes et de piloter l’exploration des variantes en utilisant des contraintes. Lorsque le concepteur définit l’architecture du système, des points de décisions sont insérés dans le modèle du système. Ils permettent de modéliser la redondance ou le choix d’une instance pour un composant, les variations des attributs d’un composant, ou l’allocation des activités sur les blocs. Les fonctions objectifs sont définies dans un contexte d’optimisation à l’aide du diagramme paramétrique de SysML. Nous proposons des transformations du modèle SysML vers un problème de satisfaction de contraintes pour l’optimisation (CSMOP) dont la résolution nous permet d’obtenir l’ensemble des architectures optimales. Cette transformation est implantée dans un démonstrateur (plug-in Eclipse) permettant une utilisation conjointe de l’outil Papyrus et de solveurs, disponibles sous forme de logiciels libres. La méthode est illustrée avec des cas d’étude constitués d’une caméra stéréoscopique puis d’un drone, l’ensemble étant modélisé avec Papyrus.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 25-04-2017
Perret Quentin
Voir le résumé
Voir le résumé
Dans cette thèse, nous étudions l’adéquation de l’architecture distribuée des processeurs pluricoeurs avec les besoins des concepteurs de systèmes temps réels avioniques. Nous proposons d’abord une analyse détaillée d’un processeur sur étagère (COTS), le KALRAY MPPA®-256, et nous identifions certaines de ses ressources partagées comme étant les goulots d’étranglement limitant à la fois la performance et la prédictibilité lorsque plusieurs applications s’exécutent. Pour limiter l’impact de ces ressources sur les WCETs, nous définissons formellement un modèle d’exécution isolant temporellement les applications concurrentes. Son implantation est réalisée au sein d’un hyperviseur offrant à chaque application un environnement d’exécution isolé et assurant le respect des comportements attendus en ligne. Sur cette base, nous formalisons la notion de partition comme l’association d’une application avec un budget de ressources matérielles. Dans notre approche, les applications s’exécutant au sein d’une partition sont garanties d’être temporellement isolées des autres applications. Ainsi, étant donné une application et son budget associé, nous proposons d’utiliser la programmation par contraintes pour vérifier automatiquement si les ressources allouées à l’application sont suffisantes pour permettre son exécution de manière satisfaisante. Dans le même temps, dans le cas où un budget est effectivement valide, notre approche fournit un ordonnancement et un placement complet de l’application sur le sous-ensemble des ressources du processeur
allouées à sa partition.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace, Université du Luxembourg
/ 13-03-2017
Brau Guillaume
Voir le résumé
Voir le résumé
L'ingénierie des systèmes embarqués repose sur deux activités complémentaires : la modélisation d'une part permet de
représenter le système, l'analyse d’autre part permet d'évaluer les diverses propriétés non-fonctionnelles (par exemple des
propriétés temporelles via l'analyse d’ordonnancement temps réel). Cette thèse s'intéresse à l'intégration entre ces modèles
et analyses: comment appliquer une analyse sur une modèle ? Comment gérer le processus d’analyse ? La première partie de cette thèse présente une approche globale afin de répondre à ces questions. Cette approche s'organise autour de quatre couches applicatives: (1) les modèles qui représentent le système, (2) les accesseurs qui permettent d'extraire des données à partir d'un modèle, (3) l'analyse qui traite des données en entrée pour produire des données ou propriétés en sortie, (4) des contrats qui décrivent les interfaces d'une analyse et permettent d'orchestrer le processus d'analyse. La seconde partie de cette thèse est dédiée à l'expérimentation de cette approche sur des systèmes réels provenant du domaine aérospatial : un drone, un robot explorateur et un système de gestion de vol. Nous montrons que les accesseurs permettent d’appliquer diverses analyses d’ordonnancement temps réel sur des modèles architecturaux hétérogènes, par exemples décrits avec le standard industriel AADL (Architecture Analysis and Design Language) ou le nouveau langage dirigé par le temps CPAL (Cyber-Physical Action Language). En outre, nous montrons que les contrats peuvent être utilisés afin d’automatiser des procédures d'analyse complexes : quelle analyse peut être appliquée sur un
modèle ? Quelles analyses remplissent les objectifs visés ? Peut-on combiner des analyses ? Y-a-t-il des interférences entre
les analyses ? Etc.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 08-12-2016
Deymier Nicolas
Voir le résumé
Voir le résumé
Dans cette thèse, nous nous intéressons à l’amélioration du schéma de Yee pour traiter de
manière plus efficace et pertinente les problèmes industriels auxquels nous sommes confrontés à l’heure
actuelle. Pour cela, nous cherchons avant tout à diminuer les erreurs numériques de dispersion et à
améliorer les modélisations des géométries courbes ainsi que des réseaux de câbles. Pour répondre à
ces besoins, une solution basée sur un schéma Galerkin discontinu pourrait être envisagée. Toutefois,
l’utilisation d’une telle technique sur la totalité du volume de calcul est relativement coûteuse. De plus,
la prise en compte de structures filaires sur un tel schéma n’est pas encore opérationnelle. C’est pourquoi,
dans l’optique d’avoir un outil industriel, et après une étude bibliographique, nous nous sommes plutôt
orientés sur l’étude d’un schéma éléments finis (FEM) sur maillage cartésien qui possède toutes les
bonnes propriétés du schéma de Yee. Notamment, à l’ordre d’approximation spatiale égal à 0 ce schéma
FEM est exactement le schéma de Yee, et, pour des ordres supérieurs, il permet de réduire fortement
l’erreur de dispersion numérique de ce dernier. Dans le travail de cette thèse, pour ce schéma, nous avons notamment donné un critère de stabilité théorique, étudié sa convergence théorique et fait une analyse de l’erreur de dispersion. Pour tenir
compte des possibilités d’ordre d’approximation spatiale variable par direction, nous avons mis en place
une stratégie d’affectation des ordres suivant le maillage donné. Ceci nous a permis d’obtenir un pas de
temps optimal pour une précision souhaitée tout en réduisant les coûts de calcul. Après avoir porté ce
schéma sur des machines de production, différents problèmes de CEM, antennes, IEM ou foudre ont été
traités afin de montrer les avantages et le potentiel de celui-ci. En conclusion de ces expérimentations
numériques, il s’avère que la méthode est limitée par le manque de précision pour prendre en compte
des géométries courbes. Afin d’améliorer cela, nous avons proposé une hybridation entre ce schéma et le
schéma GD que l’on peut étendre aux autres schémas comme les méthodes différences finies (FDTD) et
volumes finis (FVTD). Nous avons montré que la technique d’hybridation proposée conserve l’énergie et
est stable sous une condition que nous avons évaluée de manière théorique. Des exemples de validation
ont ensuite été montrés. Enfin, pour tenir compte des réseaux de câbles, un modèle de fils minces d’ordre
d’approximation spatiale élevé a été proposé. Malheureusement, celui-ci ne peut pas couvrir l’ensemble
des cas industriels et pour remédier à cela, nous avons proposé une hybridation de notre approche avec
une équation de ligne de transmission. L’intérêt de cette hybridation a été montré sur un certain nombre
d’exemples, que nous n’aurions pas pu traiter par un modèle de structure filaire simple.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 25-11-2016
Zidane Karine
Voir le résumé
Voir le résumé
L’optimisation des communications par satellite devient un enjeu crucial pour fournir un accès
Internet aux zones blanches et/ou défavorisées et pour supporter des réseaux à grande échelle.
Dans ce contexte, l’utilisation des techniques d’accès aléatoires sur le lien retour permet
d’améliorer les performances de ces systèmes. Cependant, les techniques d’accès aléatoire
classiques comme ‘Aloha’ et ‘Slotted Aloha’ ne sont pas optimales pour la transmission de
données sur le lien retour. En effet, ces techniques présentent un taux élevé de pertes de
paquets suite aux collisions. Par conséquent, des études récentes ont proposé de nouvelles
méthodes d’accès aléatoire pour résoudre les collisions entre les paquets et ainsi, améliorer
les performances. En particulier, ces méthodes se basent sur la redondance de l’information
et l’annulation successive des interférences. Dans ces systèmes, l’estimation de canal sur le lien retour est un problème difficile en raison du haut niveau de collisions de paquets. Dans une première contribution dans cette thèse,
nous décrivons une technique améliorée d’estimation de canal pour les paquets en collision.
Par ailleurs, nous analysons l’impact des erreurs résiduelles d’estimation de canal sur la
performance des annulations successives des interférences. Même si les résultats obtenus
sont encore légèrement inférieurs au cas de connaissance parfaite du canal, on observe une
amélioration significative des performances par rapport aux algorithmes d’estimation de
canal existants. Une autre contribution de cette thèse présente une méthode appelée ‘Multi-Replica Decoding
using Correlation based Localisation’ (MARSALA). Celle-ci est une nouvelle technique de décodage
pour la méthode d’accès aléatoire synchrone ‘Contention Résolution diversité Slotted
Aloha’ (CRDSA), qui est basée sur les principe de réplication de paquets et d’annulation successive
des interférences. Comparée aux méthodes d’accès aléatoire traditionnelles, CRDSA
permet d’améliorer considérablement les performances. Toutefois, le débit offert par CRDSA
peut être limité à cause des fortes collisions de paquets. L’utilisation deMARSALA par le récepteur
permet d’améliorer les résultats en appliquant des techniques de corrélation temporelles
pour localiser et combiner les répliques d’un paquet donné. Cette procédure aboutit à des
gains en termes de débit et de taux d’erreurs paquets. Néanmoins, le gain offert parMARSALA
est fortement dépendant de la synchronisation en temps et en phase des répliques d’un même
paquet. Dans cette thèse, nous détaillons le fonctionnement deMARSALA afin de corriger la
désynchronisation en temps et en phase entre les répliques. De plus, nous évaluons l’impact
de la combinaison imparfaite des répliques sur les performances, en fournissant un modèle analytique ainsi que des résultats de simulation. En outre, plusieurs schémas d’optimisation
de MARSALA sont proposés tels que le principe du ‘MaximumRatio Combining’, ou la transmission
des paquets à des puissances différentes. Utilisées conjointement, ces différentes
propositions permettent d’obtenir une amélioration très significative des performances. Enfin,
nous montrons qu’en choisissant la configuration optimale pour MARSALA, le gain de
performance est considérablement amélioré.
|
Texte intégral
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 20-10-2016
Guerra Jonathan
Voir le résumé
Voir le résumé
L'objectif de cette thèse est la résolution d’un problème d’optimisation multi-objectif sous incertitudes en présence de simulations numériques coûteuses. Une validation est menée sur un cas test de thermique transitoire. Dans un premier temps, nous développons un algorithme d'optimisation multi-objectif basé sur le krigeage nécessitant peu d’appels aux fonctions objectif. L'approche est adaptée au calcul distribué et favorise la restitution d'une approximation régulière du front de Pareto complet. Le problème d’optimisation sous incertitudes est ensuite étudié en considérant des mesures de robustesse pires cas et probabilistes. Le superquantile intègre tous les évènements pour lesquels la valeur de la sortie se trouve entre le quantile et le pire cas mais cette mesure de risque nécessite un grand nombre d’appels à la fonction objectif incertaine pour atteindre une précision suffisante. Peu de méthodes permettent de calculer le superquantile de la distribution de la sortie de fonctions coûteuses. Nous développons donc un estimateur du superquantile basé sur une méthode d'échantillonnage préférentiel et le krigeage. Il permet d’approcher les superquantiles avec une faible erreur et une taille d’échantillon limitée. De plus, un couplage avec l’algorithme multi-objectif permet la réutilisation des évaluations. Dans une dernière partie, nous construisons des modèles de substitution spatio-temporels capables de prédire des phénomènes dynamiques non linéaires sur des temps longs et avec peu de trajectoires d’apprentissage. Les réseaux de neurones récurrents sont utilisés et une méthodologie de construction facilitant l’apprentissage est mise en place.
|
Texte intégral
|
|