Sorting :
Date
Publisher
Author
Title
|
|
Institut Supérieur de l'Aéronautique et de l'Espace, Macquarie University (Sydney, Australie)
/ 17-03-2022
Dehez Clementi Marina
View Summary in french
View Summary in french
En 2016, le nombre de décès dus aux accidents de la route atteignait 1,35 million, et ces accidents sont souvent imputable à l’erreur humaine. L'expansion technologique d'Internet et des réseaux interconnectés facilitent l'échange d'informations, parfois vitales. C'est pourquoi beaucoup de travaux ont été produit sur l'automatisation des véhicules. L’amélioration de la sécurité routière est l'un des facteurs qui motive la recherche dans ce domaine et pousse vers l’adoption de systèmes de transport intelligents (ITS) et de réseaux véhiculaires ad hoc (VANET).Un VANET est défini comme un réseau ad-hoc particulier, formé de véhicules capables de communiquer et de traiter l’information reçue, et évoluent en milieu urbain (rues ou autoroutes). Les véhicules peuvent communiquer directement, de pair à pair, ou via un nœud intermédiaire.L'objectif principal de la sécurité des VANETs et des communications véhiculaires est de fournir l'intégrité des messages échangés et la disponibilité des services qui supportent ces échanges. La protection de la confidentialité de ce qu'ils contiennent est un objectif secondaire car non vital. Assurer la responsabilité, c'est-à-dire proposer un moyen d'identifier les entités communicantes et de les tenir responsables pour les messages qu’ils diffusent, est essentiel voire légalement obligatoire. Ce mécanisme doit garantir que tout nœud qui subit une faute, panne ou agit de façon malveillante, soit identifié, révoqué, finalement puni pour ses actions et leurs conséquences. Cependant, un tel mécanisme d'identification pose un problème et risque de compromettre la vie privée des utilisateurs, même lorsqu'ils sont honnêtes.Cette thèse porte sur le délicat compromis entre anonymat et traçabilité dans systèmes distribués tels que les ITSs. Nous étudions l'utilisation des blockchains (chaînes de blocs) dans la construction de primitives cryptographiques à seuil. Ces primitives sont utilisées afin de préserver la vie privée mais aussi la responsabilité des acteurs et étudiées dans leur application au cas des VANETs.Notre première contribution, appelée DOGS, est un schéma de signature de groupe basé sur la blockchain qui propose la fonctionnalité d'ouverture distribuée. Nous montrons, dans cette thèse, que le système améliore un schéma de signature de groupe existant et exploite un protocole de génération de clé distribuée pour répartir le rôle de l'ouvreur (Opener) sur un ensemble de nœuds appelés les sous-ouvreurs (sub-openers).Notre deuxième contribution est une génération de clé distribuée anonyme mais traçable, appelé BAT-Key, qui utilise une blockchain pour assurer la confiance entre les différentes entités qui composent le système. Dans la suite de la thèse, nous expliquons comment nous avons amélioré les protocoles traditionnels avec la propriété d'anonymat qui protège l'identité des participants.Notre troisième contribution, appelée TOAD, est un schéma de chiffrement à seuil basé sur la blockchain avec un service de déchiffrement anonyme mais traçable. Nous montrons que le schéma s'appuie sur un schéma de chiffrement à seuil connu et l’améliore par un processus de déchiffrement collaboratif qui protège l'identité des serveurs de déchiffrement.Tout au long des chapitres, nous expliquons comment l'utilisation de la blockchain garantit la traçabilité des actions effectuées au sein du système par des nœuds anonymes et assure ainsi leur responsabilité tout en préservant la vie privée.Ces schémas sont de la plus haute importance dans l'ère du numérique, même en dehors du domaine des ITSs. Pourtant, nous avons choisi d'illustrer leur importance dans le contexte des VANETs à travers notre dernière contribution : la description de notre construction d'un système de rapport de trafic routier basé sur la blockchain qui préserve l’anonymat des nœuds qui rapportent les informations, mais les tient pour responsables de leurs messages en cas de litige.
|
Integral Text
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 16-03-2022
El Masri Maxime
View Summary in french
View Summary in french
De nombreuses disciplines scientifiques s’intéressent à l’estimation d’espérances d’une fonction d’intérêt selon une certaine loi de probabilité. Cette fonction peut être considérée comme une boite noire, potentiellement couteuse à évaluer. Une méthode couramment utilisée pour estimer des espérances, tout en limitant le nombre d’appels à la boite noire, est la méthode stochastique d’échantillonnage préférentiel (Importance Sampling, IS) qui consiste à échantillonner selon une loi de probabilité auxiliaire au lieu de la loi initiale. L’estimateur d’IS est défini à partir de l’estimateur de Monte-Carlo, avec des poids d’importance, et converge presque sûrement vers l’espérance voulue, par la loi des grands nombres. Cependant, sa variance, et donc la précision de l’estimation, dépend fortement du choix de la densité auxiliaire. Une densité optimale d’échantillonnage préférentiel minimisant la variance peut être définie sur le plan théorique mais n’est pas connue en pratique. Une possibilité est alors de choisir la densité auxiliaire dans une famille paramétrique, avec la-quelle il est facile de générer des échantillons, afin d’approcher la distribution optimale théorique. Des algorithmes adaptatifs (Adaptive Importance Sampling, AIS), qui estiment les paramètres de manière itérative, ont été développés pour trouver les paramètres optimaux permettant d’approcher la densité théorique visée. Mais lorsque la dimension de l’espace des paramètres augmente, l’estimation des paramètres se dégrade et les algorithmes d’AIS, et l’IS en général, deviennent inefficaces. L’estimation finale de l’espérance devient alors très imprécise, notamment du fait de l’accumulation des erreurs commises dans l’estimation de chaque paramètre. L’objectif principal de cette thèse est ainsi d’améliorer la précision de l’IS en grande dimension, en réduisant le nombre de paramètres estimés à l’aide de projections dans un sous-espace de petite dimension. Nous nous concentrons particulièrement sur la recherche de directions de projection influentes pour l’estimation de la matrice de covariance dans un cadre gaussien unimodal (où l’on met à jour le vecteur moyenne et la covariance). La première piste explorée est la projection sur le sous-espace de dimension un engendré par la moyenne optimale. Cette direction est particulièrement pertinente dans le cas d’estimation d’une probabilité d’événement rare, car la variance semble diminuer selon cette direction. La seconde proposition correspond à la projection optimale obtenue en minimisant la divergence de Kullback-Leibler avec la densité visée. Cette seconde proposition permet de projeter dans un espace de plusieurs dimensions contrairement à la première, et permet d’identifier les directions les plus influentes. Dans un premier temps, l’efficacité de ces projections est testée sur différents exemples d’estimation d’espérances en grande dimension, dans un cadre théorique n’impliquant pas d’algorithmes adaptatifs. Les simulations numériques réalisées montrent une nette amélioration de la précision de l’estimation par IS avec les deux techniques de projection sur tous les exemples considérés. Ensuite, nous proposons un couplage de ces projections avec l’algorithme d’Entropie Croisée (Cross Entropy, CE), un algorithme d’AIS destiné à l’estimation de probabilités d’événements rares. L’efficacité de ces algorithmes est vérifiée sur plusieurs cas-tests avec un faible budget de simulation. La technique basée sur la projection dans les directions optimales permet d’obtenir des estimations très précises pour des dimensions modérément grandes (plusieurs dizaines). Le couplage avec la projection sur la moyenne reste en revanche performante dans des dimensions de quelques centaines dans la plupart des exemples. Dans tous les cas, les simulations montrent que les méthodes proposées sont plus précises que la CE classique en grande dimension avec un même budget.
|
Integral Text
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-03-2022
Monnin Loanne
View Summary in french
View Summary in french
Les décharges électrostatiques (ESD) sont dues aux interactions entre le panneau solaire et l'environnement spatial. Majoritairement bénignes pour le satellite, elles peuvent cependant mener à la création d'un arc secondaire qui court-circuite une partie du générateur solaire. L'arc secondaire se déclenche dans un plasma de décharge appelé flash-over créé par l'ESD. En effet, le flash-over constitue le milieu conducteur idéal à l'apparition d’un arc. Cette thèse présente un modèle physique de la génération et de la propagation du flash-over. Ce modèle doit permettre d'identifier les situations propices au passage à l'arc. L'étude de la propagation du flash-over se fait en deux parties. Dans un premier temps, un modèle de spot cathodique est construit. Il s'agit du point d'émission du plasma, le modèle fourni les caractéristiques physiques du flash-over (température, densité, etc.). Il est adapté pour correspondre parfaitement à l'étude du flash-over, notamment en ce qui concerne la géométrie du système et l'influence de l'environnement spatial. La deuxième partie de l'étude porte sur le couplage entre le modèle de spot et un modèle d'expansion d'un plasma dans le vide. Le modèle ainsi obtenu prédit l'évolution du flash-over à la surface d'un panneau solaire. Il fournit notamment une durée maximale de la décharge et la température du plasma. Les résultats obtenus sont comparés avec des mesures expérimentales effectuées sur des panneaux entiers. Le modèle présenté dans ce manuscrit est un socle robuste, validé expérimentalement, qui permet d'expliquer le phénomène de flash-over et sa propagation à la surface du panneau solaire. Des premières pistes d'améliorations ont été étudiées et sont présentées afin de rendre compte des possibilités offertes par le modèle.
|
Integral Text
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 15-02-2022
Rakotomalala Lucien
View Summary in french
View Summary in french
De nos jours les avions ne peuvent se passer d'un important réseau embarqué pour faire communiquer les nombreux capteurs et actionneurs qui y sont disséminés. Ces réseaux ayant une fonction critique, en particulier pour les commandes de vol, il est important d'en garantir certaines propriétés telles des délais de traversée ou l'absence de débordement de buffers. Le calcul réseau est une méthode mathématique permettant de réaliser de telles preuves [2]. Elle a joué un rôle clef dans la certification du réseau AFDX, dérivé de l'ethernet, utilisé à bord des avions les plus récents (A380, A350).Le Calcul Réseau se base sur des résultats mathématiques utilisant l'algèbre tropicale. Ces résultats sont relativement simple mais déjà bien assez subtiles pour qu'il soit très facile de commettre des erreurs ou des omissions lors de preuves papier ou de calcul de valeur concrètes. Par ailleurs, les assistants de preuve sont un bon outil pour réaliser une vérification mécanique de ce genre de preuves et obtenir un très haut niveau de confiance dans leurs résultats. Nous formalisons donc avec un tel outil les notions et propriétés fondamentales de la théorie du Calcul Réseau. Ces résultats font intervenir des propriétés sur les nombres réels, tel que des bornes supérieures et des limites de fonctions linéaires donc nous souhaitons utiliser un outil de formalisation capable d'implémenter untel niveau mathématique. Nous utilisons l'assistant de preuve Coq. Il s'agit d'un outil disposant déjà d'un long développement dont la librairie Mathematical Components qui permet de formaliser de l'analyse sur les nombres réels et la construction de structures algébriques comme celles utilisées dans le Calcul Réseau. Le calcul de valeurs effective repose sur des opérations de l'algèbre min-plus sur des fonctions réelles. Des algorithmes sur des sous-ensembles spécifiques peuvent être trouvés dans la littérature [3]. De tels algorithmes et leurs implémentations sont toutefois compliqués. Plutôt que de développer une preuve de la bonne implémentation de ces algorithmes, nous prenons une implémentation existante comme Oracle et nous donnons des critères de vérifications en Coq.[1] Anne Bouillard, Marc Boyer et Euriell Le Corronc. DeterministicNetwork Calculus : From Theory to Practical Implementation. John Wiley& Sons, Ltd, oct. 2018[2] Assia Mahboubi et Enrico Tassi. Mathematical Components. Zenodo,jan. 2021[3] Anne Bouillard et Eric Thierry. « An Algorithmic Toolbox forNetwork Calculus ». In : Discret. Event Dyn. Syst. 18.1 (2008),p. 3-49.
|
Integral Text
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 15-02-2022
Erdmann Simon
View Summary in french
View Summary in french
Supposons qu'on image en transmission ou en rétrodiffusion un milieu éclairé en lumière cohérente. Supposons également que ce milieu est tel que la phase du champ rétrodiffusé apparaît en tout point comme aléatoire. On obtient alors un motif également aléatoire constitué de grains: du speckle.Si, de plus, le milieu varie au cours du temps, le signal de speckle fluctue également. Imager certaines statistiques temporelles du signal peut alors permettre d'imager le mouvement: c'est l'objet de l'imagerie de speckle dynamique. Ses applications sont nombreuses : étude de suspensions colloïdales, de séchage de peinture, imagerie médicale. Elle s'appuie souvent sur l'autocorrélation temporelle du signal: la forme de cette dernière renseigne sur le type de mouvement, et son temps caractéristique de décroissance est lié à la vitesse de fluctuation du milieu.Cependant, faute de caméras suffisamment rapides, il a longtemps été impossible d'accéder directement à l'autocorrélation temporelle des signaux rencontrés expérimentalement. L'accès aux caractéristiques du mouvement n'était donc possible que via des méthodes indirectes, comme le contraste, assez imprécises et qualitatives. Toutefois, ces dernières années, la diffusion de plus en plus large de caméras haute cadence (jusqu'à plusieurs dizaines de kHz), a changé la donne. La voie s'est ainsi ouverte à un raffinement considérable des modèles et à des gains importants en précision et en rapidité de traitement.Une telle caméra a été utilisée dans le cadre de ces travaux de thèse. Elle a permis d'imager la vascularisation sous-cutanée sur des zones variées du corps humain. On a ainsi pu évaluer la pertinence de plusieurs paramètres pour imager qualitativement le mouvement: l'efficacité du premier terme de la fonction d'autocorrélation, par exemple, a été mise en évidence. Dans le même temps, on a aussi pu constater certaines limites du speckle dynamique que la très haute cadence ne permettait pas de lever. Ainsi, au-delà d'un certain seuil, augmenter la cadence n'apporte plus d'information, tandis que l'hypothèse de stationnarité du signal est ébranlée par les effets de la pulsation cardiaque. Ces limites ne remettent pas en question l'apport considérable de la haute cadence, mais illustrent à quel point il s'agit d'un changement de paradigme.Pour en prendre la pleine mesure et exploiter au maximum le gain en résolution temporelle permis par les caméras rapides, il est nécessaire, en parallèle des études expérimentales, d'affiner les modèles existants. C'est dans cette optique qu'un travail de modélisation et de simulation du système d'imagerie a été mené. Notre but était de relier le plus précisément possible un type de dynamique du milieu aux statistiques du signal obtenu. Ainsi, il a été possible de redémontrer rigoureusement et de nuancer des résultats tenus pour phénoménologiques dans la littérature, tels que certains modèles d'autocorrélation temporelle. Ces résultats fondent la possibilité, à terme, de remonter à des grandeurs physiques fiables à partir d'un signal de speckle dynamique.Enfin, comme les modèles inverses de speckle dynamique s'appuient sur des statistiques parfois complexes sur les signaux, il convient de s'assurer que celles-ci ne sont pas altérées par des traitements tiers. En particulier, beaucoup d'opérations de traitement du signal, notamment de rééchantillonnage (sur-échantillonnage, sous-échantillonnage, recalage) sont effectuées sans conscience des effets considérables qu'elles peuvent avoir sur les statistiques du signal. Un troisième axe de ces travaux a donc consisté à caractériser ces effets en fonction des méthodes utilisées. Il a par exemple été établi qu'un filtre passe-bas (préalable à un sous-échantillonnage) tend à générer d'autant plus de corrélation longue distance qu'il est resserré en fréquence --- et donc qu'il permet d'éviter l'aliasing. Le même type de résultat a été établi avec les méthodes d'interpolation.
|
Integral Text
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 03-02-2022
Fabozzi Fabio
View Summary in french
View Summary in french
Dans cette thèse de doctorat, nous nous intéressons à l'estimation robuste de la phase de la porteuse en utilisant le filtrage bayésien variationnel. La mesure de la phase porteuse est devenue une tâche fondamentale dans de nombreuses applications d'ingénierie telles que le positionnement précis dans le domaine du GNSS. Malheureusement, les mesures de phase obtenues par les techniques traditionnelles de poursuite de phase peuvent être fortement mises à mal par la présence de sauts de phase ambigus, appelés sauts de cycle. Ces derniers peuvent durement impacter les performances des algorithmes de poursuite conduisant, dans le pire des cas, à une perte permanente de verrouillage du signal. Un processus de ré-acquisition est alors nécessaire qui affecte les performances de suivi. Par conséquent, pour résoudre ce problème, nous proposons un filtre non linéaire robuste de poursuite de phase basé sur l'inférence de Bayes variationnelle. Tout d'abord, l'algorithme est développé en supposant une dynamique lente de phase (c'est-à-dire la boucle au premier ordre), puis, son ordre est augmenté en estimant un vecteur d'état formé par la phase et ses dérivées. Les performances de ce nouvel algorithme sont comparées avec celles de techniques conventionnelles (tels que la DPLL (Digital Phase Lock Loop) et la KF (Kalman Filter)-DPLL) en terms de précision d'estimation et d'occurence de sauts de cycle. La comparaison est d'abord effectuée à l'aide de données synthétiques, puis de données GNSS réelles dans un récepteur radio logicielle GNSS. Les résultats montrent que la méthode proposée a de meilleures performances par rapport aux filtres linéaires conventionnels, lorsque le rapport signal sur bruit est faible.
|
Integral Text
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 02-02-2022
Laffont Adrien
View Summary in french
View Summary in french
Gaz ionisés composés d’électrons, d’ions et de neutres, les décharges plasmas ont déjà démontré leur potentialité pour le développement de systèmes radiofréquences et micro-ondes. Plus particulièrement, le contrôle de la densité électronique et l’aspect allumage/extinction (mode ON/OFF) des décharges plasmas suscitent un intérêt croissant pour le développement d’antennes furtives reconfigurables en fréquence et/ou en diagramme de rayonnement. Ces antennes exploitent principalement deux comportements électromagnétiques des décharges plasmas, le comportement électrique, pour lequel la partie réelle de la permittivité relative du plasma est grandement négative, et le comportement diélectrique lorsque cette dernière est comprise entre 0 et 1.Récemment, un nouveau type d’antenne plasma miniature a été proposé et expérimentalement étudié en bande VHF [1]. Dans son utilisation, le plasma ne se comporte ni comme un bon conducteur électrique, ni comme un matériau diélectrique, mais comme un mauvais conducteur aussi appelé matériau ENG (Epsilon NéGatif). L’antenne consiste alors en un monopole miniature couplé à un résonateur ENG hémisphérique de dimension sub-longueur d’onde obtenu grâce à une décharge plasma. Les travaux présentés dans [1], issus d’une précédente thèse [2], permirent de mettre en évidence un phénomène de résonance associé à un rayonnement électromagnétique de l’antenne plasma miniature. La reconfigurabilité en fréquence de l’antenne a également été observée en modifiant la puissance électromagnétique communiquée au plasma et donc sa densité électronique.Dans ces travaux de thèse, nous poursuivons le développement de cette antenne plasma miniature. Plus spécifiquement, ce travail de recherche a pour but de :
• comprendre le phénomène physique opérant au sein du plasma à l’origine du rayonnement électromagnétique de l’antenne plasma miniature
• mettre en œuvre des dispositifs de mesure pour évaluer ses performances antennaires,
• étudier expérimentalement les propriétés potentielles de durcissement électromagnétique de l’antenne
• proposer une modélisation numérique de cette antenne non-standard.Au cours de cette thèse, les différents travaux de recherche ayant été menés afin de répondre aux objectifs sont :
• un état de l’art sur les antennes à plasma
• le développement d’un modèle analytique afin de proposer une description phénoménologique de la résonance plasmonique, phénomène physique à l’origine du rayonnement électromagnétique de l’antenne
• l’élaboration de dispositifs de mesure dédiés à la caractérisation des propriétés de cette antenne
• la mesure des performances de l’antenne plasma miniature ainsi que la mise en évidence expérimentale de ses propriétés de durcissement électromagnétique
• la mise en œuvre d’une stratégie pour modéliser numériquement cette antenne plasma miniature
|
Integral Text
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 18-01-2022
Zhang Ruohao
View Summary in french
View Summary in french
Ces dernières années, le développement du système aérien sans pilote (UAS) impliquant des essaims de véhicules aériens sans pilote (UAV) a connu des progrès sans précédent. Cependant, les systèmes de réseau mis en œuvre dans les UAS commerciaux actuels sont souvent des variantes des systèmes de réseau existants. Ainsi, des vulnérabilités préexistantes peuvent persister, tandis que de nouvelles vulnérabilités émergeant des nouvelles propriétés des UAS, telles que la mobilité et l'interconnectivité, sont encore plus préoccupantes. Étant donné que les UAS opèrent dans l'espace aérien civil, la sûreté et la sécurité sont essentielles.Cette thèse a été créée en réponse à une demande croissante. Dans ce rapport de thèse, trois stratégies sont explorées pour chercher à résoudre différentes attaques que l'on peut s'attendre à observer dans un UAS.La première partie de la thèse implique l'utilisation de théories cybernétiques : des techniques d'observation robustes pour réaliser une détection robuste d'anomalies dans un réseau TCP (Transmission Control Protocol). Les travaux se sont concentrés sur la conception d'un observateur robuste basé la méthode des fonctionnelles de Lyapunov-Krasovkii et d'un système de gestion de file d'attente active (AQM) dans un réseau TCP. En exploitant la dynamique du réseau TCP, nous pouvons détecter un trafic réseau anormal.La deuxième partie de la thèse utilise la théorie multifractale pour identifier les trafics présentant une anomalie. Les travaux se sont concentrés sur la conception d'un prototype d'IDS fonctionnel basé sur l'analyse Wavelet Leader Multifractal (WLM) pour identifier des anomalies telles que la congestion du réseau générée par une attaque DoS. Dans l'expérience, nous observons que la signature WLM d'un réseau UAS simulé peut être radicalement différente entre un trafic normal et un trafic affecté par une attaque DoS. Par une simple comparaison analytique entre les différentes signatures, nous pouvons identifier le trafic avec ou sans attaque.La troisième partie de la thèse consiste à utiliser l'intelligence artificielle (IA) pour améliorer les performances de détection. Nous avons introduit un réseau de classification Long Short-Term memory (LSTM) (et d'autres réseaux de neurones) pour augmenter la qualité de détection. Ici, au lieu de cibler une attaque évidente, telle que l'attaque DoS, nous avons tourné notre attention vers une attaque plus délicate, telle que l'attaque Man in the Middle (MITM). En adaptant l'analyse WLM et les principes d'apprentissage automatique, nous avons constaté qu'il est possible d'atteindre un niveau de détection prometteur pour une attaque de falsification des coordonnées géographiques des drones dans un réseau UAS simulé.
|
Integral Text
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 16-12-2021
Marchenay Yann
View Summary in french
View Summary in french
Lors de la rentrée atmosphérique d’un véhicule hypersonique, l’écoulement présente une onde de choc détachée enveloppant le véhicule et une couche limite visqueuse au voisinage de la paroi qui conduit à son échauffement. Dans les basses couches de l’atmosphère, l'écoulement évolue d'un régime laminaire à un régime turbulent en raison de l’augmentation du nombre de Reynolds. L’échauffement de la paroi conduit à la détérioration du matériau sous l’effet de l’ablation et de réactions chimiques susceptibles de modifier l’état de surface. Dans le cas d’un écoulement pleinement turbulent, l'effet des rugosités de paroi se traduit par une augmentation du frottement et des échanges de chaleur. Actuellement, on dispose de modèles avec différents degrés de sophistication et de validation qui reproduisent cet effet par augmentation de la turbulence en proche paroi. Concernant le soufflage en paroi, des modèles existent qui permettent de reproduire l'effet d'injection de fluide à la paroi sur le développement de la turbulence. L’objectif de cette thèse est de mettre au point un modèle permettant de tenir compte d'effets conjoints/couplés de rugosité et de soufflage adapté à des approches RANS (Reynolds Averaged Navier-Stokes) de la turbulence, par exemple modèle à deux équations de type k-ω;, dans le contexte d’écoulements hypersoniques. La thèse se déroulera en 3 ans dans le cadre d’une collaboration entre le CEA-CESTA (à proximité de Bordeaux) et l’ONERA-DMAE (Toulouse). Le déroulement se fera comme suit: - Tout d'abord une revue bibliographique la plus exhaustive possible sera entreprise sur la problématique des parois rugueuses avec soufflage. Cette revue doit aboutir à l'élaboration d'une base de données détaillée. On distinguera notamment les écoulements subsoniques incompressibles des écoulements supersoniques et hypersoniques. A partir de cette base de données, la seconde étape de la thèse sera la construction d'un modèle de rugosité/soufflage. - Dans un premier temps, on adoptera une approche avec un couplage faible entre les effets de rugosité et de soufflage. Ainsi, les modèles de rugosité actuels seront couplés à des conditions limites de soufflage pour voir dans quelle mesure une telle approche peut s'appliquer. - Ensuite, on considèrera des approches où les effets de soufflage, notamment sur la turbulence de proche paroi, seront pris en compte en supplément des effets de rugosités dans la formulation du modèle de turbulence. Enfin, on envisage le développement d'un modèle directement à partir de la base de données collectée, dans lequel les effets de rugosité et de soufflage sont fortement couplés. Les différents modèles identifiés seront développés dans un code de couche limite (code CLICET de l'ONERA) puis dans un solveur Navier-Stokes (code CEA). Une phase de validation sur des cas pertinents d'application sera ensuite menée.
|
Integral Text
|
|
Institut Supérieur de l'Aéronautique et de l'Espace
/ 14-12-2021
Ordonneau Benjamin
View Summary in french
View Summary in french
Les assemblages sont le point critique de toutes les industries de construction. Au-delà de permettre la construction de systèmes mécaniques complexes, il en assure la durée de vie, du fait qu’ils ont pour fonction d’assurer le transfert des efforts au sein des structures. Comparée à la technologie d’assemblage par boulonnage, l’assemblage par collage offre des performances mécaniques accrues tout en réduisant la masse embarquée nécessaire au transfert des efforts. Cette technologie intéresse donc particulièrement les industries aéronautiques, spatiales, ferroviaires ou automobiles, pour lesquelles le rapport résistance sur masse est un enjeu majeur. Le sujet consiste à développer des méthodologies permettant de réduire les temps de calcul tout en prenant en compte le comportement réel de l’adhésif pour une meilleure représentativité de la simulation du comportement mécanique sous sollicitation dynamique à l’échelle de la structure. Il est démontré dans la littérature que certains jeux d’hypothèses simplificatrices permettent une représentation précise du comportement mécanique des assemblages collés au travers d’un schéma de résolution analytique. Néanmoins, le champ d’application de ces approches analytiques est souvent trop restrictif. Des schémas de résolution semi-analytique doivent alors être employés pour résoudre le système d’équations différentielles issu des judicieuses hypothèses simplificatrices. A notre connaissance, la technique par macro-élément, développée depuis 15 ans à l’Institut Clément Ader, est une des deux approches semi-analytiques qui existent dans la littérature. Aujourd’hui, cette technique est applicable dans le cadre d’une cinématique de poutre et peut être utilisée pour des éprouvettes de caractérisation ou des assemblages chargés dans le plan. L’objectif de cette thèse est d’étendre la technique par macro-élément à une cinématique de plaque, impliquant alors un système d’équations aux dérivées partielles, afin de pouvoir simuler des assemblages de structures minces sous chargement statique et dynamique quelconque.
|
Integral Text
|
|