14 resultados para CONVECTIVE CLOUDS

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Associée à d'autres techniques observationnelles, la polarimétrie dans le visible ou dans le proche infrarouge permet d'étudier la morphologie des champs magnétiques à la périphérie de nombreuses régions de formation stellaire. A l'intérieur des nuages molécualires la morphologie des champs est connue par polarimétrie submillimétrique, mais rarement pour les mêmes régions. Habituellement, il manque une échelle spatiale intermédiaire pour pouvoir comparer correctement la morphologie du champ magnétique galactique avec celle située à l'intérieur des nuages moléculaires. -- Cette thèse propose les moyens nécessaires pour réaliser ce type d'analyse multi-échelle afin de mieux comprendre le rôle que peuvent jouer les champs magnétiques dans les processus de formation stellaire. La première analyse traite de la région GF 9. Vient ensuite une étude de la morphologie du champ magnétique dans les filaments OMC-2 et OMC-3 suivie d'une analyse multi-échelle dans le complexe de nuages moléculaires Orion A dont OMC-2 et OMC-3 font partie. -- La synthèse des résultats couvrant GF 9 et Orion A est la suivante. Les approches statistiques employées montrent qu'aux grandes échelles spatiales la morphologie des champs magnétiques est poloïdale dans la région GF 9, et probablement hélicoïdale dans la région Orion A. A l'échelle spatiale des enveloppes des nuages moléculaires, les champs magnétiques apparaissent alignés avec les champs situés à leur périphérie. A l'échelle spatiale des coeurs, le champ magnétique poloïdal environnant la région GF 9 est apparemment entraîné par le coeur en rotation, et la diffusion ambipolaire n'y semble pas effective actuellement. Dans Orion A, la morphologie des champs est difficilement détectable dans les sites actifs de formation d'OMC-2, ou bien très fortement contrainte par les effets de la gravité dans OMC-1. Des effets probables de la turbulence ne seont détectés dans aucune des régions observées. -- Les analyses multi-échelles suggèrent donc qu'indépendamment du stade évolutif et de la gamme de masse des régions de formation stellaires, le champ magnétique galactique subit des modifications de sa morphologie aux échelles spatiales comparables à celles des coeurs protostellaires, de la même façon que les propriétés structurelles des nuages moléculaires suivent des lois d'autosimilarité jusqu'à des échelles comparables à celles des coeurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse a été réalisée en cotutelle. Pour la forme, Gérard Jasniewicz était mon codirecteur 'officiel' en France, bien que mon codirecteur était plutôt Olivier Richard qui m'a encadré lorsque j'étais en France.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les naines brunes sont des objets astronomiques de faible masse ( 0.012 - 0.075 M_Sun ) et de basse température ( T < 3,500 K ). Bien qu’elles se forment comme des étoiles, c’est-à-dire par l’effondrement d’un nuage de gaz moléculaire, les naines brunes n’ont pas une masse suffisante pour entretenir des réactions de fusion nucléaire en leur coeur. Les naines brunes relativement chaudes (type L) sont recouvertes de nuages de poussière mais ces derniers disparaissent progressivement de l’atmosphère lorsque la température chute sous les 1,500 K (type T). Les naines brunes près de la transition L/T devraient donc être partiellement recouvertes de nuages. De par leur rotation relativement rapide (2 h - 12 h), le couvert nuageux inhomogène des naines brunes devrait produire une variabilité photométrique observable en bande J (1.2 um), la longueur d’onde à laquelle les nuages ont la plus forte opacité. Ce mémoire présente les résultats d’une recherche de variabilité photométrique infrarouge pour une dizaine de naines brunes de type spectral près de la transition L/T. Les observations, obtenues à l’Observatoire du Mont-Mégantic, ont permis le suivi photométrique en bande J de neuf cibles. Une seule d’entre elles, SDSS J105213.51+442255.7 (T0.5), montre des variations périodiques sur une période d’environ 3 heures avec une amplitude pic-à-pic variant entre 40 et 80 mmag. Pour les huit autres cibles, on peut imposer des limites (3 sigma) de variabilité périodique à moins de 15 mmag pour des périodes entre 1 et 6 heures. Ces résultats supportent l’hypothèse qu’un couvert nuageux partiel existe pour des naines brunes près de la transition L/T mais ce phénomène demeure relativement peu fréquent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous analysons les oscillations torsionnelles se développant dans une simulation magnétohydrodynamique de la zone de convection solaire produisant des champs magnétiques de type solaire (champs axisymétriques subissant des inversions de polarités régulières sur des échelles temporelles décadaires). Puisque ces oscillations sont également similaires à celles observées dans le Soleil, nous analysons les dynamiques zonales aux grandes échelles. Nous séparons donc les termes aux grandes échelles (force de Coriolis exercée sur la circulation méridienne et les champs magnétiques aux grandes échelles) de ceux aux petites échelles (les stress de Reynolds et de Maxwell). En comparant les flux de moments cinétiques entre chacune des composantes, nous nous apercevons que les oscillations torsionnelles sont maintenues par l’écoulement méridien aux grandes échelles, lui même modulé par les champs magnétiques. Une analyse d’échange d’énergie confirme ce résultat, puisqu’elle montre que seul le terme comprenant la force de Coriolis injecte de l’énergie dans l’écoulement. Une analyse de la dynamique rotationnelle ayant lieu à la limite de la zone stable et de la zone de convection démontre que celle-ci est fortement modifiée lors du passage de la base des couches convectives à la base de la fine tachocline s’y formant juste en-dessous. Nous concluons par une discussion au niveau du mécanisme de saturation en amplitude dans la dynamo s’opérant dans la simulation ainsi que de la possibilité d’utiliser les oscillations torsionnelles comme précurseurs aux cycles solaires à venir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements climatiques mesurés dans le Nord-ouest canadien au cours du XXIe siècle entraînent une dégradation du pergélisol. Certaines des principales conséquences physiques sont la fonte de la glace interstitielle lors du dégel du pergélisol, l’affaissement du sol et la réorganisation des réseaux de drainage. L’effet est particulièrement marqué pour les routes bâties sur le pergélisol, où des dépressions et des fentes se créent de façon récurrente, rendant la conduite dangereuse. Des observations et mesures de terrain effectuées à Beaver Creek (Yukon) entre 2008 et 2011 ont démontré qu’un autre processus très peu étudié et quantifié dégradait le pergélisol de façon rapide, soit la chaleur transmise au pergélisol par l’écoulement souterrain. Suite aux mesures de terrain effectuées (relevé topographique, étude géotechnique du sol, détermination de la hauteur de la nappe phréatique et des chenaux d’écoulement préférentiels, température de l’eau et du sol, profondeur du pergélisol et de la couche active), des modèles de transfert de chaleur par conduction et par advection ont été produits. Les résultats démontrent que l’écoulement souterrain dans la couche active et les zones de talik contribue à la détérioration du pergélisol via différents processus de transfert de chaleur conducto-convectifs. L’écoulement souterrain devrait être pris en considération dans tous les modèles et scénarios de dégradation du pergélisol. Avec une bonne caractérisation de l’environnement, le modèle de transfert de chaleur élaboré au cours de la présente recherche est applicable dans d’autres zones de pergélisol discontinu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, il est bien accepté que le cycle magnétique de 11 ans du Soleil est l'oeuvre d'une dynamo interne présente dans la zone convective. Bien qu'avec la puissance de calculs des ordinateurs actuels il soit possible, à l'aide de véritables simulations magnétohydrodynamiques, de résoudre le champ magnétique et la vitessse dans toutes les directions spatiales, il n'en reste pas moins que pour étudier l'évolution temporelle et spatiale de la dynamo solaire à grande échelle, il reste avantageux de travailler avec des modèles plus simples. Ainsi, nous avons utilisé un modèle simplifié de la dynamo solaire, nommé modèle de champ moyen, pour mieux comprendre les mécanismes importants à l'origine et au maintien de la dynamo solaire. L'insertion d'un tenseur-alpha complet dans un modèle dynamo de champ moyen, provenant d'un modèle global-MHD [Ghizaru et al., 2010] de la convection solaire, nous a permis d'approfondir le rôle que peut jouer la force électromotrice dans les cycles magnétiques produits par ce modèle global. De cette façon, nous avons pu reproduire certaines caractéristiques observées dans les cycles magnétiques provenant de la simulation de Ghizaru et al., 2010. Tout d'abord, le champ magnétique produit par le modèle de champ moyen présente deux modes dynamo distincts. Ces modes, de périodes similaires, sont présents et localisés sensiblement aux mêmes rayons et latitudes que ceux produits par le modèle global. Le fait que l'on puisse reproduire ces deux modes dynamo est dû à la complexité spatiale du tenseur-alpha. Par contre, le rapport entre les périodes des deux modes présents dans le modèle de champ moyen diffère significativement de celui trouvé dans le modèle global. Par ailleurs, on perd l'accumulation d'un fort champ magnétique sous la zone convective dans un modèle où la rotation différentielle n'est plus présente. Ceci suggère que la présence de rotation différentielle joue un rôle non négligeable dans l'accumulation du champ magnétique à cet endroit. Par ailleurs, le champ magnétique produit dans un modèle de champ moyen incluant un tenseur-alpha sans pompage turbulent global est très différent de celui produit par le tenseur original. Le pompage turbulent joue donc un rôle fondamental au sein de la distribution spatiale du champ magnétique. Il est important de souligner que les modèles dépourvus d'une rotation différentielle, utilisant le tenseur-alpha original ou n'utilisant pas de pompage turbulent, parviennent tous deux à produire une dynamo oscillatoire. Produire une telle dynamo à l'aide d'un modèle de ce type n'est pas évident, a priori. Finalement, l'intensité ainsi que le type de profil de circulation méridienne utilisés sont des facteurs affectant significativement la distribution spatiale de la dynamo produite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les naines brunes sont, en termes de masse, les objets astrophysiques intermédiaires entre les planètes géantes gazeuses et les étoiles de faible masse. Elles se forment de la même manière que les étoiles, par contraction gravitationnelle d’un fragment de nuage de gaz moléculaire ayant atteint la limite de Jeans, mais se différencient par leur incapa- cité à produire les réactions de fusion de l’hydrogène dans leur cœur. Les naines brunes sont par conséquent des objets qui se refroidissent graduellement, et dont les propriétés spectrales évoluent au cours du temps. Ce mémoire présente la recherche de nouvelles candidates de type spectral T tardif et Y, dans le but de compléter le relevé des naines brunes du voisinage solaire. Cette recherche est motivée par deux objectifs principaux. Premièrement, un échantillon com- plet des objets de faible masse est nécessaire pour contraindre correctement la limite aux faibles masses de la fonction de masse initiale des nuages interstellaires, problème clé en astrophysique actuellement. Deuxièmement, les naines brunes de types spectraux tardifs sont les objets stellaires dont les propriétés atmosphériques sont les plus semblables à celles des planètes géantes gazeuses. Par conséquent, la recherche de nouvelles naines brunes permet indirectement d’améliorer nos connaissances des exoplanètes, sans être contraints par la proximité d’étoiles brillantes. À partir du WISE All-Sky Source Catalog, nous avons établi un échantillon de 55 candidates naines brunes répondant aux critères photométriques attendus. Parmi ces can- didates, 17 ont fait l’objet d’un suivi photométrique en bande J à l’Observatoire du Mont-Mégantic, et 9 ont pu être détectées. De ces 9 détections, 4 objets présentent des mouvements propres cohérents avec ceux de naines brunes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les naines brunes sont des objets de masse intermédiaire entre celle nécessaire pour former une étoile et celle d'une planète. Les naines brunes sont classées, des plus chaudes aux plus froides, en types spectraux L, T et Y, caractérisés par une couleur J-K moyenne qui varie de 1.2 à 1.8 pour les étoiles de type L0 à L8, et de 1.8 à -0.5 pour les étoiles de type L8 à T8. Par ailleurs, la couleur J-K de certains types spectraux présente une dispersion de l'ordre d'une magnitude. Ce travail tente de faire la lumière sur la nature de cette grande dispersion, présente dans la couleur J-K des naines brunes de type L2. Les observations ont été réalisées avec la caméra infrarouge CPAPIR à l'Observatoire du Mont Mégantic. Nous avons ciblé un total de 22 naines brunes qui ont été observées en K, et 12 parmi celles-ci ont aussi été observées en J. Chacune des naines brunes a été calibrée à l'aide d'une étoile standard, ce qui rend nos résultats indépendants des données 2MASS. Nous observons une corrélation entre les couleurs J-K de nos données et de celles de 2MASS. Cela montre que la grande dispersion en J-K de nos données et des données 2MASS est due aux propriétés physiques des naines brunes et non à des erreurs observationnelles. L'examen des facteurs qui pourraient être responsables de cette grande dispersion, soit la classification spectrale, la métallicité, la gravité de surface, une binarité non résolue, la présence de nuages de condensats et la rotation, montre que la gravité de surface serait le facteur le plus susceptible d'être responsable de la grande dispersion des valeurs de J-K.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour objectif de déterminer si les précipitations convectives estivales simulées par le modèle régional canadien du climat (MRCC) sont stationnaires ou non à travers le temps. Pour répondre à cette question, nous proposons une méthodologie statistique de type fréquentiste et une de type bayésien. Pour l'approche fréquentiste, nous avons utilisé le contrôle de qualité standard ainsi que le CUSUM afin de déterminer si la moyenne a augmenté à travers les années. Pour l'approche bayésienne, nous avons comparé la distribution a posteriori des précipitations dans le temps. Pour ce faire, nous avons modélisé la densité \emph{a posteriori} d'une période donnée et nous l'avons comparée à la densité a posteriori d'une autre période plus éloignée dans le temps. Pour faire la comparaison, nous avons utilisé une statistique basée sur la distance d'Hellinger, la J-divergence ainsi que la norme L2. Au cours de ce mémoire, nous avons utilisé l'ARL (longueur moyenne de la séquence) pour calibrer et pour comparer chacun de nos outils. Une grande partie de ce mémoire sera donc dédiée à l'étude de l'ARL. Une fois nos outils bien calibrés, nous avons utilisé les simulations pour les comparer. Finalement, nous avons analysé les données du MRCC pour déterminer si elles sont stationnaires ou non.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s’intéresse à la modélisation magnétohydrodynamique des écoulements de fluides conducteurs d’électricité multi-échelles en mettant l’emphase sur deux applications particulières de la physique solaire: la modélisation des mécanismes des variations de l’irradiance via la simulation de la dynamo globale et la reconnexion magnétique. Les variations de l’irradiance sur les périodes des jours, des mois et du cycle solaire de 11 ans sont très bien expliquées par le passage des régions actives à la surface du Soleil. Cependant, l’origine ultime des variations se déroulant sur les périodes décadales et multi-décadales demeure un sujet controversé. En particulier, une certaine école de pensée affirme qu’une partie de ces variations à long-terme doit provenir d’une modulation de la structure thermodynamique globale de l’étoile, et que les seuls effets de surface sont incapables d’expliquer la totalité des fluctuations. Nous présentons une simulation globale de la convection solaire produisant un cycle magnétique similaire en plusieurs aspects à celui du Soleil, dans laquelle le flux thermique convectif varie en phase avec l’ ́energie magnétique. La corrélation positive entre le flux convectif et l’énergie magnétique supporte donc l’idée qu’une modulation de la structure thermodynamique puisse contribuer aux variations à long-terme de l’irradiance. Nous analysons cette simulation dans le but d’identifier le mécanisme physique responsable de la corrélation en question et pour prédire de potentiels effets observationnels résultant de la modulation structurelle. La reconnexion magnétique est au coeur du mécanisme de plusieurs phénomènes de la physique solaire dont les éruptions et les éjections de masse, et pourrait expliquer les températures extrêmes caractérisant la couronne. Une correction aux trajectoires du schéma semi-Lagrangien classique est présentée, qui est basée sur la solution à une équation aux dérivées partielles nonlinéaire du second ordre: l’équation de Monge-Ampère. Celle-ci prévient l’intersection des trajectoires et assure la stabilité numérique des simulations de reconnexion magnétique pour un cas de magnéto-fluide relaxant vers un état d’équilibre.