988 resultados para Astrophysique des particules
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Détection des événements de "Minimum Bias" et neutrons avec les détecteurs ATLAS-MPX par simulations
Resumo:
Un réseau de seize détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Les détecteurs ATLAS-MPX sont sensibles au champ mixte de radiation de photons et d’électrons dans la caverne d’ATLAS et sont recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons thermiques et des neutrons rapides respectivement. Les collisions à haute énergie sont dominées par des interactions partoniques avec petit moment transverse pT , associés à des événements de “minimum bias”. Dans notre cas la collision proton-proton se produit avec une énergie de 7 TeV dans le centre de masse avec une luminosité de 10³⁴cm⁻²s⁻¹ telle que fixée dans les simulations. On utilise la simulation des événements de "minimum bias" générés par PYTHIA en utilisant le cadre Athena qui fait une simulation GEANT4 complète du détecteur ATLAS pour mesurer le nombre de photons, d’électrons, des muons qui peuvent atteindre les détecteurs ATLASMPX dont les positions de chaque détecteur sont incluses dans les algorithmes d’Athena. Nous mesurons les flux de neutrons thermiques et rapides, générés par GCALOR, dans les régions de fluorure de lithium et de polyéthylène respectivement. Les résultats des événements de “minimum bias” et les flux de neutrons thermiques et rapides obtenus des simulations sont comparés aux mesures réelles des détecteurs ATLAS-MPX.
Resumo:
Ce mémoire présente l’application de la méthode de décomposition en termes de diagrammes aux désintégrations de mésons B vers trois mésons de type pseudos- calaire ne comportant pas de quarks charmés. La décomposition diagrammatique des désintégrations de types B → Kππ, B → KKK ̄, B → KK ̄π et B → πππ est effectuée de façon systématique. Il est démontré que lorsque l’on néglige les dia- grammes d’échanges et d’annihilations, dont les contributions sont estimées être petites, de nouvelles relations apparaissent entre les amplitudes. Ces relations sont de nouveaux tests du modèle standard qui ne peuvent être obtenus que par la méthode diagrammatique. Lorsque les données nécessaires sont disponibles, nous vérifions ces relations et obtenons un bon accord avec les données expérimentales. Nous démontrons également qu’il est possible d’utiliser le secteur B → Kππ pour mesurer la phase faible γ avec une incertitude théorique que nous estimons être de l’ordre de 5%. Les autres secteurs de désintégrations ne permettent d’extraire des phases faibles que si l’on invoque des approximations de précisions inconnues.
Resumo:
Nous présentons les résultats de trois campagnes d'observation d'un mois chacune dans le cadre de l'étude de la collision des vents dans les systèmes binaires Wolf-Rayet + OB. Ce travail se concentre sur l'étude des objets de l'hémisphère sud n'ayant jamais encore fait l'objet d'études poussées dans ce contexte. À cela, nous avons ajouté l'objet archétype pour ce type de systèmes : WR 140 (WC7pd + O5.5fc) qui a effectué son dernier passage périastre en janvier 2009. Les deux premières campagnes (spectroscopiques), ont permis une mise à jour des éléments orbitaux ainsi qu'une estimation de la géométrie de la zone de collision des vents et d'autres paramètres fondamentaux des étoiles pour 6 systèmes binaires : WR 12 (WN8h), 21 (WN5o+O7V), 30 (WC6+O7.5V), 31 (WN4o+O8), 47 (WN6o+O5) et 140. Une période non-orbitale courte (probablement reliée à la rotation) a également été mesurée pour un des objets : WR 69 (WC9d+OB), avec une période orbitale bien plus grande. La troisième campagne (photométrique) a révélé une variabilité étonnamment faible dans un échantillon de 20 étoiles WC8/9. Cela supporte l'idée que les pulsations ne sont pas courantes dans ce type d'étoiles et qu'il est peu probable que celles-ci soient le mécanisme dominant de formation de poussière, suggérant, par défaut, le rôle prédominant de la collision des vents.
Resumo:
L’adénovirus a été étudié dans l’optique de développer de nouveaux traitements pour différentes maladies. Les vecteurs adénoviraux (AdV) sont des outils intéressants du fait qu’ils peuvent être produits en grandes quantités (1X1012 particules par millilitre) et de par leur capacité à infecter des cellules quiescentes ou en division rapide. Les AdVs ont subi bon nombre de modifications pour leur permettre de traiter des cellules tumorales ou pour transporter des séquences génétiques exogènes essentielles pour le traitement de maladies monogéniques. Toutefois, les faibles niveaux d’expression du récepteur primaire de l’adénovirus, le CAR (récepteur à l’adénovirus et au virus coxsackie), réduit grandement l’efficacité de transduction dans plusieurs tumeurs. De plus, certains tissus normaux comme les muscles n’expriment que très peu de CAR, rendant l’utilisation des AdVs moins significative. Pour pallier à cette limitation, plusieurs modifications ont été générées sur les capsides virales. L’objectif de ces modifications était d’augmenter l’affinité des AdVs pour des récepteurs cellulaires spécifiques surexprimés dans les tumeurs et qui seraient exempts dans les tissus sains avoisinant. On peut mentionner dans les approches étudiées: l’utilisation de ligands bispécifiques, l’incorporation de peptides dans différentes régions de la fibre ou la substitution par une fibre de sérotypes différents. Notre hypothèse était que les domaines d’interaction complémentaire (K-Coil et ECoil) permettraient aux ligands de s’associer aux particules virales et d’altérer le tropisme de l’AdV. Pour ce faire, nous avons inclus un domaine d’interaction synthétique, le K-Coil,dans différentes régions de la fibre virale en plus de générer des mutations spécifiques pour abolir le tropisme naturel. Pour permettre la liaison avec les récepteurs d’intérêt dont l’EGF-R, l’IGF-IR et le CEA6, nous avons fusionné le domaine d’interaction complémentaire, le E-Coil, soit dans les ligands des récepteurs ciblés dont l’EGF et l’IGF-I, soit sur un anticorps à un seul domaine reconnaissant la protéine membranaire CEA6, l’AFAI. Suite à la construction des différents ligands de même que des différentes fibres virales modifiées, nous avons determiné tout d’abord que les différents ligands de même que les virus modifiés pouvaient être produits et que les différentes composantes pouvaient interagir ensemble. Les productions virales ont été optimisées par l’utilisation d’un nouveau protocole utilisant l’iodixanol. Ensuite, nous avons démontré que l’association des ligands avec le virus arborant une fibre modifiée pouvait entraîner une augmentation de transduction de 2 à 21 fois dans différentes lignées cellulaires. À cause de la difficulté des adénovirus à infecter les fibres musculaires occasionnée par l’absence du CAR, nous avons cherché à savoir si le changement de tropisme pourrait accroître l’infectivité des AdVs. Nous avons démontré que l’association avec le ligand bispécifique IGF-E5 permettait d’accroître la transduction autant dans les myoblastes que dans les myotubes de souris. Nous avons finalement réussi à démontrer que notre système pouvait induire une augmentation de 1,6 fois de la transduction suite à l’infection des muscles de souriceaux MDX. Ces résultats nous amènent à la conclusion que le système est fonctionnel et qu’il pourrait être évalué dans des AdVs encodant pour différents gènes thérapeutiques.
Resumo:
L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle.
Resumo:
Il est bien établi que l'exposition à court terme aux particules fines dans l’air ambiant en milieu urbain a des effets sur la santé. Toutefois, peu d'études épidémiologiques ont évalué la relation entre les particules fines (PM2.5) de sources spécifiques comme celles dérivées de feux de forêt et les effets sur la santé. Pour l’instant, les risques de mortalité et de morbidité associés aux PM2.5 résultant de la combustion de végétation semblent similaires à ceux des PM2.5 urbaines. Dans le présent mémoire, nous avons comparé deux méthodes pour quantifier les risques de mortalité et de morbidité associés à l'augmentation des niveaux de PM2.5 à Montréal, dérivées de deux épisodes des feux de forêts majeurs dans le Nord du Québec. La première approche consistait à comparer les décès et les visites aux urgences observées enregistrées au cours des deux épisodes à Montréal à leurs moyennes respectives attendues durant des jours de référence. Nous avons également calculé la surmortalité et la surmorbidité prédites attribuables aux PM2.5 lors des épisodes, en projetant les risques relatifs (RR) rapportés par l’Environmental Protection Agency (EPA) des États-Unis pour les PM2.5 urbaines, ainsi qu’en appliquant des fonctions de risque estimées à partir des données estivales spécifiques à Montréal. Suivant la première approche, nous avons estimé une surmortalité de +10% pendant les deux épisodes. Cependant, aucune tendance claire n'a été observée pour les visites à l'urgence. Et suivant la 2e approche, la surmortalité prédite attribuable aux niveaux des PM2.5 dérivées des feux de forêt étaient moins élevés que ceux observés, soit de 1 à 4 cas seulement. Une faible surmortalité attribuable aux niveaux élevés des PM2.5 issues de feux de la forêt boréale du Québec a été estimée par les fonctions de risque ainsi que par la méthode de comparaison des décès observés aux moyennes attendues, sur l’Île de Montréal, située à des centaines de km des sites de feux.
Resumo:
Le virus respiratoire syncytial (RSV) est un virus à ARN de polarité négative. Les études démontrent que toute la population sera infectée par ce virus au moins deux fois avant l’âge de 3 ans. Le RSV peut provoquer plusieurs pathologies respiratoires telles que la bronchiolite aiguë et la pneumonie. Les infections sévères corrèlent avec le développement de l’asthme. Lors d’une infection virale, les particules du RSV sont détectées par le senseur RIG-I qui induit l’activation des facteurs de transcription NF-κB et IRF-3. Respectivement, les facteurs de transcription activeront les réponses inflammatoire et antivirale. Au coeur des pathologies induites par le RSV se trouve une réponse immunitaire mal adaptée. Plus précisément, par l’entremise de NF-κB, le RSV provoque une production exagérée de cytokines et chimiokines qui induisent une réponse inflammatoire démesurée provoquant du dommage tissulaire. Paradoxalement, le RSV est capable d’échapper à la réponse antivirale. Ces deux phénomènes sont contrôlés par l’entremise des protéines non structurales NS1 et NS2. Le mécanisme délimitant le mode d’action de NS1 et NS2 sur la réponse antivirale reste à être déterminé. Avec pour objectif d’élucider comment NS1 et NS2 inhibent la réponse antivirale, nous avons investigué le mécanisme de reconnaissance de l’hôte vis-à-vis de RSV. Nous démontrerons, pour la première fois, que le senseur cytosolique MDA5 est impliqué dans la réponse antivirale contre le RSV. Nous présenterons des résultats préliminaires qui suggèrent que le rôle de MDA5 est non redondant à RIG-I. À l’aide d’ARN interférant dirigé contre RIG-I et de transfection de MDA5, nous démontrerons que MDA5 ne contribue pas à la phosphorylation d’IRF-3, mais plutôt qu’elle régit la stabilité du facteur de transcription. Nous démontrerons aussi que, contrairement à l’hypothèse actuelle sur le fonctionnement de NS1 et NS2, l’inhibition de ces derniers ne provoque pas une augmentation de la cytokine antivirale IFN−β. Cependant, l’expression ectopique de NS1 et NS2 réduit l’activité du promoteur de l’IFN-β et de la protéine cytoplasmic antivirale ISG56 lorsqu’elle est mesurée par essai luciférase.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Des décennies d’observation ont permis d’obtenir différentes relations liées à l’activité stellaire. Cependant, il est difficile de reproduire numériquement celles-ci à partir de modèles dynamo, puisqu’il n’y a pas de consensus sur le processus réellement présent dans les étoiles. Nous tentons de reproduire certaines de ces relations avec un modèle global 3D hydrodynamique qui nous fournit le profil de rotation différentielle et le tenseur-α utilisés en entrée dans un modèle de dynamo αΩ. Nous reproduisons ainsi efficacement la corrélation positive entre le rapport P_cyc⁄P_rot et P_rot^(-1). Par contre, nous échouons à reproduire les relations liant ω_cyc⁄Ω et l’énergie magnétique au nombre de Rossby. Cela laisse croire que la variation de P_cyc⁄P_rot avec la période de rotation est une caractéristique robuste du modèle αΩ, mais que l’effet-α ne serait pas le processus principal limitant l’amplitude du cycle. Cette saturation découlerait plutôt de la réaction magnétique sur l’écoulement à grande échelle.
Resumo:
Les naines brunes sont des objets de masse intermédiaire entre celle nécessaire pour former une étoile et celle d'une planète. Les naines brunes sont classées, des plus chaudes aux plus froides, en types spectraux L, T et Y, caractérisés par une couleur J-K moyenne qui varie de 1.2 à 1.8 pour les étoiles de type L0 à L8, et de 1.8 à -0.5 pour les étoiles de type L8 à T8. Par ailleurs, la couleur J-K de certains types spectraux présente une dispersion de l'ordre d'une magnitude. Ce travail tente de faire la lumière sur la nature de cette grande dispersion, présente dans la couleur J-K des naines brunes de type L2. Les observations ont été réalisées avec la caméra infrarouge CPAPIR à l'Observatoire du Mont Mégantic. Nous avons ciblé un total de 22 naines brunes qui ont été observées en K, et 12 parmi celles-ci ont aussi été observées en J. Chacune des naines brunes a été calibrée à l'aide d'une étoile standard, ce qui rend nos résultats indépendants des données 2MASS. Nous observons une corrélation entre les couleurs J-K de nos données et de celles de 2MASS. Cela montre que la grande dispersion en J-K de nos données et des données 2MASS est due aux propriétés physiques des naines brunes et non à des erreurs observationnelles. L'examen des facteurs qui pourraient être responsables de cette grande dispersion, soit la classification spectrale, la métallicité, la gravité de surface, une binarité non résolue, la présence de nuages de condensats et la rotation, montre que la gravité de surface serait le facteur le plus susceptible d'être responsable de la grande dispersion des valeurs de J-K.
Resumo:
La thèse qui suit est organisée en deux volets: un premier volet portant sur les modèles de masse de galaxies et un second volet sur la conception de revêtements optiques et le contrôle de leurs propriétés mécaniques. Les modèles de masse présentés dans cette thèse ont été réalisés sur un sous-échantillon de dix galaxies de l'étude SINGS comprenant neuf galaxies normales et une galaxie naine. Ce travail visait à fixer le rapport masse-luminosité du disque à tout rayon en utilisant les résultats de modèles d'évolution galactique chimio-spectrophotométriques ajustés spécifiquement à chaque galaxie grâce à son profil de photométrie multi-bandes. Les résultats montrent que les disques stellaires tels que normalisés par les rapports masse-luminosité issus des modèles ont des masses cohérentes dans toutes les bandes étudiées de l'ultra-violet, du visible ainsi que du proche infrarouge (bandes FUV à IRAC2). Ces disques peuvent être considérés comme maximaux par rapport aux données cinématiques des galaxies étudiées. Ceci est dû au fait que le rapport M/L est plus élevé au centre que sur les bords. Les disques étant maximaux et physiquement justifiés, on ne peut dès lors ignorer les effets de composants tels que les bulbes ou les barres et les corrections nécessaires doivent être apportées aux profils de luminosité et de vitesses de rotation de la galaxie. Dans les travaux de la seconde partie, le logiciel en développement libre OpenFilters a été modifié afin de tenir compte des contraintes mécaniques dans la conception numérique de revêtements optiques. Les contraintes mécaniques dans les couches minces ont un effet délétère sur leurs performances optiques. Un revêtement destiné à rendre réflectives les lames d'un étalon Fabry-Perot utilisé en astronomie a été conçu et fabriqué afin d'évaluer les performances réelles de la méthode. Ce cas a été choisi à cause de la diminution de la finesse d'un étalon Fabry-Perot apporté par la courbure des lames sous l'effet des contraintes. Les résultats montrent que les mesures concordent avec les modèles numériques et qu'il est donc possible à l'aide de ce logiciel d'optimiser les revêtements pour leur comportement mécanique autant que pour leurs propriétés optiques.
Resumo:
Ce mémoire présente une analyse photométrique et spectroscopique d'un échantillon de 16 naines blanches magnétiques froides riches en hydrogène. L'objectif principal de cette étude est de caractériser leurs propriétés atmosphériques et magnétiques afin d'obtenir une vision d'ensemble représentative de cette population d'étoiles. Pour ce faire, il a fallu réunir le plus d'information possible sur toutes les candidates sous la forme de spectres visibles à haut signal-sur-bruit et de données photométriques. Il a également été nécessaire de mettre à jour les modèles d'atmosphère de Bergeron et al. (1992) à l'aide des avancées réalisées par Tremblay & Bergeron (2009). Les paramètres atmosphériques de chacune des étoiles ont ensuite été déterminés en modélisant les distributions d'énergie photométriques observées tandis que la topologie et l'intensité du champ magnétique ont été obtenues en comparant des spectres synthétiques magnétiques au profil d'absorption Zeeman autour de H-alpha. Qui plus est, un processus de déconvolution combinant ces deux approches a aussi été créé afin de traiter adéquatement les systèmes binaires présents dans l'échantillon. Les résultats de ces analyses sont ensuite exposés, incluant une discussion sur la possible corrélation entre les paramètres atmosphériques et les propriétés magnétiques de ces naines blanches. Finalement, cette étude démontre que les données spectroscopiques de la majorité de ces étoiles peuvent uniquement être reproduites si ces dernières se trouvent dans un système binaire composé d'une seconde naine blanche. De plus, les résultats suggèrent que le champ magnétique de ces naines blanches froides ne peut pas être d'origine fossile et doit être généré par un mécanisme physique devant encore être identifié.
Resumo:
Ce mémoire présente une analyse comparative des paramètres atmosphériques obtenus à l’aide des techniques photométrique et spectroscopique. Pour y parvenir, les données photométriques et spectroscopiques de 1375 naines blanches de type DA tirées du Sloan Digital Sky Survey (SDSS) ainsi que les données spectroscopiques du Villanova White Dwarf Catalog ont été utilisées. Il a d’abord fallu s’assurer que les données photométriques et spectroscopiques étaient bien calibrées. L’analyse photométrique a démontré que la photométrie ugriz ne semblait pas avoir de problème de calibration autre que le décalage des points zéro, qui est compensé en appliquant les corrections photométriques appropriées. De plus, le fait que le filtre u laisse passer le flux à certaines longueurs d’onde dans le rouge ne semble pas affecter la détermination des paramètres atmosphériques. L’analyse spectroscopique a ensuite confirmé que l’application de fonctions de correction permettant de tenir compte des effets hydrodynamiques 3D est la solution au problème de log g élevés. La comparaison des informations tirées des données spectroscopiques des deux différentes sources suggère que la calibration des spectres du SDSS n’est toujours pas au point. Les paramètres atmosphériques déterminés à l’aide des deux techniques ont ensuite été comparés et les températures photométriques sont systématiquement plus faibles que celles obtenues à partir des données spectroscopiques. Cet effet systématique pourrait être causé par les profils de raies utilisés dans les modèles d’atmosphère. Une méthode permettant d’obtenir une estimation de la gravité de surface d’une naine blanche à partir de sa photométrie a aussi été développée.
Resumo:
L'outil développé dans le cadre de cette thèse est disponible à l'adresse suivante: www.astro.umontreal.ca/~malo/banyan.php