994 resultados para Modèles de prédiction


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En rivière à lit de graviers, le transport des sédiments en charge de fond est un processus intermittent qui dépend de plusieurs variables du système fluvial dont la prédiction est encore aujourd’hui inexacte. Les modèles disponibles pour prédire le transport par charriage utilisent des variables d’écoulement moyen et la turbulence n’est généralement pas considérée malgré que les tourbillons contenus dans les écoulements possèdent une quantité d’énergie importante. L’utilisation de nouvelles approches pour étudier la problématique du transport par charriage pourrait nous permettre d’améliorer notre connaissance de ce processus déterminant en rivière alluviale. Dans ce mémoire, nous documentons ces composantes de la dynamique fluviale dans un cours d’eau graveleux en période de crue. Les objectifs du projet de recherche sont : 1) d’examiner l’effet du débit sur les variables turbulentes et les caractéristiques des structures turbulentes cohérentes, 2) d’investiguer l’effet du débit sur les caractéristiques des événements de transport de sédiments individuels détectés à l’aide d’un nouvel algorithme développé et testé et 3) de relier les caractéristiques de l’écoulement turbulent aux événements de transport de sédiments individuels. Les données de turbulence montrent qu’à haut niveau d’eau, l’écoulement décéléré est peu cohérent et a une turbulence plus isotrope où les structures turbulentes cohérentes sont de courte durée. Ces observations se distinguent de celles faites à faible niveau d’eau, en écoulement accéléré, où la plus grande cohérence de l’écoulement correspond à ce qui est généralement observé dans les écoulements uniformes en rivières graveleuses. Les distributions de fréquence des variables associées aux événements de transport individuel (intensité de transport moyenne, durée d’événement et intervalle entre événements successifs) ont des formes différentes pour chaque intensité de crue. À haut niveau d’eau, le transport est moins intermittent qu’à faible débit où les événements rares caractérisent davantage les distributions. L’accélération de l’écoulement à petite échelle de temps joue un rôle positif sur le transport, mais surtout lorsque la magnitude de la crue mobilisatrice est en dessous du niveau plein bord. Les résultats de l’étude montrent que les caractéristiques de la turbulence ainsi que les liens complexes entre l’écoulement et le transport par charriage sont fonction du débit.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les données comptées (count data) possèdent des distributions ayant des caractéristiques particulières comme la non-normalité, l’hétérogénéité des variances ainsi qu’un nombre important de zéros. Il est donc nécessaire d’utiliser les modèles appropriés afin d’obtenir des résultats non biaisés. Ce mémoire compare quatre modèles d’analyse pouvant être utilisés pour les données comptées : le modèle de Poisson, le modèle binomial négatif, le modèle de Poisson avec inflation du zéro et le modèle binomial négatif avec inflation du zéro. À des fins de comparaisons, la prédiction de la proportion du zéro, la confirmation ou l’infirmation des différentes hypothèses ainsi que la prédiction des moyennes furent utilisées afin de déterminer l’adéquation des différents modèles. Pour ce faire, le nombre d’arrestations des membres de gangs de rue sur le territoire de Montréal fut utilisé pour la période de 2005 à 2007. L’échantillon est composé de 470 hommes, âgés de 18 à 59 ans. Au terme des analyses, le modèle le plus adéquat est le modèle binomial négatif puisque celui-ci produit des résultats significatifs, s’adapte bien aux données observées et produit une proportion de zéro très similaire à celle observée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La compréhension des objets dans les programmes orientés objet est une tâche impor- tante à la compréhension du code. JavaScript (JS) est un langage orienté-objet dyna- mique, et son dynamisme rend la compréhension du code source très difficile. Dans ce mémoire, nous nous intéressons à l’analyse des objets pour les programmes JS. Notre approche construit de façon automatique un graphe d’objets inspiré du diagramme de classes d’UML à partir d’une exécution concrète d’un programme JS. Le graphe résul- tant montre la structure des objets ainsi que les interactions entre eux. Notre approche utilise une transformation du code source afin de produire cette in- formation au cours de l’exécution. Cette transformation permet de recueillir de l’infor- mation complète au sujet des objets crées ainsi que d’intercepter toutes les modifications de ces objets. À partir de cette information, nous appliquons plusieurs abstractions qui visent à produire une représentation des objets plus compacte et intuitive. Cette approche est implémentée dans l’outil JSTI. Afin d’évaluer l’utilité de l’approche, nous avons mesuré sa performance ainsi que le degré de réduction dû aux abstractions. Nous avons utilisé les dix programmes de réfé- rence de V8 pour cette comparaison. Les résultats montrent que JSTI est assez efficace pour être utilisé en pratique, avec un ralentissement moyen de 14x. De plus, pour 9 des 10 programmes, les graphes sont suffisamment compacts pour être visualisés. Nous avons aussi validé l’approche de façon qualitative en inspectant manuellement les graphes gé- nérés. Ces graphes correspondent généralement très bien au résultat attendu. Mots clés: Analyse de programmes, analyse dynamique, JavaScript, profilage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La liste des domaines touchés par l’apprentissage machine s’allonge rapidement. Au fur et à mesure que la quantité de données disponibles augmente, le développement d’algorithmes d’apprentissage de plus en plus puissants est crucial. Ce mémoire est constitué de trois parties: d’abord un survol des concepts de bases de l’apprentissage automatique et les détails nécessaires pour l’entraînement de réseaux de neurones, modèles qui se livrent bien à des architectures profondes. Ensuite, le premier article présente une application de l’apprentissage machine aux jeux vidéos, puis une méthode de mesure performance pour ceux-ci en tant que politique de décision. Finalement, le deuxième article présente des résultats théoriques concernant l’entraînement d’architectures profondes nonsupervisées. Les jeux vidéos sont un domaine particulièrement fertile pour l’apprentissage automatique: il estf facile d’accumuler d’importantes quantités de données, et les applications ne manquent pas. La formation d’équipes selon un critère donné est une tˆache commune pour les jeux en lignes. Le premier article compare différents algorithmes d’apprentissage à des réseaux de neurones profonds appliqués à la prédiction de la balance d’un match. Ensuite nous présentons une méthode par simulation pour évaluer les modèles ainsi obtenus utilisés dans le cadre d’une politique de décision en ligne. Dans un deuxième temps nous présentons une nouvelleméthode pour entraîner des modèles génératifs. Des résultats théoriques nous indiquent qu’il est possible d’entraîner par rétropropagation des modèles non-supervisés pouvant générer des échantillons qui suivent la distribution des données. Ceci est un résultat pertinent dans le cadre de la récente littérature scientifique investiguant les propriétés des autoencodeurs comme modèles génératifs. Ces résultats sont supportés avec des expériences qualitatives préliminaires ainsi que quelques résultats quantitatifs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La vie des femmes du continent africain et de leurs enfants continue d’être mise en danger lors de chaque accouchement car les risques de décès maternels et infantiles sont encore très élevés. Il est estimé chaque année à environ le quart du million le nombre de décès maternel et de près de quatre millions celui des enfants de moins de cinq ans. La comparaison de la situation sanitaire avec d’autres contextes permet de mieux cerner l’ampleur du problème : en Afrique sub-Saharienne, le risque de décès lié à la grossesse est de l’ordre de 1 pour 31, alors qu’il n’est que de 1 pour 4300 dans les pays industrialisés. Cette situation est évitable et, le plus souvent, résulte de la sous ou non-utilisation des services de santé maternelle, du manque de structures adéquates de soins ou de personnel de santé qualifié. Notre thèse cherche à comprendre la manière dont les inégalités de genre au sein du ménage et dans la communauté renforcent les inégalités quant à l’utilisation des services de santé maternelle, ainsi qu’aux relations empiriques qui lient les différents recours aux soins. Concrètement, elle vise à 1) proposer une mesure des normes de genre favorables à la violence contre les femmes et à analyser son influence sur leur prise de décision au sein du ménage, 2) analyser simultanément l’influence de ces normes et de l’autonomie des femmes sur le recours aux soins prénatals et à l’accouchement assisté et finalement, 3) cerner l’influence des soins prénatals sur le recours à l’accouchement assisté. Chacun de ces objectifs se heurte à un problème méthodologique substantiel, soit de mesure ou de biais de sélection, auxquels l’approche par modèles d’équations structurelles que nous avons adoptée permet de remédier. Les résultats de nos analyses, présentés sous forme d’articles scientifiques, s’appuient sur les données issues des Enquêtes Démographiques et de Santé (EDS) du Ghana, du Kenya, de l’Ouganda et de la Tanzanie et concernent les femmes vivant en milieu rural. Notre premier article propose une mesure des normes de genre et, plus exactement, celles liées à la violence contre les femmes en recourant à l’approche des variables latentes. Les cinq questions des EDS relatives à l’attitude des femmes sur la légitimation de la violence ont permis de saisir cette mesure au niveau contextuel. Les résultats suggèrent d’une part que cette mesure a de bons critères de validité puisque l’Alpha de Cronbach varie de 0.85 pour le Kenya à 0.94 pour le Ghana; les chi-deux sont non significatifs partout; le RMSEA est en dessous de 0.05; le CFI supérieur à 0.96 et les saturations sont pour la plupart supérieures à 0.7 dans tous les pays. D’autre part, à l’aide du modèle d’équations structurelles multiniveaux, nous avons trouvé qu’au-dede leur propre attitude envers la violence contre les femmes, celles qui vivent dans un milieu où les normes de genres sont plus favorables à la violence ont plus de chances d’être de faible autonomie ou sans autonomie (comparativement à forte autonomie) dans l’ensemble des pays étudiés. Le second article documente l’influence des inégalités de genre, cernées au niveau contextuel par les normes favorables à la violence contre les femmes et au niveau individuel par l’autonomie de prise de décision au sein du ménage, sur la survenue des soins prénatals au cours du premier trimestre et sur les recours à au moins 4 consultations prénatales et à l’accouchement assisté. En utilisant également les modèles d’équations structurelles multiniveaux sur les mêmes données du premier article, nous constatons que chacune de ces variables dépendantes est fortement influencée par la grappe dans laquelle la femme vit. En d’autres mots, son lieu de résidence détermine le comportement de santé maternelle que l’on adopte. De même, en contrôlant pour les autres variables explicatives, nos résultats montrent que les femmes qui vivent dans un milieu où les normes de genre liées à la violence contre les femmes sont élevées ont, en moyenne, une plus grande chance de ne pas accoucher auprès d’un personnel qualifié au Ghana et en Ouganda, de ne pas débuter leurs soins prénatals dans le premier trimestre dans les mêmes pays, et de ne pas recourir à au moins quatre consultations prénatales en Tanzanie. Par contre, cette variable contextuelle n’influence pas significativement le recours aux soins de santé maternelle au Kenya. Enfin, les résultats montrent que les normes de genre favorables à la violence contre les femmes sont plus déterminantes pour comprendre le recours aux soins de santé maternelle dans les pays étudiés que l’autonomie de prise de décision de la femme. Dans le cadre du troisième et dernier article empirique de la thèse, nous nous sommes intéressés à l’importance des soins prénatals dans le processus de recours à l’accouchement assisté et à la place du contenu des soins reçus avant l’accouchement dans cette relation. Cet article met en exergue l’existence de biais d’endogénéité au Kenya et en Tanzanie, où sans sa prise en compte, l’effet des soins prénatals sur le recours à l’accouchement auprès d’un personnel qualifié serait fortement biaisé. De plus, il ressort qu’à l’exception du Ghana et dans une moindre mesure de la Tanzanie, cet effet est totalement médiatisé par le contenu des soins prénatals que les femmes reçoivent. L’article met ainsi en relief le rôle des prestataires de soins qui pour atteindre plus efficacement les populations doivent agir en tant que leaders au sein de leur communauté.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire rapporte l’optimisation et l’évaluation d’une nouvelle version du test PAMPA (Parallel Artificial Membrane Permeability Assay) appelée Néo-PAMPA. Ce test qui permet la prédiction de l’absorption intestinale de médicaments consiste en l’utilisation d’une membrane modèle de la paroi intestinale composée d’une bicouche lipidique déposée sur un coussin de polydopamine recouvrant un filtre poreux. En effet, nous nous sommes intéressés lors de ce projet à la mise en place d’une membrane artificielle qui serait plus représentative de la paroi intestinale humaine. Nous avons pu déterminer, suite à une étude comparative des propriétés de huit médicaments ainsi que les coefficients de perméabilité obtenus, que les filtres en polycarbonate présentaient le meilleur choix de support solide pour la membrane. Nous avons également vérifié la déposition du coussin de polydopamine qui apporte le caractère fluide à la bicouche lipidique. Les résultats des tests de perméabilité ont démontré que le coussin de polymère n’obstrue pas les pores du filtre après un dépôt de 4h. Nous avons par la suite étudié la déposition de la bicouche lipidique sur le filtre recouvert de polydopamine. Pour ce faire, deux méthodes de préparation de liposomes ainsi que plusieurs tailles de liposomes ont été testées. Aussi, la composition en phospholipides a été sujette à plusieurs changements. Tous ces travaux d’optimisation ont permis d’aboutir à des liposomes préparés selon la méthode du « film lipidique » à partir d’un mélange de dioléoylphosphatidylcholine (DOPC) et de cholestérol. Une dernière étape d’optimisation de la déposition de la bicouche reste à améliorer. Enfin, le test standard Caco-2, qui consiste à évaluer la perméabilité des médicaments à travers une monocouche de cellules cancéreuses du colon humain, a été implémenté avec succès dans le but de comparer des données de perméabilité avec un test de référence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La thèse qui suit est organisée en deux volets: un premier volet portant sur les modèles de masse de galaxies et un second volet sur la conception de revêtements optiques et le contrôle de leurs propriétés mécaniques. Les modèles de masse présentés dans cette thèse ont été réalisés sur un sous-échantillon de dix galaxies de l'étude SINGS comprenant neuf galaxies normales et une galaxie naine. Ce travail visait à fixer le rapport masse-luminosité du disque à tout rayon en utilisant les résultats de modèles d'évolution galactique chimio-spectrophotométriques ajustés spécifiquement à chaque galaxie grâce à son profil de photométrie multi-bandes. Les résultats montrent que les disques stellaires tels que normalisés par les rapports masse-luminosité issus des modèles ont des masses cohérentes dans toutes les bandes étudiées de l'ultra-violet, du visible ainsi que du proche infrarouge (bandes FUV à IRAC2). Ces disques peuvent être considérés comme maximaux par rapport aux données cinématiques des galaxies étudiées. Ceci est dû au fait que le rapport M/L est plus élevé au centre que sur les bords. Les disques étant maximaux et physiquement justifiés, on ne peut dès lors ignorer les effets de composants tels que les bulbes ou les barres et les corrections nécessaires doivent être apportées aux profils de luminosité et de vitesses de rotation de la galaxie. Dans les travaux de la seconde partie, le logiciel en développement libre OpenFilters a été modifié afin de tenir compte des contraintes mécaniques dans la conception numérique de revêtements optiques. Les contraintes mécaniques dans les couches minces ont un effet délétère sur leurs performances optiques. Un revêtement destiné à rendre réflectives les lames d'un étalon Fabry-Perot utilisé en astronomie a été conçu et fabriqué afin d'évaluer les performances réelles de la méthode. Ce cas a été choisi à cause de la diminution de la finesse d'un étalon Fabry-Perot apporté par la courbure des lames sous l'effet des contraintes. Les résultats montrent que les mesures concordent avec les modèles numériques et qu'il est donc possible à l'aide de ce logiciel d'optimiser les revêtements pour leur comportement mécanique autant que pour leurs propriétés optiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent est une déformation 3D du rachis. La littérature comporte une multitude d’études sur la prédiction de l’évolution et l’identification de facteurs de risque de progression. Pour l’instant les facteurs de risque établis sont l’amplitude de la déformation, la maturité squelettique et le type de courbure. Plusieurs autres champs ont été explorés comme les aspects génétiques, biochimiques, mécaniques, posturaux et topographiques, sans vraiment apporter beaucoup de précision à la prédiction de l’évolution. L’avancement de la technologie permet maintenant de générer des reconstructions 3D du rachis à l’aide des radiographies standard et d’obtenir des mesures de paramètres 3D. L’intégration de ces paramètres 3D dans un modèle prédictif représente une avenue encore inexplorée qui est tout à fait logique dans le contexte de cette déformation 3D du rachis. L’objectif général de cette thèse est de développer un modèle de prédiction de l’angle de Cobb à maturité squelettique à partir de l’information disponible au moment de la première visite, soit l’angle de Cobb initial, le type de courbure, l’âge osseux et des paramètres 3D du rachis. Dans une première étude, un indice d’âge osseux a été développé basé sur l’ossification de l’apophyse iliaque et sur le statut du cartilage triradié. Cet indice comporte 3 stades et le second stade, qui est défini par un cartilage triradié fermé avec maximum 1/3 d’ossification de l’apophyse iliaque, représente le moment pendant lequel la progression de la scoliose idiopathique de l’adolescent est la plus rapide. Une seconde étude rétrospective a permis de mettre en évidence le potentiel des paramètres 3D pour améliorer la prédiction de l’évolution. Il a été démontré qu’à la première visite il existe des différences pour 5 paramètres 3D du rachis entre un groupe de patients qui sera éventuellement opéré et un groupe qui ne progressera pas. Ces paramètres sont : la moyenne da la cunéiformisation 3D des disques apicaux, la rotation intervertébrale à la jonction inférieure de la courbure, la torsion, le ratio hauteur/largeur du corps vertébral de T6 et de la colonne complète. Les deux dernières études sont basées sur une cohorte prospective de 133 patients avec une scoliose idiopathique de l’adolescent suivi dès leur première visite à l’hôpital jusqu’à maturité squelettique. Une première étude a permis de mettre en évidence les différences morphologiques à la première visite entre les patients ayant progresser de plus ou moins de 6°. Des différences ont été mise en évidence pour la cyphose, l’angle de plan de déformation maximal, la rotation ntervertébrale l’apex, la torsion et plusieurs paramètres de «slenderness». Ensuite une seconde étude a permis de développer un modèle prédictif basé sur un modèle linéaire général en incluant l’indice d’âge osseux développé dans la première étude, le type de courbure, l’amplitude de l’angle de Cobb à la première visite, l’angle de déformation du plan maximale, la cunéiformisation 3D des disques T3-T4, T8-­T9, T11-­T12 et la somme des cunéiformisation 3D de tous les disques thoraciques et lombaires. Le coefficient de détermination multiple pour cette modélisation est de 0.715. Le modèle prédictif développé renforce l’importance de considérer la scoliose idiopathique dans les trois dimensions et il permettra d’optimiser la prédiction de l’évolution au moment de la première visite.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'outil développé dans le cadre de cette thèse est disponible à l'adresse suivante: www.astro.umontreal.ca/~malo/banyan.php