271 resultados para Densité a priori
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
En lien avec l’avancée rapide de la réduction de la taille des motifs en microfabrication, des processus physiques négligeables à plus grande échelle deviennent dominants lorsque cette taille s’approche de l’échelle nanométrique. L’identification et une meilleure compréhension de ces différents processus sont essentielles pour améliorer le contrôle des procédés et poursuivre la «nanométrisation» des composantes électroniques. Un simulateur cellulaire à l’échelle du motif en deux dimensions s’appuyant sur les méthodes Monte-Carlo a été développé pour étudier l’évolution du profil lors de procédés de microfabrication. Le domaine de gravure est discrétisé en cellules carrées représentant la géométrie initiale du système masque-substrat. On insère les particules neutres et ioniques à l’interface du domaine de simulation en prenant compte des fonctions de distribution en énergie et en angle respectives de chacune des espèces. Le transport des particules est effectué jusqu’à la surface en tenant compte des probabilités de réflexion des ions énergétiques sur les parois ou de la réémission des particules neutres. Le modèle d’interaction particule-surface tient compte des différents mécanismes de gravure sèche telle que la pulvérisation, la gravure chimique réactive et la gravure réactive ionique. Le transport des produits de gravure est pris en compte ainsi que le dépôt menant à la croissance d’une couche mince. La validité du simulateur est vérifiée par comparaison entre les profils simulés et les observations expérimentales issues de la gravure par pulvérisation du platine par une source de plasma d’argon.
Resumo:
L'allergie au lait de vache (ALV) représente l'allergie alimentaire la plus fréquemment rencontrée durant l'enfance. Cette allergie a longtemps été reconnue comme transitoire mais des données récentes révèlent que celle-ci est persistante chez environ 15% des enfants qui en sont touchés durant l'enfance, posant ainsi un risque à leur santé. La présente étude examine 26 enfants avec ALV et 12 enfants contrôles recrutés au CHU Sainte-Justine durant l’hiver 2011-2012. L'objectif étant de comparer la densité minérale osseuse (DMO) et les niveaux sériques de 25(OH)D d'enfants prépubères avec ALV non résolue à un groupe contrôle d'enfants avec autres allergies alimentaires, en plus d'évaluer les apports en calcium et en vitamine D ainsi que l'adhérence à la supplémentation chez cette population. La DMO lombaire (L2-L4) ne diffère pas significativement entre les groupes. Cependant, une faible densité osseuse, caractérisée par un score-Z entre -1,0 et -2,0 pour l'âge et le sexe, est détectée chez plus de 30% des enfants avec ALV et plus de 16% du groupe contrôle, sans allergie au lait. Tel qu'attendu, les apports en calcium sont significativement moins élevés chez les enfants avec ALV comparé au groupe contrôle, avec près de 90% de tous nos participants ne rencontrant pas les besoins pour l’âge en vitamine D. Plus de la moitié des enfants avec ALV présentent une concentration de 25(OH)D inférieure à 75 nmol/L. Cependant, notre étude n'a décelé aucune différence entre les niveaux sériques de 25(OH)D des enfants avec ALV comparativement au groupe contrôle. Enfin, l'adhérence à la supplémentation est jugée adéquate chez plus de 75% de notre groupe d'enfants avec ALV, soit ≧ 4 journées par semaine, un facteur aussi associé à une meilleure atteinte de leurs apports nutritionnels en calcium et en vitamine D. Enfin, ces résultats soulignent l'importance de suivre la santé osseuse d'enfants avec ALV ainsi qu'avec allergies multiples, qui présentent un risque de faible densité osseuse. L'intervention nutritionnelle devrait suivre l'adhérence à la supplémentation chez les enfants avec ALV non résolue, afin d'optimiser les apports nutritionnels insuffisants en calcium et en vitamine D
Resumo:
Cette thèse traite de la structure électronique de supraconducteurs telle que déterminée par la théorie de la fonctionnelle de la densité. Une brève explication de cette théorie est faite dans l’introduction. Le modèle de Hubbard est présenté pour pallier à des problèmes de cette théorie face à certains matériaux, dont les cuprates. L’union de deux théories donne la DFT+U, une méthode permettant de bien représenter certains systèmes ayant des électrons fortement corrélés. Par la suite, un article traitant du couplage électron- phonon dans le supraconducteur NbC1−xNx est présenté. Les résultats illustrent bien le rôle de la surface de Fermi dans le mécanisme d’appariement électronique menant à la supraconductivité. Grâce à ces résultats, un modèle est développé qui permet d’expliquer comment la température de transition critique est influencée par le changement des fré- quences de vibration du cristal. Ensuite, des résultats de calcul d’oscillations quantiques obtenus par une analyse approfondie de surfaces de Fermi, permettant une comparaison directe avec des données expérimentales, sont présentés dans deux articles. Le premier traite d’un matériau dans la famille des pnictures de fer, le LaFe2P2. L’absence de su- praconductivité dans ce matériau s’explique par la différence entre sa surface de Fermi obtenue et celle du supraconducteur BaFe2As2. Le second article traite du matériau à fermions lourds, le YbCoIn5. Pour ce faire, une nouvelle méthode efficace de calcul des fréquences de Haas-van Alphen est développée. Finalement, un dernier article traitant du cuprate supraconducteur à haute température critique YBa2Cu3O6.5 est présenté. À l’aide de la DFT+U, le rôle de plusieurs ordres magnétiques sur la surface de Fermi est étudié. Ces résultats permettent de mieux comprendre les mesures d’oscillations quan- tiques mesurées dans ce matériau.
Resumo:
Réalisé en cotutelle avec l'Université Paris-Diderot.
Resumo:
Les maladies cardiovasculaires (MCV) sont la principale cause de mortalité dans les pays industrialisés. L'hypercholestérolémie constitue un facteur de risque majeur pour les MCV. Elle est caractérisée par des niveaux élevés de lipoprotéines de faible densité (LDL, aussi appelé “mauvais cholestérol”). La présence prolongée de haut niveaux de LDL dans la circulation augmente le risque de formation de plaques athérosclérotiques, ce qui peut conduire à l'obstruction des artères et l'infarctus du myocarde. Le LDL est normalement extrait du sang par sa liaison au récepteur du LDL (LDLR) qui est responsable de son endocytose dans les hépatocytes. Des études génétiques humaines ont identifié PCSK9 (proprotein convertase subtilisin/kexin type 9) comme le troisième locus responsable de l'hypercholestérolémie autosomique dominante après le LDLR et son ligand l’apolipoprotéine B-100. PCSK9 interagit avec le LDLR et induit sa dégradation, augmentant ainsi les niveaux plasmatiques de LDL. Les mutations gain de fonction (GF) de PCSK9 sont associées à des niveaux plasmatiques élevés de LDL et à l'apparition précoce des MCV, alors que les mutations perte de fonction (PF) de PCSK9 diminuent le risque de MCV jusqu’à ~ 88% grâce à une réduction du LDL circulant. De ce fait, PCSK9 constitue une cible pharmacologique importante pour réduire le risque de MCV. PCSK9 lie le LDLR à la surface cellulaire et/ou dans l'appareil de Golgi des hépatocytes et provoque sa dégradation dans les lysosomes par un mécanisme encore mal compris. Le but de cette étude est de déterminer pourquoi certaines mutations humaines de PCSK9 sont incapables de dégrader le LDLR tandis que d'autres augmentent sa dégradation dans les lysosomes. Plusieurs mutations GF et PF de PCSK9 ont été fusionnées à la protéine fluorecente mCherry dans le but d'étudier leur mobilité moléculaire dans les cellules hépatiques vivantes. Nos analyses quantitatives de recouvrement de fluorescence après photoblanchiment (FRAP) ont montré que les mutations GF (S127R et D129G) avaient une mobilité protéique plus élevée (> 35% par rapport au WT) dans le réseau trans- Golgien. En outre, nos analyses quantitatives de recouvrement de fluorescence inverse après photoblanchiment (iFRAP) ont montré que les mutations PF de PCSK9 (R46L) avaient une mobilité protéique plus lente (<22% par rapport au WT) et une fraction mobile beaucoup plus petite (<40% par rapport au WT). Par ailleurs, nos analyses de microscopie confocale et électronique démontrent pour la toute première fois que PCSK9 est localisée et concentrée dans le TGN des hépatocytes humains via son domaine Cterminal (CHRD) qui est essentiel à la dégradation du LDLR. De plus, nos analyses sur des cellules vivantes démontrent pour la première fois que le CHRD n'est pas nécessaire à l'internalisation de PCSK9. Ces résultats apportent de nouveaux éléments importants sur le mécanisme d'action de PCSK9 et pourront contribuer ultimement au développement d'inhibiteurs de la dégradation du LDLR induite par PCSK9.
Resumo:
La présente thèse porte sur les calculs utilisant la théorie de la fonctionnelle de la densité (DFT) pour simuler des systèmes dans lesquels les effets à longue portée sont importants. Une emphase particulière est mise sur les calculs des énergies d’excitations, tout particulièrement dans le cadre des applications photovoltaïques. Cette thèse aborde ces calculs sous deux angles. Tout d’abord, des outils DFT déjà bien établis seront utilisés pour simuler des systèmes d’intérêt expérimental. Par la suite, la théorie sous-jacente à la DFT sera explorée, ses limites seront identifiées et de nouveaux développements théoriques remédiant à ceux-ci seront proposés. Ainsi, dans la première partie de cette thèse, des calculs numériques utilisant la DFT et la théorie de la fonctionnelle de la densité dépendante du temps (TDDFT) telles qu’implémentées dans le logiciel Gaussian [1] sont faits avec des fonctionnelles courantes sur des molécules et des polymères d’intérêt expérimental. En particulier, le projet présenté dans le chapitre 2 explore l’utilisation de chaînes latérales pour optimiser les propriétés électroniques de polymères déjà couramment utilisés en photovoltaïque organique. Les résultats obtenus montrent qu’un choix judicieux de chaînes latérales permet de contrôler les propriétés électroniques de ces polymères et d’augmenter l’efficacité des cellules photovoltaïques les utilisant. Par la suite, le projet présenté dans le chapitre 3 utilise la TDDFT pour explorer les propriétés optiques de deux polymères, le poly-3-hexyl-thiophène (P3HT) et le poly-3-hexyl- sélénophène (P3HS), ainsi que leur mélange, dans le but d’appuyer les observations expérimentales indiquant la formation d’exciplexe dans ces derniers. Les calculs numériques effectués dans la première partie de cette thèse permettent de tirer plusieurs conclusions intéressantes, mais mettent également en évidence certaines limites de la DFT et de la TDDFT pour le traitement des états excités, dues au traitement approximatif de l’interaction coulombienne à longue portée. Ainsi, la deuxième partie de cette thèse revient aux fondements théoriques de la DFT. Plus précisément, dans le chapitre 4, une série de fonctionnelles modélisant plus précisément l’interaction coulombienne à longue portée grâce à une approche non-locale est élaborée. Ces fonctionnelles sont basées sur la WDA (weighted density approximation), qui est modifiée afin d’imposer plusieurs conditions exactes qui devraient être satisfaites par le trou d’échange. Ces fonctionnelles sont ensuite implémentées dans le logiciel Gaussian [1] et leurs performances sont évaluées grâce à des tests effectués sur une série de molécules et d’atomes. Les résultats obtenus indiquent que plusieurs de ces fonctionnelles donnent de meilleurs résultats que la WDA. De plus, ils permettrent de discuter de l’importance relative de satisfaire chacune des conditions exactes.
Resumo:
La densification de la ville est l’un des principaux objectifs de l’action publique pour bâtir des milieux de vie de qualité. Mais la densité est un concept polysémique et relatif : on constate un écart entre la densité telle qu’elle est préconisée en aménagement et celle vécue par les populations. Parallèlement, on observe l’exode des jeunes familles montréalaises vers les territoires périurbains de faible densité. Enfin, la littérature souligne une relation positive entre densité, mixité et pratique de la marche. Cette recherche explore les perceptions des parents de jeunes enfants à l’égard de leur environnement bâti, en particulier de sa densité, et en identifie les facteurs qui influencent positivement leur pratique de la marche. Après avoir caractérisé les formes urbaines de deux quartiers montréalais aux densités différentes, nous avons interrogé des parents de jeunes enfants sur leur expérience lors de 16 entrevues semi-dirigées et d’un groupe de discussion. Puis nous avons étudié la relation entre les variables personnelles des participants, leurs perceptions de la densité et leurs pratiques de la marche. Nos résultats mettent en évidence la quête d’un équilibre entre les avantages et inconvénients de la densité, dont les principales variables sont les formes urbaines, les services de proximité et la présence d’animation, la végétation étant un paramètre incontournable pour tous les parents. Caractéristiques clés d’une ville intense, ces paramètres corroborent la littérature existante à ce sujet, en mettant en évidence leur importance dans la création de milieux de vie plus denses pour les jeunes familles et leur influence positive sur la marche.
Resumo:
Introduction : Le dalcetrapib, inhibiteur de la glycoprotéine hydrophobe de transfert des esters de cholestérol (CETP), a été étudié dans le cadre de l’essai clinique de phase II dal-PLAQUE2 (DP2). L’objectif principal est d’étudier l’effet du dalcetrapib après 1 an de traitement sur la structure et la fonction des HDL dans une sous-population de la cohorte DP2. Méthode : Les sujets de la cohorte DP2 ayant une série de mesures de cIMT et des échantillons de plasma et sérum au baseline et à 1 an de traitement furent sélectionnés (379 sujets: 193 du groupe placebo (PCB) et 186 du groupe dalcetrapib (DAL)). Des données biochimiques prédéterminées, le profil des concentrations et tailles des sous-classes de HDL et LDL en résonance magnétique nucléaire (RMN) et 2 mesures de capacité d’efflux de cholestérol (CEC) du sérum ont été explorées. Les données statistiques furent obtenues en comparant les changements à un an à partir du « baseline » avec un ANOVA ou ANCOVA. La procédure normalisée de fonctionnement d’essai d’efflux de cholestérol permet de calculer l’efflux fractionnel (en %) de 3H-cholestérol des lignées cellulaires BHK-ABCA1 (fibroblastes) et J774 (macrophages, voie ABCA1) et HepG2 (hépatocytes, voie SR-BI), vers les échantillons sériques de la cohorte DP2. Résultats : Pour la biochimie plasmatique, un effet combiné des changements d’activité de CETP dans les 2 groupes a causé une réduction de 30% dans le groupe DAL. Après 1 an de traitement dans le groupe DAL, la valeur de HDL-C a augmenté de 35,5% (p < 0,001) et l’apoA-I a augmenté de 14,0% (p < 0,001). Au profil RMN, dans le groupe DAL après 1 an de traitement, il y a augmentation de la taille des HDL-P (5,2%; p < 0,001), des grosses particules HDL (68,7%; p < 0,001) et des grosses particules LDL (37,5%; p < 0,01). Les petites particules HDL sont diminuées (-9,1%; p < 0,001). Il n’y a aucune différence significative de mesure de cIMT entre les deux groupes après 1 an de traitement. Pour la CEC, il y a augmentation significative par la voie du SR-BI et une augmentation via la voie ABCA1 dans le groupe DAL après 1 an de traitement. Conclusion : Après un an de traitement au dalcetrapib, on note une hausse de HDL-C, des résultats plutôt neutres au niveau du profil lipidique par RMN et une CEC augmentée mais trop faible pour affecter la valeur de cIMT chez les échantillons testés.
Resumo:
Problématique : L'allergie au lait de vache (ALV) est reconnue comme une condition transitoire qui disparaît chez la majorité des enfants avant l’âge de 3-5 ans, mais des données récentes révèlent une persistance de l’ALV. Les enfants souffrant d’une ALV sont à risque d’apports insuffisants en calcium et en vitamine D, deux nutriments impliqués dans la santé osseuse. Une première étude transversale portant sur la santé osseuse d’enfants prépubères ALV a observé que la densité osseuse (DMO) lombaire était significativement inférieure à celle d’enfants sans allergie au lait de vache (SALV). Objectifs : Sur la base de ces résultats, nous désirons documenter l’évolution longitudinale de la santé osseuse, du statut en vitamine D, des apports en calcium et en vitamine D et de l’adhérence à la supplémentation des enfants ALV (n=36) et de comparer ces données aux enfants SALV (n=19). Résultats : Le gain annualisé de la DMO lombaire est similaire entre les enfants ALV et SALV. Bien qu’il n’y ait pas de différence significative entre les deux groupes, la DMO lombaire des enfants ALV demeure cependant inférieure à celle des témoins. Qui plus est, le score-Z de la DMO du corps entier tend à être inférieur chez les enfants-cas comparé aux témoins. Au suivi, la concentration de 25OHD et le taux d’insuffisance en vitamine D sont similaires entre les deux groupes tout comme les apports en calcium et en vitamine D. Davantage d’enfants ALV prennent un supplément de calcium au suivi comparativement au temps initial (42% vs. 49%, p<0,05), mais le taux d’adhérence à la supplémentation a diminué à 4 jours/semaine. Conclusion : Une évaluation plus précoce ainsi qu’une prise en charge de la santé osseuse des enfants ALV pourraient être indiquées afin de modifier l’évolution naturelle de leur santé osseuse. Les résultats justifient aussi le suivi étroit des apports en calcium et vitamine D par une nutritionniste et la nécessité d'intégrer la supplémentation dans le plan de traitement de ces enfants et d’assurer une surveillance de l’adhérence à la supplémentation.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
In this paper, we study several tests for the equality of two unknown distributions. Two are based on empirical distribution functions, three others on nonparametric probability density estimates, and the last ones on differences between sample moments. We suggest controlling the size of such tests (under nonparametric assumptions) by using permutational versions of the tests jointly with the method of Monte Carlo tests properly adjusted to deal with discrete distributions. We also propose a combined test procedure, whose level is again perfectly controlled through the Monte Carlo test technique and has better power properties than the individual tests that are combined. Finally, in a simulation experiment, we show that the technique suggested provides perfect control of test size and that the new tests proposed can yield sizeable power improvements.
Resumo:
We extend the class of M-tests for a unit root analyzed by Perron and Ng (1996) and Ng and Perron (1997) to the case where a change in the trend function is allowed to occur at an unknown time. These tests M(GLS) adopt the GLS detrending approach of Dufour and King (1991) and Elliott, Rothenberg and Stock (1996) (ERS). Following Perron (1989), we consider two models : one allowing for a change in slope and the other for both a change in intercept and slope. We derive the asymptotic distribution of the tests as well as that of the feasible point optimal tests PT(GLS) suggested by ERS. The asymptotic critical values of the tests are tabulated. Also, we compute the non-centrality parameter used for the local GLS detrending that permits the tests to have 50% asymptotic power at that value. We show that the M(GLS) and PT(GLS) tests have an asymptotic power function close to the power envelope. An extensive simulation study analyzes the size and power in finite samples under various methods to select the truncation lag for the autoregressive spectral density estimator. An empirical application is also provided.
Resumo:
In this paper : a) the consumer’s problem is studied over two periods, the second one involving S states, and the consumer being endowed with S+1 incomes and having access to N financial assets; b) the consumer is then representable by a continuously differentiable system of demands, commodity demands, asset demands and desirabilities of incomes (the S+1 Lagrange multiplier of the S+1 constraints); c) the multipliers can be transformed into subjective Arrow prices; d) the effects of the various incomes on these Arrow prices decompose into a compensation effect (an Antonelli matrix) and a wealth effect; e) the Antonelli matrix has rank S-N, the dimension of incompleteness, if the consumer can financially adjust himself when facing income shocks; f) the matrix has rank S, if not; g) in the first case, the matrix represents a residual aversion; in the second case, a fundamental aversion; the difference between them is an aversion to illiquidity; this last relation corresponds to the Drèze-Modigliani decomposition (1972); h) the fundamental aversion decomposes also into an aversion to impatience and a risk aversion; i) the above decompositions span a third decomposition; if there exists a sure asset (to be defined, the usual definition being too specific), the fundamental aversion admits a three-component decomposition, an aversion to impatience, a residual aversion and an aversion to the illiquidity of risky assets; j) the formulas of the corresponding financial premiums are also presented.