10 resultados para Statistical modeling technique

em Université de Montréal, Canada


Relevância:

80.00% 80.00%

Publicador:

Resumo:

La campylobactériose représente la principale cause de gastro-entérite bactérienne dans les pays industrialisés. L’épidémiologie de la maladie est complexe, impliquant plusieurs sources et voies de transmission. L’objectif principal de ce projet était d’étudier les facteurs environnementaux impliqués dans le risque de campylobactériose et les aspects méthodologiques pertinents à cette problématique à partir des cas humains déclarés au Québec (Canada) entre 1996 et 2006. Un schéma conceptuel des sources et voies de transmission de Campylobacter a d’abord été proposé suivant une synthèse des connaissances épidémiologiques tirées d’une revue de littérature extensive. Le risque d’une récurrence de campylobactériose a ensuite été décrit selon les caractéristiques des patients à partir de tables de survie et de modèles de régression logistique. Comparativement au risque de campylobactériose dans la population générale, le risque d’un épisode récurrent était plus élevé pour les quatre années suivant un épisode. Ce risque était similaire entre les genres, mais plus élevé pour les personnes de régions rurales et plus faible pour les enfants de moins de quatre ans. Ces résultats suggèrent une absence d’immunité durable ou de résilience clinique suivant un épisode déclaré et/ou une ré-exposition périodique. L’objectif suivant portait sur le choix de l’unité géographique dans les études écologiques. Neuf critères mesurables ont été proposés, couvrant la pertinence biologique, la communicabilité, l’accès aux données, la distribution des variables d’exposition, des cas et de la population, ainsi que la forme de l’unité. Ces critères ont été appliqués à des unités géographiques dérivées de cadre administratif, sanitaire ou naturel. La municipalité affichait la meilleure performance, étant donné les objectifs spécifiques considérés. Les associations entre l’incidence de campylobactériose et diverses variables (densité de volailles, densité de ruminants, abattoirs, température, précipitations, densité de population, pourcentage de diplomation) ont ensuite été comparées pour sept unités géographiques différentes en utilisant des modèles conditionnels autorégressifs. Le nombre de variables statistiquement significatives variait selon le degré d’agrégation, mais la direction des associations était constante. Les unités plus agrégées tendaient à démontrer des forces d’association plus élevées, mais plus variables, à l’exception de l’abattoir. Cette étude a souligné l’importance du choix de l’unité géographique d’analyse lors d’une utilisation d’un devis d’étude écologique. Finalement, les associations entre l’incidence de campylobactériose et des caractéristiques environnementales ont été décrites selon quatre groupes d’âge et deux périodes saisonnières d’après une étude écologique. Un modèle de Poisson multi-niveau a été utilisé pour la modélisation, avec la municipalité comme unité. Une densité de ruminant élevée était positivement associée avec l’incidence de campylobactériose, avec une force d’association diminuant selon l’âge. Une densité de volailles élevée et la présence d’un abattoir de volailles à fort volume d’abattage étaient également associées à une incidence plus élevée, mais seulement pour les personnes de 16 à 34 ans. Des associations ont également été détectées avec la densité de population et les précipitations. À l’exception de la densité de population, les associations étaient constantes entre les périodes saisonnières. Un contact étroit avec les animaux de ferme explique le plus vraisemblablement les associations trouvées. La spécificité d’âge et de saison devrait être considérée dans les études futures sur la campylobactériose et dans l’élaboration de mesures préventives.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les améliorations dans les protocoles de traitement pour la majorité des cancers pédiatriques ont augmenté de façon marquée les taux de survie. Cependant, des risques élevés de multiples problèmes de santé chez les survivants sont bien documentés. En ce qui concerne spécifiquement les problèmes neuropsychologiques, les principaux facteurs de risque individuels connus à ce jour (l’âge au diagnostic, le genre du patient, l’exposition aux radiations) demeurent insuffisants pour cibler efficacement et prévenir les séquelles à long terme. Les objectifs généraux de cette thèse étaient : 1) la caractérisation des trajectoires individuelles de problèmes de comportement chez une population de patients pédiatriques atteints de leucémie lymphoblastique aiguë; 2) l’identification des principaux déterminants génétiques, médicaux et psychosociaux associés aux problèmes de comportements. Les hypothèses étaient : 1) Il existe une association entre les trajectoires individuelles de problèmes de comportement et a - des facteurs psychosociaux liés au fonctionnement familial, b - des polymorphismes dans les gènes modérateurs des effets thérapeutiques du méthotrexate et des glucocorticoïdes, c - des variables liées aux traitements oncologiques. 2) L'utilisation de modèles statistiques multi-niveaux peut permettre d’effectuer cette caractérisation des trajectoires individuelles et l’identification des facteurs de risque associés. 138 patients pédiatriques (0-18 ans) ayant reçu un diagnostic de leucémie lymphoblastique aiguë entre 1993 et 1999 au CHU Ste-Justine ont participé à une étude longitudinale d’une durée de 4 ans. Un instrument validé et standardisés, le Child Behavior Checklist, a été utilisé pour obtenir un indice de problèmes de comportement, tel que rapporté par la mère, au moment du diagnostic, puis 1, 2, 3 et 4 ans post-diagnostic. Des données génétiques, psychosociales et médicales ont aussi été collectées au cours de cette même étude longitudinale, puis ont été exploitées dans les modélisations statistiques effectuées. Les résultats obtenus suggèrent que les problèmes de comportement de type internalisés et externalisés possèdent des trajectoires et des facteurs de risque distincts. Les problèmes internalisés sont des manifestations de troubles affectifs chez le patient, tels que des symptômes dépressifs ou anxieux, par exemple. Ceux-ci sont très prévalents tôt après le diagnostic et se normalisent par la suite, indiquant des difficultés significatives, mais temporaires. Des facteurs médicaux exacerbant l'expérience de stress, soit le risque de rechute associé au diagnostic et les complications médicales affectant la durée de l'hospitalisation, ralentissent cette normalisation. Les problèmes externalisés se manifestent dans le contact avec autrui; des démonstrations d’agression ou de violence font partie des symptômes. Les problèmes externalisés sont plus stables dans le temps relativement aux problèmes internalisés. Des variables pharmacologiques et génétiques contribuent aux différences individuelles : l'administration d’un glucocorticoïde plus puissant du point de vue des effets pharmacologiques et toxicologiques, ainsi que l’homozygotie pour l’haplotype -786C844T du gène NOS3 sont liés à la modulation des scores de problèmes externalisés au fil du temps. Finalement, le niveau de stress familial perçu au diagnostic est positivement corrélé avec le niveau initial de problèmes externalisés chez le patient, tandis que peu après la fin de la période d’induction, le niveau de stress familial est en lien avec le niveau initial de problèmes internalisés. Ces résultats supportent l'idée qu'une approche holistique est essentielle pour espérer mettre en place des interventions préventives efficaces dans cette population. À long terme, ces connaissances pourraient contribuer significativement à l'amélioration de la qualité de vie des patients. Ces travaux enrichissent les connaissances actuelles en soulignant les bénéfices des suivis longitudinaux et multidisciplinaires pour comprendre la dynamique de changement opérant chez les patients. Le décloisonnement des savoirs semble devenir incontournable pour aspirer dépasser le cadre descriptif et atteindre un certain niveau de compréhension des phénomènes observés. Malgré des défis méthodologiques et logistiques évidents, ce type d’approche est non seulement souhaitable pour étudier des processus dynamiques, mais les travaux présentés dans cette thèse indiquent que cela est possible avec les moyens analytiques actuels.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

We study the problem of measuring the uncertainty of CGE (or RBC)-type model simulations associated with parameter uncertainty. We describe two approaches for building confidence sets on model endogenous variables. The first one uses a standard Wald-type statistic. The second approach assumes that a confidence set (sampling or Bayesian) is available for the free parameters, from which confidence sets are derived by a projection technique. The latter has two advantages: first, confidence set validity is not affected by model nonlinearities; second, we can easily build simultaneous confidence intervals for an unlimited number of variables. We study conditions under which these confidence sets take the form of intervals and show they can be implemented using standard methods for solving CGE models. We present an application to a CGE model of the Moroccan economy to study the effects of policy-induced increases of transfers from Moroccan expatriates.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the literature on tests of normality, much concern has been expressed over the problems associated with residual-based procedures. Indeed, the specialized tables of critical points which are needed to perform the tests have been derived for the location-scale model; hence reliance on available significance points in the context of regression models may cause size distortions. We propose a general solution to the problem of controlling the size normality tests for the disturbances of standard linear regression, which is based on using the technique of Monte Carlo tests.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or \"weak instruments\", so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the \"structural parameters\" of interest and build confidence sets. The second approach relies on \"generated regressors\", which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) \"asymptotically valid\" under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin’s q and to a model of academic performance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] provides an attractive method of building exact tests from statistics whose finite sample distribution is intractable but can be simulated (provided it does not involve nuisance parameters). We extend this method in two ways: first, by allowing for MC tests based on exchangeable possibly discrete test statistics; second, by generalizing the method to statistics whose null distributions involve nuisance parameters (maximized MC tests, MMC). Simplified asymptotically justified versions of the MMC method are also proposed and it is shown that they provide a simple way of improving standard asymptotics and dealing with nonstandard asymptotics (e.g., unit root asymptotics). Parametric bootstrap tests may be interpreted as a simplified version of the MMC method (without the general validity properties of the latter).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal