29 resultados para Native Vegetation Condition, Benchmarking, Bayesian Decision Framework, Regression, Indicators
em Universit
Resumo:
Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.
Resumo:
Les progrès médicaux, technologiques et scientifiques réalisés au cours des dernières décennies permettent à de nombreux enfants de survivre à la prématurité, à la maladie ou à des traumatismes physiques. Certains survivent avec des problèmes de santé chroniques qui altèrent le fonctionnement de plusieurs organes. Certains doivent composer avec des incapacités physiques ou intellectuelles légères, modérées ou sévères et sont maintenus en situation de dépendance médico technologique dans un contexte où les services d’aide et le soutien à domicile ne répondent pas aux besoins réels des enfants et de leur famille. Ces avancées dans le champ de la santé offrent des choix auparavant inexistants : sauver ou non la vie de l’enfant? Ces nouvelles possibilités imposent aux parents des décisions parfois difficiles qui engagent des valeurs, des croyances et ont d’énormes conséquences pour les acteurs (l’enfant, ses parents, sa famille, les membres de l’équipe soignante et des professionnels), les institutions et toute la société. Ces choix renvoient à des visions des choses et du monde, à différentes conceptions de la vie et de la mort. En nous intéressant à la trajectoire décisionnelle de parents d’enfant atteint d’une condition médicale complexe, nous souhaitions comprendre la façon dont les parents prennent des décisions à propos de leur enfant. Nous voulions également saisir les motifs décisionnels et leur façon d’évoluer avec le temps. La pensée complexe d’Edgar Morin constitue l’assise théorique principale de la recherche. Nous avons réalisé des entretiens semi-dirigés auprès de 25 parents dont 15 mères et 10 pères. Parmi les principaux résultats, notons la multiplicité des types et des objets de décision, l’influence multisystémique des motifs décisionnels et la présence de processus qui se développent au fil de la trajectoire. Les résultats permettent de proposer quelques repères susceptibles d’améliorer l’accompagnement des parents exposés à des décisions complexes à propos de leur enfant gravement malade.
Resumo:
L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire.
Resumo:
Les rivières reçoivent de l'azote de leurs bassins versants et elles constituent les derniers sites de transformations des nutriments avant leur livraison aux zones côtières. Les transformations de l’azote inorganique dissous en azote gazeux sont très variables et peuvent avoir un impact à la fois sur l’eutrophisation des côtes et les émissions de gaz à effet de serre à l’échelle globale. Avec l’augmentation de la charge en azote d’origine anthropique vers les écosystèmes aquatiques, les modèles d’émissions de gaz à effet de serre prédisent une augmentation des émissions d’oxyde nitreux (N2O) dans les rivières. Les mesures directes de N2O dans le Lac Saint-Pierre (LSP), un élargissement du Fleuve Saint-Laurent (SLR) indiquent que bien qu’étant une source nette de N2O vers l'atmosphère, les flux de N2O dans LSP sont faibles comparés à ceux des autres grandes rivières et fleuves du monde. Les émissions varient saisonnièrement et inter-annuellement à cause des changements hydrologiques. Les ratios d’émissions N2O: N2 sont également influencés par l’hydrologie et de faibles ratios sont observés dans des conditions de débit d'eau plus élevée et de charge en N élevé. Dans une analyse effectuée sur plusieurs grandes rivières, la charge hydraulique des systèmes semble moduler la relation entre les flux de N2O annuels et les concentrations de nitrate dans les rivières. Dans SLR, des tapis de cyanobactéries colonisant les zones à faible concentration de nitrate sont une source nette d’azote grâce à leur capacité de fixer l’azote atmosphérique (N2). Étant donné que la fixation a lieu pendant le jour alors que les concentrations d'oxygène dans la colonne d'eau sont sursaturées, nous supposons que la fixation de l’azote est effectuée dans des micro-zones d’anoxie et/ou possiblement par des diazotrophes hétérotrophes. La fixation de N dans les tapis explique le remplacement de près de 33 % de la perte de N par dénitrification dans tout l'écosystème au cours de la période d'étude. Dans la portion du fleuve Hudson soumis à la marée, la dénitrification et la production de N2 est très variable selon le type de végétation. La dénitrification est associée à la dynamique en oxygène dissous particulière à chaque espèce durant la marée descendante. La production de N2 est extrêmement élevée dans les zones occupées par les plantes envahissantes à feuilles flottantes (Trapa natans) mais elle est négligeable dans la végétation indigène submergée. Une estimation de la production de N2 dans les lits de Trapa durant l’été, suggère que ces lits représentent une zone très active d’élimination de l’azote. En effet, les grands lits de Trapa ne représentent que 2,7% de la superficie totale de la portion de fleuve étudiée, mais ils éliminent entre 70 et 100% de l'azote total retenu dans cette section pendant les mois d'été et contribuent à près de 25% de l’élimination annuelle d’azote.
Resumo:
Depuis quelques années, l'évolution moléculaire cherche à caractériser les variations et l'intensité de la sélection grâce au rapport entre taux de substitution synonyme et taux de substitution non-synonyme (dN/dS). Cette mesure, dN/dS, a permis d'étudier l'histoire de la variation de l'intensité de la sélection au cours du temps ou de détecter des épisodes de la sélection positive. Les liens entre sélection et variation de taille efficace interfèrent cependant dans ces mesures. Les méthodes comparatives, quant a elle, permettent de mesurer les corrélations entre caractères quantitatifs le long d'une phylogénie. Elles sont également utilisées pour tester des hypothèses sur l'évolution corrélée des traits d'histoire de vie, mais pour être employées pour étudier les corrélations entre traits d'histoire de vie, masse, taux de substitution ou dN/dS. Nous proposons ici une approche combinant une méthode comparative basée sur le principe des contrastes indépendants et un modèle d'évolution moléculaire, dans un cadre probabiliste Bayésien. Intégrant, le long d'une phylogénie, sur les reconstructions ancestrales des traits et et de dN/dS nous estimons les covariances entre traits ainsi qu'entre traits et paramètres du modèle d'évolution moléculaire. Un modèle hiérarchique, a été implémenté dans le cadre du logiciel coevol, publié au cours de cette maitrise. Ce modèle permet l'analyse simultané de plusieurs gènes sans perdre la puissance donnée par l'ensemble de séquences. Un travail deparallélisation des calculs donne la liberté d'augmenter la taille du modèle jusqu'à l'échelle du génome. Nous étudions ici les placentaires, pour lesquels beaucoup de génomes complets et de mesures phénotypiques sont disponibles. À la lumière des théories sur les traits d'histoire de vie, notre méthode devrait permettre de caractériser l'implication de groupes de gènes dans les processus biologique liés aux phénotypes étudiés.
Resumo:
La scoliose idiopathique de l’adolescent (SIA) est le type de déformation musculosquelettique le plus fréquent dans la population pédiatrique, pour une prévalence d’environ 2,0%. Depuis l’arrêt des programmes scolaires de dépistage de la SIA dans les années 1980 au Canada, nous ne disposions d’aucune donnée sur l’utilisation des services de santé par les patients présentant une SIA suspectée. En l’absence de tels programmes, des changements dans les patrons d’utilisation des services spécialisés d’orthopédie pédiatrique sont anticipés. La thèse a donc pour but d’étudier la pertinence de la référence dans ces services des jeunes avec SIA suspectée. Elle est structurée autour de trois principaux objectifs. 1) Valider un instrument de mesure de la morbidité perçue (perception des symptômes) dans la clientèle d’orthopédie pédiatrique; 2) Étudier la relation entre la morbidité perçue par les profanes (le jeune et le parent) et la morbidité objectivée par les experts; 3) Caractériser les itinéraires de soins des patients avec SIA suspectée, de façon à en élaborer une taxonomie et à analyser les relations entre ceux-ci et la pertinence de la référence. En 2006-2007, une vaste enquête a été réalisée dans les cinq cliniques d’orthopédie pédiatrique du Sud-Ouest du Québec : 831 patients référés ont été recrutés. Ils furent classés selon des critères de pertinence de la référence (inappropriée, appropriée ou tardive) définis en fonction de l’amplitude de la courbe rachidienne et de la maturité squelettique à cette première visite. La morbidité perçue par les profanes a été opérationnalisée par la gravité, l’urgence, les douleurs, l’impact sur l’image de soi et la santé générale. L’ensemble des consultations médicales et paramédicales effectuées en amont de la consultation en orthopédie pédiatrique a été documenté par questionnaire auprès des familles. En s’appuyant sur le Modèle comportemental de l’utilisation des services d’Andersen, les facteurs (dits de facilitation et de capacité) individuels, relatifs aux professionnels et au système ont été considérés comme variables d’ajustement dans l’étude des relations entre la morbidité perçue ou les itinéraires de soins et la pertinence de la référence. Les principales conclusions de cette étude sont : i) Nous disposons d’instruments fidèles (alpha de Cronbach entre 0,79 et 0,86) et valides (validité de construit, concomitante et capacité discriminante) pour mesurer la perception de la morbidité dans la population adolescente francophone qui consulte en orthopédie pédiatrique; ii) Les profanes jouent un rôle important dans la suspicion de la scoliose (53% des cas) et leur perception de la morbidité est directement associée à la morbidité objectivée par les professionnels; iii) Le case-mix actuel en orthopédie est jugé non optimal en regard de la pertinence de la référence, les mécanismes actuels entraînant un nombre considérable de références inappropriées (38%) et tardives (18%) en soins spécialisés d’orthopédie pédiatrique; iv) Il existe une grande diversité de professionnels par qui sont vus les jeunes avec SIA suspectée ainsi qu’une variabilité des parcours de soins en amont de la consultation en orthopédie, et v) La continuité des soins manifestée dans les itinéraires, notamment via la source régulière de soins de l’enfant, est favorable à la diminution des références tardives (OR=0,32 [0,17-0,59]). Les retombées de cette thèse se veulent des contributions à l’avancement des connaissances et ouvrent sur des propositions d’initiatives de transfert des connaissances auprès des professionnels de la première ligne. De telles initiatives visent la sensibilisation à cette condition de santé et le soutien à la prise de décision de même qu’une meilleure coordination des demandes de consultation pour une référence appropriée et en temps opportun.
Resumo:
Le contexte actuel de la distribution des soins de santé se caractérise par la présence d’inégalités frappantes en termes d’accès aux médicaments ou autres technologies thérapeutiques (appareils ou tests de diagnostic) à l’échelle mondiale. Cette distribution dépend de plusieurs facteurs politiques, sociaux, économiques, scientifiques et éthiques. Parmi les facteurs importants, l’innovation dans les milieux biomédical et pharmaceutique participe activement à l’établissement et à l’exacerbation des inégalités en santé mondiale. Dans cette thèse, nous présentons une étude basée sur le cas des technologies issues de la pharmacogénomique. Il est proposé que ces technologies soient susceptibles d’avoir un impact positif sur la santé publique à l’échelle mondiale en révolutionnant le modèle de développement et de distribution du médicament. Nous avons réalisé une évaluation du potentiel qu’offre l’application de ces technologies dans les domaines de la recherche biomédicale et pharmaceutique pour les populations des pays à faible et à moyen revenu. Nous démontrons que les efforts en recherche dans le domaine de la pharmacogénomique sont essentiellement dirigés vers les maladies affectant les populations des pays à revenu élevé. Par cela, le développement de la recherche dans ce domaine réplique le modèle du ratio 90/10 des inégalités en santé mondiale, où 90 % des médicaments produits accommode seulement 10 % de la population mondiale – soit celle des pays à revenu élevé. Il appert que le potentiel d’utilisation des technologies issues de la pharmacogénomique pour les populations des pays à faible et à moyen revenu nécessite alors une redéfinition des rôles et des responsabilités des acteurs en santé mondiale (les gouvernements, les organisations gouvernementales et non gouvernementales internationales et les compagnies pharmaceutiques). Nous proposons que cette redéfinition des rôles et des responsabilités des différents acteurs passe par l’adoption d’un cadre réflexif basé sur les principes éthiques de la justice, de l’équité et de la solidarité dans le développement de la recherche et l’implantation des nouvelles technologies -omiques.
Resumo:
Les relations entre l'État canadien et les Autochtones sont, depuis 1876, principalement régies par la Loi sur les Indiens. Le 9 octobre 2001, le ministre des affaires indiennes et du Nord canadien présente à la Chambre des communes la Loi sur la gouvernance des Premières nations (LGPN), projet de loi qui, d'affirmer le ministre, constitue une politique charnière en droit fédéral canadien. En effet, la LGPN a pour objet de compléter et de modifier la Loi sur les Indiens afin de préparer, selon les dires du ministre, les communautés autochtones à leur éventuelle émancipation politique. Le discours du gouvernement canadien suggère que la LGPN ouvre la voie à la décolonisation du droit fédéral autochtone puisqu'elle rompt avec l'approche coloniale inhérente à la Loi sur les Indiens. Une grande majorité d'Autochtones s'oppose toutefois à l'adoption de ce projet de loi, l'interprétant comme une reconduction de la politique colonialiste fédérale. L'objectif du présent mémoire est de déterminer si la LGPN annonce véritablement la fin des rapports coloniaux entre le gouvernement canadien et les Autochtones ou si, au contraire, elle n'est que l'expression moderne d'une mesure législative colonialiste. Notre analyse se fonde sur une grille d'identification du colonialisme que nous aurons préalablement établie. Après avoir démontré que la Loi sur les Indiens constitue un exemple paradigmatique de colonialisme, nous tenterons de déterminer si la LGPN se distingue véritablement de la Loi sur les Indiens. Nous conclurons que, bien que comportant certaines mesures positives, la LGPN témoigne de 1'hésitation du gouvernement canadien à changer la nature des relations qu'il entretient avec les Autochtones.
Resumo:
Objectifs : Cette thèse porte sur l’association entre les caractéristiques socioenvironnementales des voisinages (milieux locaux) et la prévalence des limitations d’activités (ou handicap) dans la population québécoise. Elle a trois objectifs principaux : (1) clarifier les enjeux conceptuels et méthodologiques relatifs à l’étude des déterminants socioenvironnementaux des limitations d’activités; (2) décrire les contributions respectives de la composition socioéconomique des voisinages et de facteurs contextuels à la variabilité locale de la prévalence des limitations d’activités; (3) évaluer la présence d’interactions entre la santé fonctionnelle des personnes (incapacité) et des caractéristiques des voisinages en lien avec la prévalence des limitations d’activités. Méthodes : Une analyse de la littérature scientifique a été effectuée en lien avec le premier objectif de la thèse. En lien avec le deuxième objectif, des données pour le Québec du recensement canadien de 2001 (échantillon de 20% de la population) ont été utilisées pour estimer l’association entre la prévalence des limitations d’activités et des caractéristiques des voisinages : classification urbain-rural, composition socioéconomique (défavorisation matérielle et sociale) et facteurs contextuels (qualité des habitations, stabilité résidentielle et utilisation des transports actifs et collectifs). En lien avec le troisième objectif, des données pour la population urbaine du Québec issues de l’Enquête sur la santé dans les collectivités canadiennes (2003, 2005 et 2007/2008) ont permis de tester la présence d’interaction entre la santé fonctionnelle des personnes et des caractéristiques des voisinages (défavorisation matérielle et sociale, qualité des habitations, stabilité résidentielle et densité des services). Pour les analyses associées aux deux derniers objectifs, l’analyse des corrélats de la prévalence des limitations d’activités a été effectuée à l’aide de régressions logistiques multiniveaux. Résultats : Différents éléments conceptuels et opérationnels limitent la possibilité de faire une synthèse des analyses épidémiologiques portant sur les influences socioenvironnementales sur les limitations d’activités. Les résultats des analyses empiriques suggèrent que : (1) la variation géographique de la prévalence des limitations d’activités s’explique en grande partie par la composition socioéconomique des voisinages; (2) des facteurs contextuels sont associés à cette variation géographique; (3) les mesures relatives d’inégalités sous-estiment les disparités contextuelles dans la distribution des nombres absolus de personnes ayant une limitation d’activités; et (4) l’association entre la prévalence des limitations d’activités et la défavorisation sociale pourrait varier selon la santé fonctionnelle des personnes. Conclusions : Différentes caractéristiques socioenvironnementales sont potentiellement associées aux variations géographiques des limitations d’activités au Québec. Le développement d’indicateurs socioenvironnementaux favoriserait une connaissance plus précise de l’influence de ces caractéristiques socioenvironnementales sur les limitations d’activités et des mécanismes par lesquels s’exerce cette influence. L’établissement d’un système national de surveillance des aménagements territoriaux est proposé afin de soutenir la recherche et la prise de décision. Des indicateurs locaux d’accessibilité aux transports, aux espaces publics ainsi qu’aux services de proximité devraient être priorisés. Ces aspects de l’aménagement du territoire sont susceptibles de rejoindre plusieurs enjeux de santé publique et ils ont comme autre avantage d’être inclus dans différentes orientations québécoises ciblant le vieillissement en santé et la réduction des limitations d’activités.
Resumo:
A group of agents located along a river have quasi-linear preferences over water and money. We ask how the water should be allocated and what money transfers should be performed. We are interested in efficiency, stability (in the sense of the core), and fairness (in a sense to be defined). We first show that the cooperative game associated with our problem is convex : its core is therefore large and easily described. Next, we propose the following fairness requirement : no group of agents should enjoy a welfare higher than what it could achieve in the absence of the remaining agents. We prove that only one welfare vector in the core satisfies this condition : it is the marginal contribution vector corresponding to the ordering of the agents along the river. We discuss how it could be decentralized or implemented.
Resumo:
This Paper Studies Tests of Joint Hypotheses in Time Series Regression with a Unit Root in Which Weakly Dependent and Heterogeneously Distributed Innovations Are Allowed. We Consider Two Types of Regression: One with a Constant and Lagged Dependent Variable, and the Other with a Trend Added. the Statistics Studied Are the Regression \"F-Test\" Originally Analysed by Dickey and Fuller (1981) in a Less General Framework. the Limiting Distributions Are Found Using Functinal Central Limit Theory. New Test Statistics Are Proposed Which Require Only Already Tabulated Critical Values But Which Are Valid in a Quite General Framework (Including Finite Order Arma Models Generated by Gaussian Errors). This Study Extends the Results on Single Coefficients Derived in Phillips (1986A) and Phillips and Perron (1986).
Resumo:
Previous studies on the determinants of the choice of college major have assumed a constant probability of success across majors or a constant earnings stream across majors. Our model disregards these two restrictive assumptions in computing an expected earnings variable to explain the probability that a student will choose a specific major among four choices of concentrations. The construction of an expected earnings variable requires information on the student s perceived probability of success, the predicted earnings of graduates in all majors and the student s expected earnings if he (she) fails to complete a college program. Using data from the National Longitudinal Survey of Youth, we evaluate the chances of success in all majors for all the individuals in the sample. Second, the individuals' predicted earnings of graduates in all majors are obtained using Rumberger and Thomas's (1993) regression estimates from a 1987 Survey of Recent College Graduates. Third, we obtain idiosyncratic estimates of earnings alternative of not attending college or by dropping out with a condition derived from our college major decision-making model applied to our sample of college students. Finally, with a mixed multinominal logit model, we explain the individuals' choice of a major. The results of the paper show that the expected earnings variable is essential in the choice of a college major. There are, however, significant differences in the impact of expected earnings by gender and race.
Resumo:
A full understanding of public affairs requires the ability to distinguish between the policies that voters would like the government to adopt, and the influence that different voters or group of voters actually exert in the democratic process. We consider the properties of a computable equilibrium model of a competitive political economy in which the economic interests of groups of voters and their effective influence on equilibrium policy outcomes can be explicitly distinguished and computed. The model incorporates an amended version of the GEMTAP tax model, and is calibrated to data for the United States for 1973 and 1983. Emphasis is placed on how the aggregation of GEMTAP households into groups within which economic and political behaviour is assumed homogeneous affects the numerical representation of interests and influence for representative members of each group. Experiments with the model suggest that the changes in both interests and influence are important parts of the story behind the evolution of U.S. tax policy in the decade after 1973.
Resumo:
This paper considers various asymptotic approximations in the near-integrated firstorder autoregressive model with a non-zero initial condition. We first extend the work of Knight and Satchell (1993), who considered the random walk case with a zero initial condition, to derive the expansion of the relevant joint moment generating function in this more general framework. We also consider, as alternative approximations, the stochastic expansion of Phillips (1987c) and the continuous time approximation of Perron (1991). We assess how these alternative methods provide or not an adequate approximation to the finite-sample distribution of the least-squares estimator in a first-order autoregressive model. The results show that, when the initial condition is non-zero, Perron's (1991) continuous time approximation performs very well while the others only offer improvements when the initial condition is zero.
Resumo:
Affiliation: Claudia Kleinman, Nicolas Rodrigue & Hervé Philippe : Département de biochimie, Faculté de médecine, Université de Montréal