260 resultados para Jeunesse--États-Unis--Études longitudinales
Resumo:
Résumé La prédominance de l'obésité qui touche les enfants et les adultes a augmenté dans le monde entier ces dernières décennies. Les différentes études épidémiologiques ont prouvé que l'obésité est devenue une préoccupation profonde de santé aux États-Unis et au Canada. Il a été montré que l'obésité a beaucoup d’effets sur la santé ainsi il serait important de trouver différentes causes pour le gain de poids. Il est clair que l'obésité soit la condition de multiples facteurs et implique des éléments génétiques et environnementaux. Nous nous concentrons sur les facteurs diététiques et particulièrement le fructose où sa consommation a parallèlement augmenté avec l'augmentation du taux d'obésité. La forme principale du fructose est le sirop de maïs à haute teneur en fructose (HFCS) qui est employé en tant qu'édulcorant primordial dans la plupart des boissons et nourritures en Amérique du Nord. Il a été suggéré que la prise du fructose serait probablement un facteur qui contribue à l’augmentation de la prédominance de l'obésité. L'objectif de cette étude était d'évaluer s'il y a un rapport entre la consommation du fructose et le risque d'obésité. Nous avons travaillé sur deux bases de données des nations Cree et Inuit. Nous avons eu un groupe de 522 adultes Cree, (263 femmes et 259 hommes) dans deux groupes d'âge : les personnes entre 20 et 40 ans, et les personnes de 40 à 60 ans. Nous les avons classés par catégorie en quatre groupes d'indice de masse corporelle (IMC). L'outil de collecte de données était un rappel de 24 heures. En revanche, pour la base de données d'Inuit nous avons eu 550 adultes (301 femmes et 249 hommes) dans deux groupes d'âge semblables à ceux du Cree et avec 3 catégories d’indice de masse corporelle. Les données dans la base d'Inuit ont été recueillies au moyen de deux rappels de 24 heures. Nous avons extrait la quantité de fructose par 100 grammes de nourriture consommés par ces deux populations et nous avons créé des données de composition en nourriture pour les deux. Nous avons pu également déterminer les sources principales du fructose pour ces populations. Aucun rapport entre la consommation du fructose et l’augmentation de l’indice de masse corporelle parmi les adultes de Cree et d'Inuit n’a été détecté. Nous avons considéré l’apport énergétique comme facteur confondant potentiel et après ajustement, nous avons constaté que l'indice de masse corporelle a été associé à l’apport énergétique total et non pas à la consommation du fructose. Puisque dans les études qui ont trouvé une association entre la consommation de fructose et l’obésité, le niveau de la consommation de fructose était supérieure à 50 grammes par jour et comme dans cette étude ce niveau était inférieur à cette limite (entre 20.6 et 45.4 g/jour), nous proposons que des effets negatifs du fructose sur la masse corporelle pourraient être testés dans des populations à plus haute consommation. Les essais cliniques randomisés et éventuelles études cohortes avec différents niveaux de consommation de fructose suivis à long terme pourraient aussi être utiles. Mots clés : fructose, sirop de maïs à haute teneur en fructose (HFCS), obésité et poids excessif
Resumo:
Ce mémoire a pour objectif d’analyser la nature et l’ampleur des enjeux de sécurité dans l’Arctique contemporain en utilisant les outils offerts par la théorie de la sécurisation de l’École de Copenhague. Cinq secteurs de sécurité – militaire, politique, identitaire, environnemental et économique – et quatre variables – la géographie, l’identité, l’histoire et la politique – sont utilisées pour examiner les perceptions de sécurité, les sécurisations et les comportements stratégiques du Canada et de la Norvège. La 1re hypothèse avancée dans ce mémoire est la suivante : depuis 2005, au Canada et en Norvège, nous sommes en train d’assister à une sécurisation progressive des enjeux non militaires dans l’Arctique - politiques, identitaires, environnementaux et économiques - et les effets entre ces secteurs de sécurité ont d’importantes conséquences sur le secteur militaire, notamment au niveau de la multiplication de projets étatiques pour la plupart essentiellement militaires, ainsi qu’au niveau d’un déclenchement d’une sécurisation de leur intégrité territoriale ou du moins un accroissement de l’insécurité à son égard. La 2e hypothèse avancée est la suivante : les nouvelles perceptions de sécurité et les comportements stratégiques des États de la région engendrent de l’insécurité à l’intérieur des sociétés ainsi qu’une dégradation de la confiance entre les acteurs étatiques. Cela a pour effet d’augmenter la division politique dans l’Arctique et de ralentir toute construction régionale. Nous concluons, sur la base de nos études de cas, qu’au Canada, la souveraineté, la nordicité et l’intégrité territoriale sont perçues comme étant menacées. De plus, les sécurisations dans l’Arctique semblent faire partie d’un renouvellement stratégique global en matière de politique étrangère et de défense. En Norvège, la Russie est considérée comme l’acteur principal du High North et à partir de 2008, la relation russo-norvégienne a subi une sécurisation. Contrairement au Canada, la Norvège préfère le statu quo stratégique dans l’Arctique en privilégiant les trois éléments traditionnels de sa politique de défense et de sécurité - la dissuasion par l’OTAN, la gestion de la Russie par l’assurance, et l’amélioration des relations est-ouest.
Resumo:
Le neurofeedback (NF) suscite actuellement un vif intérêt dans la prise en charge du trouble déficitaire de l’attention avec hyperactivité (TDAH) chez l’enfant. Proposée comme méthode alternative à la médication par de nombreux cliniciens, notamment aux États-Unis, le NF est une intervention non-invasive de type électrophysiologique qui repose sur l’apprentissage par conditionnement opérant de l’autorégulation d’ondes cérébrales déviantes. Les études empiriques qui étayent cette pratique font toutefois l’objet de virulentes critiques de la part de spécialistes dans le domaine du TDAH en raison de résultats systématiquement positifs mais non spécifiques, auxquels s’ajoutent de nombreuses lacunes méthodologiques. Les travaux de cette thèse visent à appliquer une méthodologie stricte de type essai clinique contrôlé avec assignation aléatoire afin d’isoler les effets particuliers du NF, en appliquant un protocole d’entraînement propre au déficit primaire sous-tendant le TDAH, soit l’inhibition motrice, dans le but d’évaluer la spécificité de cette intervention. Dans un premier temps, les connaissances relatives à la nosologie du TDAH, à ses principaux traitements, au NF et aux capacités d’inhibition chez l’enfant ayant un TDAH sont présentées (Chapitre 1). Ensuite, les études réalisées dans le cadre de cette thèse sont exposées. Dans l’étude initiale, la spécificité du NF est évaluée sur les capacités d’inhibition grâce à des mesures subjectives, soit des questionnaires de comportements complétés par les parents, ainsi que des mesures objectives, à savoir des tâches neuropsychologiques (Chapitre 2). Afin de préciser davantage les conséquences d’un entraînement à l’autorégulation d’ondes cérébrales, l’étude subséquente s’est intéressée à l’impact neurophysiologiques de l’amélioration des capacités d’inhibition, par le biais d’une étude en potentiels évoqués employant une tâche de performance continue de type Stop-signal (Chapitre 3). Les principaux résultats reflètent un recrutement sous optimal, avec une puissance statistique insuffisante pour réaliser des statistiques quantitatives de groupe. Néanmoins, l’appréciation des données selon une approche d’étude de cas multiples permet de mettre en évidence la présence d’une réponse placebo sur les capacités d’inhibition suite à un entraînement en NF. Finalement, les implications de la taille de l’échantillon, ainsi que les limites et les critiques de ces études sont discutées au Chapitre 4.
Resumo:
RÉSUMÉ : Problématique : En dépit du nombre croissant de médecins immigrants qui choisissent de s’installer au Québec, et de la pénurie de ces professionnels de la santé, beaucoup d’entre eux ne parviendront pas à exercer leur profession au Québec. Les études réalisées auparavant n’étaient souvent pas spécifiques à l’intégration professionnelle des médecins immigrants au Québec. Et de nouvelles barrières émergeaient à chaque étude, justifiant la nécessité d’une démarche exploratoire pour mieux comprendre le sujet. Objectifs : L’objectif de cette étude est d’identifier et analyser les barrières à l’intégration professionnelle ainsi que les facteurs facilitants perçus par les médecins immigrants diplômés hors Canada et États-Unis qui choisissent de s’installer au Québec. Méthodologie : La stratégie retenue est la recherche synthétique de type étude de cas. C’est une recherche qualitative principalement basée sur l’analyse de 22 entrevues semi-structurées, réalisées avec des médecins immigrants diplômés hors Canada et États-Unis, originaires de 15 pays différents. L’échantillon est de type variation maximale, selon le pays d’origine, la formation initiale, l’expérience professionnelle et selon le parcours personnel au Québec. Le recrutement a été réalisé principalement à l’aide de la collaboration du Centre d'évaluation des sciences de la santé de l’Université Laval, de l’organisme « l’Hirondelle » et du département d’administration de la santé de l’Université de Montréal. Le cadre théorique est celui de Diaz (1993) et les différents thèmes qui ont été abordés dans l’entrevue sont inspirés de la synthèse des barrières et des perceptions citées dans la littérature dont la plupart ne sont pas spécifiques aux médecins immigrants. Ces thèmes généraux sont représentés par les contraintes linguistiques, socioculturelles, informationnelles, financières, procédurales et discriminatoires. Pour ce qui est des thèmes des facteurs facilitants, ce sont : les facteurs financiers, informationnels, d’aide et de support à l’intégration professionnelle. Résultats : Les 22 participants étaient composés de 13 hommes et de 9 femmes, âgés de 29 à 53 ans, originaires de 15 pays différents et ayant une durée de séjour au Québec de 2 à 15 ans. Lors des entrevues, les émergences recueillies grâce aux questions ouvertes ont permis d’appréhender les difficultés spécifiques perçues par les médecins immigrants qui n’ont pas été soulevées ii par la littérature. Les barrières à l’intégration professionnelle perçues par les médecins immigrants sont surtout de nature procédurale, mais également institutionnelles, et dans une moindre mesure, socioculturelles. Les principales barrières procédurales sont relatives aux facteurs informationnels, à l’évaluation des connaissances et des compétences médicales, mais surtout à l’absence de garantie de l’octroi des postes de résidence même après la réussite des examens exigés. Les facteurs facilitants les plus importants sont l’harmonisation des procédures provinciales et fédérales, l’amélioration relative de l’information, le soutien linguistique pour les nonfrancophones et la pénurie des médecins. Conclusion : La réduction des nombreuses barrières identifiées dans cette recherche, permettra non seulement de faciliter l’intégration professionnelle des médecins immigrants, mais également de contribuer à réduire la pénurie de ces professionnels de la santé au Québec.
Association between diet quality and metabolic syndrome in overweight and obese postmenopausal women
Resumo:
Résumé Objectifs : Le syndrome métabolique (MetS) est un ensemble de composantes (obésité, résistance à l'insuline, intolérance au glucose, dyslipidémie, hypertension) qui sont associées à une augmentation du risque de diabète de type 2 et de maladies cardiovasculaires. Aux États-Unis, la fréquence du MetS atteint des proportions épidémiques avec une prévalence de 25% de la population. Les études nutritionnelles traditionnelles se sont concentrées sur l’effet d’un nutriment alors que les études plus récentes ont déterminé l’effet global de la qualité alimentaire sur les facteurs de risque. Cependant, peu d'études ont examiné la relation entre la qualité alimentaire et le MetS. Objectif: Déterminer l'association entre la qualité alimentaire et le MetS et ses composantes. Méthodes: La présence du MetS a été déterminée chez 88 femmes post-ménopausées en surpoids ou obèses, selon la définition du National Cholesterol Education Program Adult treatment Panel III alors que la qualité alimentaire a été évaluée selon le Healthy Eating Index (HEI). La sensibilité à l’insuline, la composition corporelle et le métabolisme énergétique ont été mesurés. Résultats: Le HEI corrélait négativement avec la plupart des mesures de masse grasse et du poids mais pas avec la sensibilité à l'insuline, l’hypertension et la plupart des marqueurs lipidiques. Cependant, l’HEI corrélait positivement avec LDL-C/ApoB et négativement avec le métabolisme énergétique. Conclusion: Les résultats démontrent que l’HEI est associé avec les mesures de gras corporel et la grosseur des LDL. Mots clés: Obésité, qualité alimentaire, métabolisme lipidique, syndrome métabolique.
Resumo:
L’application aux civils du concept de « sortie de guerre » offre aux historiens de nouvelles pistes de recherche. Bien que la mobilisation culturelle de l’enfance dans la Grande Guerre ait fait l’objet de plusieurs études depuis les dernières années, le processus de démobilisation reste, quant à lui, peu exploré. Ce mémoire s’intéressera donc à la « sortie de guerre » chez les enfants français, à travers des sources inédites : des lettres adressées au président des États-Unis, Woodrow Wilson, à la fin de 1918. L’analyse met en lumière la perception des enfants sur la paix, la guerre, les Américains, et les changements de leur quotidien depuis l’armistice. Après une première partie historiographique, le deuxième chapitre portera sur la représentation de Wilson, des Américains et de la paix. Dans le dernier chapitre seront analysés le quotidien des enfants dans les mois suivant l’armistice, les représentations de la guerre et le processus de démobilisation. Fin 1918, la guerre tient encore beaucoup de place dans les propos des enfants et peu de signes de démobilisation émergent de leurs lettres. Ainsi, le président américain est représenté comme le sauveur de la France et le grand vainqueur de la guerre plutôt qu’en apôtre de la paix. Le sujet principal des lettres porte ainsi sur la reconnaissance et la gratitude des enfants envers le président et les États-Unis pour leur participation à la guerre et pour l’aide à la victoire. Les valeurs et le passé communs entre les deux pays alliés, exploités par la propagande de guerre, sont soulignés par les enfants. La fin de la guerre commence à peine à se faire ressentir dans le quotidien des enfants. La période est marquée par les célébrations de la victoire. De plus, la peur tend à s’atténuer avec la fin des violences de guerre et des nouveaux deuils. Les perturbations de la guerre demeurent cependant chez plusieurs enfants, particulièrement chez les réfugiés et les orphelins de guerre : la pauvreté, les séparations familiales et les privations alimentaires en affectent ainsi plusieurs. La perpétuation de ce climat de guerre influence la démobilisation des enfants, qui manifestent leur patriotisme et leur haine de l’ennemi. Les représentations de l’ennemi et des combattants du temps de la guerre prévalent donc encore, mais les enfants expriment néanmoins leur lassitude du conflit et leur désir d’un rapide retour à la normale.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Ce travail contribue au champ d’études sur l’adoption de politique publique des États américains en étudiant quantitativement leurs réactions à l’enjeu du réchauffement climatique. Suivant l’approche des déterminants internes, des facteurs économiques, politiques et environnementaux sont utilisés pour expliquer la densité réglementaire étatique limitant la production de gaz à effet de serre. La variable dépendante constitue la principale contribution de ce travail puisqu’elle incarne une revue exhaustive des options législatives adoptées par les États américains et les regroupe en six catégories. Les déterminants internes identifiés permettent d’expliquer pourquoi certains États sont des instigateurs ou des retardataires dans le dossier du réchauffement climatique. Les principaux facteurs explicatifs sont la présence d’une population idéologiquement libérale et de groupes d’intérêts environnementaux forts.
Resumo:
Ma thèse de doctorat, intitulée Inventing Interventions: Strategies of Reappropriation in Native and First Nations Literatures traite du sujet de la réappropriation de la langue anglaise et de la langue française dans les littératures autochtones du Canada et des États-Unis, en tant que stratégie d’intervention de re-narration et de récupération. De fait, mon projet fait abstraction, autant que possible, des frontières nationales et linguistiques, vu que celles-ci sont essentiellement des constructions culturelles et coloniales. Ainsi, l’acte de réappropriation de la langue coloniale implique non seulement la maîtrise de base de cette dernière à des fins de communication, cela devient un moyen envers une fin : au lieu d’être possédés par la langue, les auteurs sur lesquels je me penche ici possèdent à présent cette dernière, et n’y sont plus soumis. Les tensions qui résultent d’un tel processus sont le produit d’une transition violente imposée et expérimentale d’une réalité culturelle à une autre, qui, pour plusieurs, n’a pas réussie et s’est, au contraire, effritée sur elle-même. Je soutiens donc que les auteurs autochtones ont créé un moyen à travers l’expression artistique et politique de répondre (dans le sens de « write back ») à l’oppression et l’injustice. À travers l’analyse d’oeuvres contemporaines écrites en anglais ou en français, que ce soit de la fiction, de l’autobiographie, de la poésie, du théâtre, de l’histoire ou du politique, ma recherche se structure autour de quatre concepts spécifiques : la langue, la résistance, la mémoire, et le lieu. J’examine comment ces concepts sont mis en voix, et comment ils sont interdépendants et s’affectent à l’intérieur du discours particulier issu des littératures autochtones et des différentes stratégies d’intervention (telles la redéfinition ou l’invention) et du mélange de différentes formules littéraires.
Resumo:
De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.
Resumo:
Il est bien établi que l'exposition à court terme aux particules fines dans l’air ambiant en milieu urbain a des effets sur la santé. Toutefois, peu d'études épidémiologiques ont évalué la relation entre les particules fines (PM2.5) de sources spécifiques comme celles dérivées de feux de forêt et les effets sur la santé. Pour l’instant, les risques de mortalité et de morbidité associés aux PM2.5 résultant de la combustion de végétation semblent similaires à ceux des PM2.5 urbaines. Dans le présent mémoire, nous avons comparé deux méthodes pour quantifier les risques de mortalité et de morbidité associés à l'augmentation des niveaux de PM2.5 à Montréal, dérivées de deux épisodes des feux de forêts majeurs dans le Nord du Québec. La première approche consistait à comparer les décès et les visites aux urgences observées enregistrées au cours des deux épisodes à Montréal à leurs moyennes respectives attendues durant des jours de référence. Nous avons également calculé la surmortalité et la surmorbidité prédites attribuables aux PM2.5 lors des épisodes, en projetant les risques relatifs (RR) rapportés par l’Environmental Protection Agency (EPA) des États-Unis pour les PM2.5 urbaines, ainsi qu’en appliquant des fonctions de risque estimées à partir des données estivales spécifiques à Montréal. Suivant la première approche, nous avons estimé une surmortalité de +10% pendant les deux épisodes. Cependant, aucune tendance claire n'a été observée pour les visites à l'urgence. Et suivant la 2e approche, la surmortalité prédite attribuable aux niveaux des PM2.5 dérivées des feux de forêt étaient moins élevés que ceux observés, soit de 1 à 4 cas seulement. Une faible surmortalité attribuable aux niveaux élevés des PM2.5 issues de feux de la forêt boréale du Québec a été estimée par les fonctions de risque ainsi que par la méthode de comparaison des décès observés aux moyennes attendues, sur l’Île de Montréal, située à des centaines de km des sites de feux.
Resumo:
Les entérocoques font partie de la flore normale intestinale des animaux et des humains. Plusieurs études ont démontré que les entérocoques d’origine animale pouvaient représenter un réservoir de gènes de résistance aux antibiotiques pour la communauté humaine et animale. Les espèces Enterococcus faecalis et Enterococcus faecium sont importantes en santé publique; elles sont responsables d’environ 12% de toutes les infections nosocomiales aux États-Unis. Au Canada, les cas de colonisation et/ou d’infections à entérocoques résistants à la vancomycine ont plus que triplé de 2005 à 2009. Un total de 387 isolats E. faecalis et E. faecium aviaires, et 124 isolats E. faecalis porcins ont été identifiés et analysés pour leur susceptibilité aux antibiotiques. De hauts pourcentages de résistance envers les macrolides et les tétracyclines ont été observés tant chez les isolats aviaires que porcins. Deux profils phénotypiques prédominants ont été déterminés et analysés par PCR et séquençage pour la présence de gènes de résistance aux antibiotiques. Différentes combinaisons de gènes de résistance ont été identifiées dont erm(B) et tet(M) étant les plus prévalents. Des extractions plasmidiques et des analyses par hybridation ont permis de déterminer, pour la première fois, la colocalisation des gènes erm(B) et tet(M) sur un plasmide d’environ 9 kb chez des isolats E. faecalis porcins, et des gènes erm(B) et tet(O) sur un plasmide de faible poids moléculaire d’environ 11 kb chez des isolats E. faecalis aviaires. De plus, nous avons démontré, grâce à des essais conjugatifs, que ces plasmides pouvaient être transférés. Les résultats ont révélé que les entérocoques intestinaux aviaires et porcins, lesquels peuvent contaminer la viande à l’abattoir, pouvaient représenter un réservoir de gènes de résistance envers la quinupristine-dalfopristine, la bacitracine, la tétracycline et les macrolides. Afin d’évaluer l’utilisation d’un antisérum polyclonal SA dans l’interférence de la résistance à de fortes concentrations de bacitracine (gènes bcrRAB), lors d’un transfert conjugatif répondant aux phéromones, un isolat multirésistant E. faecalis aviaire a été sélectionné. Après induction avec des phéromones produites par la souche réceptrice E. faecalis JH2-2, l’agrégation de la souche donatrice E. faecalis 543 a été observée ainsi que des fréquences de transfert élevées en bouillon lors d’une courte période de conjugaison. Le transfert conjugatif des gènes asa1, traB et bcrRAB ainsi que leur colocalisation a été démontré chez le donneur et un transconjugant T543-1 sur un plasmide de 115 kb par électrophorèse à champs pulsé (PFGE) et hybridation. Une CMI de > 2 048 µg/ml envers la bacitracine a été obtenue tant chez le donneur que le transconjuguant tandis que la souche réceptrice JH2-2 démontrait une CMI de 32 µg/ml. Le séquençage des gènes asa1, codant pour la substance agrégative, et traB, une protéine régulant négativement la réponse aux phéromones, a révélé une association de cet élément génétique avec le plasmide pJM01. De plus, cette étude présente qu’un antisérum polyclonal SA peut interférer significativement dans le transfert horizontal d’un plasmide répondant aux phéromones codant pour de la résistance à de fortes doses de bacitracine d’une souche E. faecalis aviaire multirésistante. Des isolats cliniques E. faecium d’origine humaine et canine ont été analysés et comparés. Cette étude rapporte, pour la première fois, la caractérisation d’isolats cliniques E. faecium résistants à l’ampicilline (EFRA) d’origine canine associés à CC17 (ST17) au Canada. Ces isolats étaient résistants à la ciprofloxacine et à la lincomycine. Leur résistance envers la ciprofloxacine a été confirmée par la présence de substitutions dans la séquence en acides aminés des gènes de l’ADN gyrase (gyrA/gyrB) et de la topoisomérase IV (parC/parE). Des résistances élevées envers la gentamicine, la kanamycine et la streptomycine, et de la résistance envers les macrolides et les lincosamides a également été observées. La fréquence de résistance envers la tétracycline était élevée tandis que celle envers la vancomycine n’a pas été détectée. De plus, aucune résistance n’a été observée envers le linézolide et la quinupristine-dalfopristine. Les données ont démontré une absence complète des gènes esp (protéine de surface des entérocoques) et hyl (hyaluronidase) chez les isolats canins EFRA testés tandis qu’ils possédaient tous le gène acm (adhésine de liaison au collagène d’E. faecium). Aucune activité reliée à la formation de biofilm ou la présence d’éléments CRISPR (loci de courtes répétitions palindromiques à interespaces réguliers) n’a été identifiée chez les isolats canins EFRA. Les familles de plasmide rep6 and rep11 ont significativement été associées aux isolats d’origine canine. Les profils PFGE des isolats d’origine humaine et canine n'ont révélé aucune relation (≤ 80%). Ces résultats illustrent l'importance d'une utilisation judicieuse des antibiotiques en médecine vétérinaire afin d’éviter la dissémination zoonotique des isolats EFRA canins. Nous pensons que ces résultats contribueront à une meilleure compréhension des mécanismes de résistance aux antibiotiques et de leurs éléments mobiles ainsi qu’à de nouvelles stratégies afin de réduire le transfert horizontal de la résistance aux antibiotiques et des facteurs de virulence.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
La stimulation du nerf vague (SNV) a reçu l’approbation de Santé Canada en 2001, comme en Europe, pour le traitement de la dépression réfractaire et en 2005 aux États-Unis. Les études européennes et américaines rapportent un taux de réponse de 50% et de rémission de 30% après un an de traitement. La sélection des patients, encadrée par la recherche de marqueurs biologiques et des critères de résistance, pourrait contribuer à améliorer les taux de réponse. Cette étude décrit le suivi des patients ambulatoires souffrant de dépression réfractaire, d’un spectre unipolaire ou bipolaire (n=13) sous SNV. Une révision exhaustive de l’histoire médicale et thérapeutique précède une évaluation clinique intensive. Si un consensus d’équipe est obtenu, une investigation clinique à la recherche des marqueurs biologiques est effectuée. Ceci inclut une tomographie par émission de photons simples (SPECT), une tomographie par émission de positrons (TEP), une formule sanguine complète, un test de suppression à la dexaméthasone (DST), une collecte d’urine 24h (catécholamines et cortisol), une polysomnographie et une évaluation neuropsychologique abrégée. Après 1 an de traitement, 61,5% (8/13) des patients ont atteint le seuil de réponse (diminution de 50% des symptômes), dont 87.5% (7/8) en rémission. Les patients diagnostiqués d’un trouble bipolaire, présentant un DST anormal et/ou avec déficits cognitifs ont répondu au traitement et poursuivent leur rémission après 2 ans. Une sélection minutieuse des patients pour le SNV serait une méthode efficace pour traiter les dépressions réfractaires, notamment pour prévenir les rechutes, amenant un état euthymique durable pour la plupart des patients.
Resumo:
La presse coloniale hispano-américaine a joué un rôle significatif dans la propagation d’idées étrangères dans les colonies d’Amérique. Elle est devenue le porte-parole de certaines idéologies, lesquelles se sont renforcées par le biais de la traduction de nouvelles provenant surtout d’Europe et des États-Unis. Notre thèse porte sur les interventions du sujet traducteur dans la Gaceta de Caracas (GdC) du Venezuela. Publié de 1808 à 1822, ce périodique est le plus emblématique de l’époque émancipatrice. Créé pour diffuser des nouvelles et des idées pro-monarchie dans la province vénézuélienne, ce périodique dépasse ses objectifs premiers et témoigne des changements politiques, économiques et sociaux pendant le processus d’indépendance du pays qui, en quatorze ans, connaît successivement des périodes royalistes et des périodes républicaines. Comme les autres périodiques de la Province, la GdC a connu une importante activité traductive par l’emploi de sources étrangères (périodiques publiés en Europe, aux États-Unis et dans les Caraïbes). La traduction dans la GdC fait partie d’un projet politique, raison pour laquelle les traducteurs n’hésitent pas à s’en servir pour communiquer leurs idéaux. La traduction sert toutefois deux projets bien distincts dépendamment de l’étape politique que vit le pays : pendant l’époque royaliste, elle cherche à maintenir le pouvoir de la monarchie espagnole sur la colonie, tandis que durant l’époque patriotique, elle cherche à s’en libérer. Des études précédentes ponctuelles suggèrent que le traducteur de la GdC emploie une stratégie d’appropriation à des fins politiques et intervient délibérément dans le processus de traduction (Bastin, Navarro & Iturriza, 2010; Iturriza, 2011; Navarro, 2008, 2010, 2011). Dans le cadre des études descriptives de la traduction – EDT (Toury, 1995), nous étudions les choix traductionnels des rédacteurs-traducteurs. Plus précisément, nous examinons les raisons, les manifestations et les effets de ces choix afin de déterminer le rôle de la traduction dans le processus indépendantiste au Venezuela.