206 resultados para Analyse en composantes principales
Resumo:
Parmi les pratiques d’intervention sociale qui se produisent quotidiennement dans les milieux institutionnel et associatif au Québec, une catégorie est particulièrement ciblée depuis quelques décennies, les jeunes ou la jeunesse. En s’inscrivant dans une démarche réflexive et exploratoire sur les fondements des pratiques d’intervention auprès des jeunes, le présent mémoire propose d’explorer le sens et la pertinence sociale de ces dernières à travers les perspectives des intervenants eux-mêmes. Pour ce faire, nous effectuons des études de cas selon une approche clinique et critique en sociologie. En allant chercher dans les témoignages d’un certain nombre d’intervenants des milieux institutionnel, communautaire et de l’employabilité leur connaissance expérientielle concernant la pratique d’intervention auprès des jeunes, nous dégageons des conceptions du social ou des sociologies implicites particulières. Se dégagent quatre idéaux-types - systémique, informationnel, normatif et clinique – qui visent respectivement l’émancipation, l’aide à l’insertion, la socialisation aux normes et le soutien humain. Notre analyse en termes de sociologie implicite explore la double question du sens selon les agents et de la fonction selon les processus engendrés. Elle permet d’articuler les conceptions que les agents sociaux se font de leur pratique avec son inscription dans le monde social. Ainsi, nous concluons que les pratiques d’intervention auprès des jeunes participent non seulement à la transformation sociale par l’ouverture d’espaces de liberté et de compréhension et par le soutien humain offert mais aussi à la normalisation et au contrôle par la constitution du marché du travail et/ou du monde adulte comme réalités auxquelles les jeunes doivent s’adapter.
Resumo:
La légitimité d’une organisation est fondée sur sa mission, c’est-à-dire sur sa raison d’être. Des responsables des bibliothèques et de nombreux chercheurs craignent que la légitimité des bibliothèques publiques soit contestée dans la société de l’information. De plus, les textes officiels présentant les missions des bibliothèques publiques sont divers et les missions y sont délibérément non définies. Au Québec, où une grande majorité des bibliothèques publiques autonomes sont placées directement sous la tutelle des municipalités, les bibliothèques publiques doivent définir et légitimer leurs missions avec les élus municipaux. L’objectif principal de cette recherche est de comprendre, via les discours, le point de vue des élus municipaux québécois sur les missions des bibliothèques publiques autonomes, en comparaison avec les pratiques et les ressources des bibliothèques au plan local. Basé sur la théorie de la construction sociale de la réalité, un cadre conceptuel est proposé de manière à étudier non seulement les discours dans leur dimension textuelle, mais aussi à contextualiser ces discours et analyser l’écart entre ces discours et les pratiques des bibliothèques.La stratégie de recherche adoptée est une étude de cas multiples. L’objectif est de développer une analyse en profondeur de chaque cas et une analyse inter cas. Les douze cas (municipalités) ont été sélectionnés en fonction de deux critères de variation (la taille de la municipalité et le budget annuel alloué par la municipalité à la bibliothèque) et un critère discriminant (la distance par rapport à l’Université de Montréal). Des entrevues ont été menées auprès des élus municipaux présidant la commission ou le comité dont dépendent les bibliothèques publiques. Ces entrevues et les politiques culturelles ont fait l’objet d’une analyse de discours. Les entrevues auprès des responsables des bibliothèques et la documentation ont fait l’objet d’une analyse de contenu. Ces analyses ont permis la triangulation des méthodes et des sources de données.Les élus municipaux québécois, comme les professionnels, n’offrent pas un discours homogène sur les missions des bibliothèques publiques. Toutefois, un modèle de discours émerge. Il montre un discours « limité » par rapport à la littérature, dans lequel une image passive de la bibliothèque est présentée et dans lequel la tradition perdure malgré le contexte de la société de l’information. Mais l’analyse révèle aussi que les élus municipaux construisent leurs points de vue sur leurs propres convictions en tant qu’individus, sur leur rôle dans la gestion de la municipalité en tant qu’élus et sur l’image qu’ils ont des usagers des bibliothèques publiques. Enfin, l’analyse a révélé un axe de différenciation des points de vue selon que le discours s’appuie sur des valeurs fondamentales ou sur les usages (réels ou supposés) de la bibliothèque.
Resumo:
Bien qu’on ait longtemps considéré le désespoir ou la souffrance comme un facteur de précipitation de l’expérience religieuse, aucune étude n’a été effectuée sur les liens entre une expérience d’abus sexuels et une conversion religieuse subséquente. Une revue de la littérature sur la dynamique religieuse des abus sexuels révèle deux paradigmes opposés : la religion comme ressource ou comme facteur de risque. De même, un examen des études sur la conversion indique trois dichotomies : un converti actif ou passif, une conversion soudaine ou progressive, et la conversion comme phénomène normal ou pathologique. Or, un recensement des témoignages anecdotiques de victimes d’abus sexuels qui ont subséquemment vécu une conversion suggère que l'interaction entre les deux événements est plus complexe. Pour dépasser ces dichotomies paradigmatiques, nous préconisons une approche narrative. Plus spécifiquement, nous utilisons le concept d’identité narrative développé par Paul Ricœur. Ce concept s’inscrit dans la dynamique ricœurienne de triple mimèsis, laquelle assure une fonction de liaison entre le champ pratique et le champ narratif. De façon générale, notre stratégie méthodologique consiste à déterminer comment, à partir d’éléments biographiques issus de la préfiguration (mimèsis I), le sujet configure son récit pour donner sens à son expérience (mimèsis II) et la refigure pour aboutir à une identité de survivant ou de converti (mimèsis III). Sept entrevues non directives ont été effectuées auprès de personnes qui ont subi des abus sexuels durant leur enfance et qui ont plus tard vécu une conversion religieuse dans le milieu évangélique. À partir de l'analyse en trois étapes mentionnée ci-dessus, nous évaluons la contribution positive ou négative des divers éléments narratifs et, surtout, de leur interaction à la construction de l’identité narrative du sujet. Nous en concluons que le rapport entre des abus sexuels subis durant l’enfance et une conversion ultérieure n’est pas si simple que la littérature pourrait le laisser soupçonner. La conversion peut s’avérer salutaire à la survie du sujet et contribuer à la guérison du traumatisme sexuel qu’il a subi. Toutefois, certains éléments religieux peuvent faire obstacle au processus de recouvrement. Ces éléments nocifs varient d’un sujet à l’autre, et ce qui est délétère pour l’un peut être bénéfique pour l’autre, selon la configuration du récit.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Le présent mémoire consiste en une analyse thématique des représentations féminines dans l’œuvre de Satoshi Kon, de Perfect Blue à Paprika. L’objectif de ce travail est de démontrer que ces images de la femme reflètent la place des femmes dans la société japonaise contemporaine. À cet effet, nous avons examiné les films du réalisateur selon l’approche des études féministes du cinéma. Nous avons divisé notre analyse en trois thèmes : la violence, la sexualité et le double. Il apparaît que les représentations féminines des longs-métrages de Kon possèdent effectivement des parallèles au sein la société nippone actuelle. Le réalisateur emploie des figures et des motifs narratifs communs au Japon et l’anime afin de produire et reproduire les stéréotypes de genre. Par ailleurs, il utilise les éléments filmiques et les particularités du médium de l’anime pour appuyer ces définitions des rôles sexuels. Cette étude est originale par son angle d’approche féministe et psychanalytique qui est rarement adopté par les théoriciens de l’anime. Les études portant sur ce médium sont d’ailleurs récentes et s’intéressent généralement à l’esthétique de l’anime ou à la formation d’une identité nationale japonaise plutôt qu’à la construction du genre dans un média de culture populaire.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Cette thèse s’intéresse à la mesure des pratiques éducatives et à leur capacité à rendre compte de ces pratiques. Notamment, la sensibilité des instruments à rendre compte des changements dans les pratiques éducatives suite à un programme d’entraînement aux habiletés parentales est abordée tout en tenant compte des facteurs déterminants de ces pratiques. Le corps de cette thèse est composé de deux articles. L’objectif de la première étude consiste à comparer deux instruments de mesure fréquemment utilisés pour mesurer les pratiques éducatives. Les deux instruments, comparés sur la base de données empiriques, sont le Parenting Practices Interview (PPI), un instrument développé afin de mesurer les changements suite au programme d’entraînement aux habiletés parentales Ces Années Incroyables, et l’Alabama Parenting Questionnaire (APQ). Le premier s’adresse aux parents d’enfants de 3 à 8 ans alors que le second cible les parents d’enfants d’âge scolaire. Cent vingt parents ont complété le PPI et l’APQ. Des analyses corrélationnelles, une analyse en composante principale et des corrélations canoniques ont été utilisées afin de comparer les différentes pratiques mesurées par ces deux instruments. Les résultats indiquent que ces deux instruments mesurent sensiblement les mêmes pratiques parentales. Quelques sous-échelles du PPI ne sont pas mesurées par l’APQ et représentent des pratiques éducatives additionnelles. Puisque ces deux instruments mesurent sensiblement les mêmes pratiques, le choix du questionnaire devrait être fait en fonction de l’objectif de l’étude (p.ex. évaluer l’efficacité du programme Ces Années Incroyables ou non), de la facilité d’utilisation de l’instrument et de l’âge des enfants. Le deuxième article a pour objectif d’évaluer les changements dans les pratiques éducatives suite à la participation des parents à un programme d’entraînement aux habiletés parentales (PEHP) à l’aide d’une grille d’observation spécifiquement développée dans le cadre de ce projet. De plus, cette étude vise à identifier les facteurs modérateurs du changement dans les pratiques éducatives telles certaines caractéristiques de l’enfant et des parents. Soixante-dix-sept familles ayant un enfant de 6 à 9 ans avec un trouble du déficit d’attention/hyperactivité (TDA/H) ont été retenues pour cette étude. Les familles ont participé soit au PEHP, soit elles ont reçu du soutien téléphonique (ST), ou elles ont continué à recevoir les services dans la communauté. Les pratiques éducatives ont été évaluées avant et après l’intervention à l’aide d’une mesure observationnelle. Les résultats indiquent que seuls les parents ayant participé au PEHP utilisent davantage de pratiques positives et ont diminué les pratiques sévères et négatives suite à l’intervention. De plus, le sous-type de TDA/H, la présence ou non de comorbidité chez l’enfant et le cumul de risque à l’intérieur d’une famille, calculé à partir de caractéristiques des parents, ne modèrent pas le changement suite à l’intervention. Cette étude démontre donc la capacité de la mesure observationnelle à détecter des changements suite à l’intervention de même que l’efficacité du PEHP auprès des familles d’enfants d’âge scolaire ayant un TDA/H.
Resumo:
Placer une charge au niveau du membre inférieur est une approche sans fondement scientifique, utilisée par les cliniciens, pour renforcer certains muscles clés de la marche. Cette étude a déterminé les modifications du patron de marche lors de l’ajout d’une charge à la cheville parétique ou non parétique chez des personnes ayant une hémiparésie suite à un accident vasculaire cérébral et a comparé les résultats à ceux d’un groupe témoin. Il est supposé qu’une charge placée à la jambe parétique/non dominante (charge ipsilatérale) augmenterait les efforts (moments et puissance) à la hanche parétique/non dominante lors de l’oscillation et qu’une charge placée controlatéralement augmenterait les efforts lors de la phase d’appui principalement pour les abducteurs de hanche stabilisant le bassin dans le plan frontal. La marche avec et sans charge de cinq individus hémiparétiques chroniques et 5 personnes en santé a été analysée en laboratoire par l’enregistrement des forces de réaction du sol et des mouvements des membres inférieurs. Ces informations ont permis de calculer les paramètres temps-distance, les angles à la hanche parétique/non dominante et au tronc, les moments nets, les puissances et le travail mécanique à la hanche parétique/non dominante. Des tests statistiques non-paramétriques ont servi à déterminer l’effet de la condition, avec charge (ipsi- et controlatérale) ou sans charge et à comparer les résultats entre les deux groupes. L’ajout d’une charge n’a pas modifié la vitesse de marche des sujets. Les phases d’appui et d’oscillation étaient rendus plus symétriques par la charge, même si peu de différences apparaissaient dans le plan sagittal avec ou sans la charge. Dans le plan frontal, le moment abducteur de hanche des sujets hémiparétiques a diminué avec la charge controlatérale, tandis qu'il a augmenté chez les sujets en santé. L’utilisation d’une stratégie posturale ou dynamique au tronc pourrait expliquer la différence de l’effet de la charge sur le moment abducteur à la hanche. Au vu de ces résultats, il est nécessaire de poursuivre l’évaluation de cette approche de renforcement musculaire spécifique à la tâche avant d’en recommander son utilisation.
Resumo:
Differentes études ont montré que la sensibilité au Ca2+ du canal KCa3.1, un canal potassique indépendant du voltage, était conférée par la protéine calmoduline (CaM) liée de façon constitutive au canal. Cette liaison impliquerait la région C-lobe de la CaM et un domaine de $\ikca$ directement relié au segment transmembranaire S6 du canal. La CaM pourrait égalment se lier au canal de façon Ca2+ dépendante via une interaction entre un domaine de KCa3.1 du C-terminal (CaMBD2) et la région N-lobe de la CaM. Une étude fut entreprise afin de déterminer la nature des résidus responsables de la liaison entre le domaine CaMBD2 de KCa3.1 et la région N-lobe de la CaM et leur rôle dans le processus d'ouverture du canal par le Ca2+. Une structure 3D du complexe KCa3.1/CaM a d'abord été générée par modélisation par homologie avec le logiciel MODELLER en utilisant comme référence la structure cristalline du complexe SK2.2/CaM (PDB: 1G4Y). Le modèle ainsi obtenu de KCa3.1 plus CaM prévoit que le segment L361-S372 dans KCa3.1 devrait être responsable de la liaison dépendante du Ca2+ du canal avec la région N-lobe de la CaM via les résidus L361 et Q364 de KCa3.1 et E45, E47 et D50 de la CaM. Pour tester ce modèle, les résidus dans le segment L361-S372 ont été mutés en Cys et l'action du MTSET+ (chargé positivement) et MTSACE (neutre) a été mesurée sur l'activité du canal. Des enregistrements en patch clamp en configuration ``inside-out`` ont montré que la liaison du réactif chargé MTSET+ au le mutant Q364C entraîne une forte augmentation du courant, un effet non observé avec le MTSACE. De plus les mutations E45A et E47A dans la CaM, ont empêché l'augmentation du courant initié par MTSET+ sur le mutant Q364C. Une analyse en canal unitaire a confirmé que la liaison MTSET+ à Q364C cause une augmentation de la probabilité d'ouverture de KCa3.1 par une déstabilisation de l'état fermé du canal. Nous concluons que nos résultats sont compatibles avec la formation de liaisons ioniques entre les complexes chargés positivement Cys-MTSET+ à la position 364 de KCa3.1 et les résidus chargés négativement E45 et E47 dans la CaM. Ces données confirment qu'une stabilisation électrostatique des interactions CaM/KCa3.1 peut conduire à une augmentation de la probabilité d'ouverture du canal en conditions de concentrations saturantes de Ca2+.
Resumo:
Les métaux lourds (ML) s’accumulent de plus en plus dans les sols à l’échelle mondiale, d’une part à cause des engrais minéraux et divers produits chimiques utilisés en agriculture intensive, et d’autre part à cause des activités industrielles. Toutes ces activités génèrent des déchets toxiques qui s’accumulent dans l’environnement. Les ML ne sont pas biodégradables et leur accumulation cause donc des problèmes de toxicité des sols et affecte la biodiversité des microorganismes qui y vivent. La fertilisation en azote (N) est une pratique courante en agriculture à grande échelle qui permet d’augmenter la fertilité des sols et la productivité des cultures. Cependant, son utilisation à long terme cause plusieurs effets néfastes pour l'environnement. Par exemple, elle augmente la quantité des ML dans les sols, les nappes phréatiques et les plantes. En outre, ces effets néfastes réduisent et changent considérablement la biodiversité des écosystèmes terrestres. La structure des communautés des champignons mycorhiziens à arbuscules (CMA) a été étudiée dans des sols contaminés par des ML issus de la fertilisation à long terme en N. Le rôle des différentes espèces de CMA dans l'absorption et la séquestration des ML a été aussi investigué. Dans une première expérience, la structure des communautés de CMA a été analysée à partir d’échantillons de sols de sites contaminés par des ML et de sites témoins non-contaminés. Nous avons constaté que la diversité des CMA indigènes a été plus faible dans les sols et les racines des plantes récoltées à partir de sites contaminés par rapport aux sites noncontaminés. Nous avons également constaté que la structure de la communauté d'AMF a été modifiée par la présence des ML dans les sols. Certains ribotypes des CMA ont été plus souvent associés aux sites contaminés, alors que d’autres ribotypes ont été associés aux sites non-contaminés. Cependant, certains ribotypes ont été observés aussi bien dans les sols pollués que non-pollués. Dans une deuxième expérience, les effets de la fertilisation organique et minérale (N) sur les différentes structures des communautés des CMA ont été étudiés. La variation de la structure de la communauté de CMA colonisant les racines a été analysée en fonction du type de fertilisation. Certains ribotypes de CMA étaient associés à la fertilisation organique et d'autres à la fertilisation minérale. En revanche, la fertilisation minérale a réduit le nombre de ribotypes de CMA alors que la fertilisation organique l’a augmenté. Dans cette expérience, j’ai démontré que le changement de structure des communautés de CMA colonisant des racines a eu un effet significatif sur la productivité des plantes. Dans une troisième expérience, le rôle de deux espèces de CMA (Glomus irregulare et G. mosseae) dans l'absorption du cadmium (Cd) par des plants de tournesol cultivés dans des sols amendés avec trois niveaux différents de Cd a été évalué. J’ai démontré que les deux espèces de CMA affectent différemment l’absorption ou la séquestration de ce ML par les plants de tournesol. Cette expérience a permis de mieux comprendre le rôle potentiel des CMA dans l'absorption des ML selon la concentration de cadmium dans le sol et les espèces de CMA. Mes recherches de doctorat démontrent donc que la fertilisation en N affecte la structure des communautés des CMA dans les racines et le sol. Le changement de structure de la communauté de CMA colonisant les racines affecte de manière significative la productivité des plantes. J’ai aussi démontré que, sous nos conditions expériemntales, l’espèce de CMA G. irregulare a été observée dans tous les sites (pollués et non-pollués), tandis que le G. mosseae n’a été observé en abondance que dans les sites contaminés. Par conséquent, j’ai étudié le rôle de ces deux espèces (G. irregulare et G. mosseae) dans l'absorption du Cd par le tournesol cultivé dans des sols amendés avec trois différents niveaux de Cd en serre. Les résultats indiquent que les espèces de CMA ont un potentiel différent pour atténuer la toxicité des ML dans les plantes hôtes, selon le niveau de concentration en Cd. En conclusion, mes travaux suggèrent que le G. irregulare est une espèce potentiellement importante pour la phytoextration du Cd, alors que le G. mosseae pourrait être une espèce appropriée pour phytostabilisation du Cd et du Zn.
Resumo:
Ce mémoire s'inscrit dans la méthode de praxéologie pastorale. Il analyse en qua-tre temps la mise en œuvre d'une exposition picturale qui oppose une figure alié-nante (conventionnelle et doucereuse) de Jésus à une vision trash (c'est à dire sub-versive et provocante) qui se veut plus fidèle à l'évangile. Le premier temps (ob-servation), qui présente le premier projet d'exposition ainsi que ses sources d'inspi-ration (personnelle, culturelle et artistique), amène à cerner deux problématique : la question de la vérité et l'orientation subversive (trash) du Jésus des évangiles. Le deuxième temps (interprétation) creuse tout d'abord la question de la vérité avec Hans Georg Gadamer, ce qui pousse à dépasser l'affirmation violente de la vérité du premier projet d'exposition pour le réorienter dans une perspective de questionnement. Par ailleurs, un modèle de dynamique trash permet de fonder la figure subversive et provocante de Jésus dans une relecture des évangiles, d’où un troisième temps (intervention) : l’amendement du premier projet d'exposition. En guise de conclusion, le quatrième temps (prospective) exporte des pointes de ré-flexion au-delà de l'interprétation concrète, à savoir au plan des questions de l'art et du public, du deuil de la vérité, de la dynamique trash et de la foi.
Resumo:
Influencée par la critique postmoderne et les études postcoloniales, cette recherche exploratoire invite à une réflexion sur le rôle et la place des ONG comme acteurs du développement des « pays du Sud », dans un monde de plus en plus globalisé. Les données empiriques, d’une part, récoltées suite à une enquête ethnographique au sein du siège social de l’une des ONG les plus influente de Montréal, Oxfam-Québec, et les données théoriques interdisciplinaires, d’autre part, ont permis une analyse en deux temps. Premièrement, il s’agit de comprendre le fonctionnement interne de ces puissantes ONG ainsi que leurs liens avec l’État et les marchés. La seconde partie sera consacrée à l’analyse de la mission de développement ainsi que la constitution du pouvoir et de la légitimité grandissante sur la scène politique mondiale de ces ONG transnationales.
Resumo:
La question des coûts des soins de santé gagne en intérêt dans le contexte du vieillissement de la population. On sait que les personnes en moins bonne santé, bien que vivant moins longtemps, sont associées à des coûts plus élevés. On s'intéresse aux facteurs associés à des coûts publics des soins de santé plus élevés au niveau individuel, chez les Québécois vivant en ménage privé âgés de 65 ans et plus, présentant au moins un type d’incapacité. À l’aide de modèles de régression, la variation des coûts pour la consultation de professionnels de la santé et la prise de médicaments a été analysée en fonction du nombre d’incapacités ainsi que de la nature de celles-ci. Les informations sur l’état de santé et la situation socio-démographique proviennent de l’Enquête sur les limitations d’activités (EQLA) de 1998, celles sur les coûts du Fichier d’inscription des personnes assurées (FIPA) de la Régie de l’Assurance maladie du Québec (RAMQ), pour la même année. Les résultats montrent que les deux types de coûts considérés augmentent en fonction du nombre d’incapacités. D’autre part, des coûts plus élevés ont été trouvés chez les personnes présentant une incapacité liée à l’agilité concernant la consultation de professionnels de la santé, alors que, concernant la prise de médicaments, le même constat s’applique aux personnes avec une incapacité liée à la mobilité. Les deux types de coûts considérés présentent un niveau plus élevé chez les personnes présentant une incapacité liée au psychisme, en particulier lorsque l’on considère la prise de médicaments. Ces observations soulignent l’intérêt de considérer la nature du problème de santé lorsque l’on étudie les déterminants individuels du niveau des coûts des soins de santé.
Resumo:
Les chutes chez les personnes âgées représentent un problème important de santé publique. Des études montrent qu’environ 30 % des personnes âgées de 65 ans et plus chutent chaque année au Canada, entraînant des conséquences néfastes sur les plans individuel, familiale et sociale. Face à une telle situation la vidéosurveillance est une solution efficace assurant la sécurité de ces personnes. À ce jour de nombreux systèmes d’assistance de services à la personne existent. Ces dispositifs permettent à la personne âgée de vivre chez elle tout en assurant sa sécurité par le port d'un capteur. Cependant le port du capteur en permanence par le sujet est peu confortable et contraignant. C'est pourquoi la recherche s’est récemment intéressée à l’utilisation de caméras au lieu de capteurs portables. Le but de ce projet est de démontrer que l'utilisation d'un dispositif de vidéosurveillance peut contribuer à la réduction de ce fléau. Dans ce document nous présentons une approche de détection automatique de chute, basée sur une méthode de suivi 3D du sujet en utilisant une caméra de profondeur (Kinect de Microsoft) positionnée à la verticale du sol. Ce suivi est réalisé en utilisant la silhouette extraite en temps réel avec une approche robuste d’extraction de fond 3D basée sur la variation de profondeur des pixels dans la scène. Cette méthode se fondera sur une initialisation par une capture de la scène sans aucun sujet. Une fois la silhouette extraite, les 10% de la silhouette correspondant à la zone la plus haute de la silhouette (la plus proche de l'objectif de la Kinect) sera analysée en temps réel selon la vitesse et la position de son centre de gravité. Ces critères permettront donc après analyse de détecter la chute, puis d'émettre un signal (courrier ou texto) vers l'individu ou à l’autorité en charge de la personne âgée. Cette méthode a été validée à l’aide de plusieurs vidéos de chutes simulées par un cascadeur. La position de la caméra et son information de profondeur réduisent de façon considérable les risques de fausses alarmes de chute. Positionnée verticalement au sol, la caméra permet donc d'analyser la scène et surtout de procéder au suivi de la silhouette sans occultation majeure, qui conduisent dans certains cas à des fausses alertes. En outre les différents critères de détection de chute, sont des caractéristiques fiables pour différencier la chute d'une personne, d'un accroupissement ou d'une position assise. Néanmoins l'angle de vue de la caméra demeure un problème car il n'est pas assez grand pour couvrir une surface conséquente. Une solution à ce dilemme serait de fixer une lentille sur l'objectif de la Kinect permettant l’élargissement de la zone surveillée.
Resumo:
Ce mémoire de recherche a pour objectif d’obtenir une mesure approximative de la mortalité des hommes médecins au Québec retenus dans l’étude. En plus d’analyser l’évolution de la mortalité de ces médecins pendant les périodes 1993-1998, 1999-2004 et 2005-2010, leur mortalité est comparée à celle de l’ensemble de la population masculine québécoise. Nous comparons également la mortalité des médecins omnipraticiens à celle des médecins spécialistes. Les données utilisées dans le cadre de ce mémoire proviennent d’un fichier administratif du Collège des médecins du Québec, qui contient des informations concernant un certain nombre de médecins qui ont obtenu un permis pour pratiquer la médecine au Québec, sans égard à leur statut au sein du Collège à la date de l’émission du fichier. Ces données n’ont pas été collectées à des fins statistiques et ainsi le fichier présente certaines limitations qui ont restreint nos analyses de mortalité, notamment le fait qu’elles ne nous fournissent pas la population à risque de décéder durant chacune des périodes étudiées. Cependant, même étant consciente que des biais se produiraient, nous avons calculé deux estimations de l’exposition au risque de mourir chez les médecins, en essayant de pallier le plus possible les limites du fichier. À partir de la première méthode de calcul, nous avons estimé les taux de mortalité par groupes quinquennaux d’âge entre 40 et 75 ans pour les médecins inscrits au tableau des membres. En contrepartie, à partir de la deuxième méthode de calcul, nous avons obtenu des taux de mortalité pour les mêmes groupes d’âge pour les médecins de tous statuts confondus et enregistrés dans le fichier de données. Nous croyons à des mesures acceptables de la mortalité des hommes médecins en autant qu’elle soit analysée en tenant compte de toutes les limites des données. Les résultats obtenus démontrent une diminution de la mortalité des hommes médecins d’une période à l’autre, mais les différences ne sont significatives que pour les groupes d’âge à partir d’environ 60 ans, surtout lorsque les taux des périodes 1993-1998 et 2005-2010 sont comparés. De plus, pour toutes les périodes analysées, la mortalité de l’ensemble de la population masculine québécoise s’avère plus élevée que celle des hommes médecins enregistrés dans le fichier de données et cela pour les deux méthodes de calcul de l’exposition au risque de décéder considérées. Finalement, cette étude ne montre pas de différence significative entre la mortalité des hommes médecins omnipraticiens et celle des hommes médecins spécialistes.