991 resultados para Méthodes de recherche


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La communication cellulaire est un phénomène important pour le maintien de l’homéostasie des cellules. Au court des dernières années, cette sphère de recherche sur la signalisation cellulaire a connue des avancées importantes au niveau de l’identification des acteurs principaux impliqués dans la reconnaissance extracellulaire des signaux, ainsi que la compréhension des voies de signalisation engagées par les cellules pour répondre aux facteurs extracellulaires. Malgré ces nouvelles informations, les diverses interrelations moléculaires entre les acteurs ainsi que les voies de signalisation cellulaire, demeurent mal comprises. Le transfert d’énergie de résonance de bioluminescence (BRET) permet la mesure d’interactions protéiques et peut être utilisé dans deux configurations, le BRET480-YFP (connu aussi comme le BRET1) et le BRET400-GFP (connu aussi en tant que BRET2). Suite à l’oxydation de son substrat, la luciférase de renilla peut transférer son énergie à une protéine fluorescente, uniquement si elles sont à proximité l’une de l’autre (≤100Å). La combinaison dans un seul essai des BRET480-YFP et BRET400-GFP, a permis de suivre trois paires d’interactions, sur une même population cellulaire. Par contre, l’utilisation de deux substrats pour la réaction de bioluminescence rend impossible la mesure simultanée des différents signaux de BRET, pour ce trois nouvelles configurations de BRET ont été mises au point en utilisant des nouvelles protéines fluorescentes. Ainsi deux des nouvelles couleurs de BRET ayant des émissions résolues, le BRET400-BFP et le BRET400mAmetrine ont pu être combinées pour mesurer l’engagement par un RCPG d’une protéine G, ainsi que l’accumulation du second messager. La combinaison de ces BRET a également permis de révéler la formation d’un complexe entre le récepteur α2A adrénergique (α2AAR), Gαi1, le dimère Gβγ ainsi que la kinase des récepteurs couplés aux protéines G (GRK2), suite à l’activation du récepteur. De plus, seule l’entrée de GRK2 semble être en mesure de causer la désensibilisation du α2AAR, en s’intercalant entre Gαi1 et Gβγ. Par contre, la stabilisation de l’interaction entre α2AAR et la β-arrestine2 semble nécessiter l’activité kinase de GRK2. Une autre étude a révélé l’importance de différentes Gα pour la mobilisation du calcium, suite à l’activation du récepteur aux opioïdes de type delta (DOR). Suite à la surexpression dede la famille Gαq, il a été possible de mesurer une influence de ces Gα sur la mobilisation du calcium. Toutefois, cette réponse calcique mesurée en présence des Gαq demeure sensible aux prétraitements à la toxine de Bordetella pertussis, qui inhibe sélectivement l’activité des Gαi. De plus, la co-expression de Gαi et Gαq permet de potentialiser la mobilisation de calcium, démontrant une interrelation entre ces deux familles de protéine Gα, pour la signalisation du DOR. Afin de démontrer l’interrelation directe, des expériences de BRET ont été réalisées entre différentes Gα. En plus de montrer la formation de complexes sélectifs entre les Gα, les expériences de BRET réalisées en parallèle d’analyses de séquences de Gα, ont également mis à jour un site de sélectivité d’interaction entre les Gα, l’hélice α4. Suite à la transposition de cette hélice α4 de Gα12 sur Gαi1, qui normalement n’interagissent pas, il a été possible de forcer l’interaction entre Gα12 et Gαi1, confirmant ainsi que cette hélice α contient l’information permettant une sélectivité d’interaction. Au cours de cette thèse, il a été possible de générer de nouvelles méthodes de mesure d’interactions protéiques qui permettent de multiplexer différents signaux, ce qui a permis de mettre à jour de nouvelles interactions entre divers effecteurs de la signalisation de RCGP

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Quatre-vingt-quinze squelettes humains issus des fouilles archéologiques du cimetière protestant Saint-Matthew (ville de Québec, 1771-1860) ont été étudiés en associant deux aspects de la paléonutrition : la paléochimie et la paléopathologie. Le but de cette recherche est d’explorer la relation entre nutrition et état de santé pour cette population préindustrielle. Des informations directes sur l’alimentation ont été recueillies par l’analyse des isotopes stables du carbone et de l’azote du collagène des os, et des informations indirectes ont été obtenues par une quantification de l’état de santé des individus. Les méthodes paléopathologiques utilisées sont celles de l’« indice de santé » (Steckel et al., 2002) pour la comparaison interpopulationnelle, puis des méthodes comprenant des degrés de sévérité plus précis afin d’étudier les variations intrapopulationnelles. L’analyse de ces données atteste d’un état de santé relativement mauvais par comparaison avec d’autres groupes nord-américains contemporains, malgré une alimentation similaire. Des différences alimentaires ont été observées en fonction des données paléodémographiques (âge, sexe), mettant notamment en évidence une variabilité temporelle dans la réalisation du processus de sevrage. De plus, un régime alimentaire moins riche en ressources C4 (maïs, sucre de canne) et en ressources animales (viande, poissons, produits laitiers) a été constaté pour les enfants entre 2 et 7 ans par rapport aux individus plus vieux. Enfin, une relation possible entre la sévérité de certaines pathologies (cribra orbitalia et périostite) et la consommation des ressources alimentaires en C4 et/ou marines et riches en protéines a été observée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduction: Les aidants des personnes âgées (PA) atteintes de la démence de type Alzheimer (DTA) sont confrontés à de nombreux défis lors du soin de leurs proches, y compris ceux liés à l’alimentation. Cependant, ces défis restent méconnus et les stratégies créées pour les gérer sont encore peu efficaces. Objectifs: Identifier les difficultés rencontrées par les aidants pendant la gestion de l’alimentation des PA atteintes de la DTA ayant participé à une intervention nutritionnelle (l’étude NIS) et dégager leurs opinions concernant cette intervention. Sujets: Trente-trois aidants des PA avec DTA du groupe intervention de l’étude NIS ont été ciblés. Méthodes: L’approche qualitative a été employée lors des entrevues individuelles auprès de ces aidants. Les entrevues ont été transcrites et le verbatim fut soumis à une analyse thématique. Résultats: Vingt-quatre aidants ont été interviewés. Quelque 58,4 % avaient 70 ans et plus et 58,3 % étaient des conjoint (es) des patients affectés. Quatre catégories de thèmes furent dégagées menant à l’identification des défis alimentaires suivants: les changements des habitudes alimentaires (altération des préférences); les perturbations du comportement alimentaire (ex. l’oubli de repas); la dépendance à la préparation des repas. L’utilité des conseils, la gentillesse et la compétence du personnel NIS, la documentation écrite offerte et la durée du suivi ont été appréciées par les aidants. Conclusion: Une meilleure compréhension de l'expérience de soin vécu par l’aidant est essentielle au développement des interventions nutritionnelles adaptées aux besoins des aidants et des PA atteintes de la DTA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé Depuis le début des années 1990, la recherche sur le développement régional a pris une importance considérable dans les disciplines de l’économie et de la géographie dans la plupart des pays. De nombreuses études ont été consacrées à ce sujet et l’on constate une approche analytique de plus en plus sophistiquée. Que les économies pauvres ont tendance à converger vers les pays riches, ou bien à diverger au fil du temps est une question qui a attiré l'attention des décideurs et des universitaires depuis quelques décennies. Convergence ou de divergence économique est un sujet d'intérêt et de débat, non seulement pour valider ou non les deux modèles principaux de croissance qui sont considérés comme concurrent (l’approche néo-classique et celle des approches de croissance endogène), mais aussi pour ses implications pour les publiques politiques. En se basant sur une analyse des politiques de développement régional et des analyses statistiques de la convergence et des disparités régionales, les objectifs de cette thèse sont de tenter de fournir une explication des différents processus et des modèles de développement économique régional poursuivis dans le cas de territoires immenses en utilisant le Canada et la Chine comme études de cas, d'entreprendre une analyse des différents facteurs et des forces motrices qui sous-tendent le développement régional dans ces deux pays, et d'explorer à la fois les réussites et les échecs apparents dans les politiques de développement régional en comparant et contrastant les expériences de développement régional et les modèles de ces deux pays. A fin d'atteindre cet objectif, la recherche utilise une approche multi-scalaire et des méthodes de mesure multidimensionnelle dans le cadre des analyses sur les disparités « régionales » entre les macro régions (sous-ensembles de provinces) des deux pays, des provinces et des régions urbaines sélectionnées, dans le but ultime d’identifier des problèmes existants en termes de développement régional et de pouvoir proposer des solutions. Les étapes principales de la recherche sont : 1. La cueillette des données statistiques pour le Canada et la Chine (incluant les provinces de Québec et de Xinjiang) pour une gamme d’indicateurs (voir ci-dessous). 2. D’entreprendre une analyse de chaque dimension dans les deux juridictions: Population (p.ex. composition, structure, changement); Ressources (p. ex. utilisation, exploitation de l’énergie); Environnement (p.ex. la pollution); et le Développement socioéconomique (p.ex. le développement et la transformation des secteurs clé, et les modèles de développement rural et urbain), et les disparités changeantes par rapport à ces dimensions. 3. La définition d’une typologie de différents types de région en fonction de leurs trajectoires de développement, ce qui servira pour critiquer l’hypothèse centre-périphérie. 4. Le choix d’une région métropolitaine dans chaque juridiction (province). 5. D’entreprendre une analyse temporelle des événements clé (politiques, investissements) dans chaque région et les facteurs impliqués dans chaque événement, en utilisant l’information documentaire générale et des agences institutionnelles impliqués actuellement et dans un passée récent. Cette étude a tenté d'expliquer les schémas et les processus des deux économies, ainsi que la présentation d'études de cas qui illustrent et examinent les différences dans les deux économies à partir de l’échelle nationale jusqu’au niveau régional et provincial et aussi pour certaines zones urbaines. Cette étude a essayé de répondre aux questions de recherche comme: Est-il vrai que les pays avec des plus grandes territoires sont associés avec des plus grandes disparités interrégionales? Quel est le résultat des comparaisons entre pays développés et pays en développement? Quels sont les facteurs les plus importants dans le développement économique de vastes territoires dans les pays développés et pays en développement? Quel est le mécanisme de convergence et de divergence dans les pays développés et, respectivement, les pays en développement? Dans l'introduction à la thèse, le cadre général de l'étude est présenté, suivie dans le chapitre 1 d'une discussion sur les théories et les concepts utilisés dans la littérature théorique principale qui est pertinent à l'étude. Le chapitre 2 décrit la méthodologie de recherche. Le chapitre 3 présente une vue d'ensemble des politiques de développement économique régional et les programmes du Canada et de la Chine dans des périodes différentes à différentes échelles. Au chapitre 4, la convergence des deux pays à l'échelle nationale et la convergence provinciale pour chaque pays sont examinés en utilisant différentes méthodes de mesure telles que les méthodes traditionnelles, la convergence bêta et la convergence sigma. Dans le chapitre le plus complexe, le chapitre 5, les analyses comparatives sont présentées à l'aide de données statistiques, à partir des analyses des cas régionaux et provinciaux retenus des deux pays. Au chapitre 6, ces dispositions sont complétées par une analyse des régions urbaines choisies, qui permet également des aperçus sur les régions les plus périphériques. Dans la recherche proposée pour cette thèse, la politique, la population, le revenu, l'emploi, la composition industrielle, l'investissement, le commerce et le facteur de la migration sont également pris en compte comme facteurs importants de l'analyse régionale compte tenu de la superficie du territoire des deux pays et les différences de population entre eux. Cette thèse a évalué dans quelle mesure les politiques gouvernementales ont réussi à induire la convergence régionale ou ont encore ont creusé davantage les disparités régionales, ce qui implique nécessairement une évaluation de la durabilité des patrons et des programmes de développement régional. Cette étude a également mis l'accent sur les disparités régionales et la politique de développement régional, les comparaisons entre pays, pour mesurer la convergence entre les pays et entre les régions, y compris l'analyse spatiale, d'identifier les facteurs les plus actifs tels que la population, les ressources, la politique, l'urbanisation, les migrations, l'ouverture économique et leurs différents rôles dans le développement économique de ces grands territoires (au Canada et Chine). Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionales et les disparités régionales dans les deux économies. L'approche adoptée a révélé les différentes mosaïques complexes du développement régional dans les deux pays. Les résultats de cette étude ont démontré que la disparité en termes de revenu régional est une réalité dans chaque zone géographique, et que les causes sont nombreuses et complexes. Les deux économies ont certains parallèles dans la mise en œuvre des politiques de développement économique régional, mais il existe des différences importantes aussi et elles se sont développées à différentes vitesses. Les deux économies se sont développées depuis la Seconde Guerre mondiale, mais la Chine a connu une croissance rapide que le Canada comme témoignent de nombreux indicateurs depuis 1980. Cependant, la Chine est maintenant confrontée à un certain nombre de problèmes économiques et sociaux, y compris les disparités régionales marquées, un fossé toujours croissant entre les revenus ruraux et urbains, une population vieillissante, le chômage, la pauvreté et la dégradation rapide de l'environnement avec toujours plus de demandes en énergie. Le développement économique régional en Chine est plus déséquilibré. Le Canada accuse un degré de disparités régionales et provinciales moins important que la Chine. Dans les cas provinciaux, il existe d'importantes différences et de disparités dans la structure économique et spatiale du Québec et du Xinjiang. Les disparités infra provinciales sont plus grandes que celles à l’échelle des provinces et des grandes régions (des sous-ensembles de provinces). Les mécanismes de convergence et de divergence dans les deux pays sont différents. Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionale et les disparités régionales dans les deux économies. Cette étude démontre également que l'urbanisation (les métropoles et les villes) s’avère être le facteur le plus actif et contribue à l'économie régionale dans ces grands territoires. L'ouverture a joué un rôle important dans les économies des deux pays. La migration est un facteur majeur dans la stimulation de l'économie des deux pays mais de façons différentes. Les résultats empiriques démontrent que les disparités régionales ne peuvent pas être évitées et elles existent presque partout. Il n'y a pas une formule universelle et de politiques spécifiques sont de mise pour chaque région. Mais il semble possible pour les décideurs politiques nationaux et régionaux d’essayer de maintenir l'écart à une échelle raisonnable pour éviter l'instabilité sociale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire présente une évaluation des différentes méthodes utilisées en lexicographie afin d’identifier les liens lexicaux dans les dictionnaires où sont répertoriées des collocations. Nous avons ici comparé le contenu de fiches du DiCo, un dictionnaire de dérivés sémantiques et de collocations créé selon les principes de la lexicologie explicative et combinatoire, avec les listes de cooccurrents générées automatiquement à partir du corpus Le Monde 2002. Notre objectif est ici de proposer des améliorations méthodologiques à la création de fiches de dictionnaire du type du DiCo, c’est-à-dire, des dictionnaires d’approche qualitative, où la collocation est définie comme une association récurrente et arbitraire entre deux items lexicaux et où les principaux outils méthodologiques utilisés sont la compétence linguistique de ses lexicographes et la consultation manuelle de corpus de textes. La consultation de listes de cooccurrents est une pratique associée habituellement à une approche lexicographique quantitative, qui définit la collocation comme une association entre deux items lexicaux qui est plus fréquente, dans un corpus, que ce qui pourrait être attendu si ces deux items lexicaux y étaient distribués de façon aléatoire. Nous voulons mesurer ici dans quelle mesure les outils utilisés traditionnellement dans une approche quantitative peuvent être utiles à la création de fiches lexicographiques d’approche qualitative, et de quelle façon leur utilisation peut être intégrée à la méthodologie actuelle de création de ces fiches.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les maladies cardio-vasculaires demeurent une cause majeure de mortalité et morbidité dans les sociétés développées. La recherche de déterminants prédictifs d’évènements vasculaires représente toujours un enjeu d’actualité face aux coûts croissants des dépenses reliées aux soins médicaux et à l’élargissement des populations concernées, notamment face à l’occidentalisation des pays émergeants comme l’Inde, le Brésil et la Chine. La cardiologie nucléaire occupe depuis trente ans, une place essentielle dans l’arsenal des méthodes diagnostiques et pronostiques des cardiopathies. De plus, de nouvelles percées permettront de dépister d’une façon plus précoce et précise, la maladie athérosclérotique cardiaque et périphérique chez les populations atteintes ainsi qu’en prévention primaire. Nous présenterons dans cette thèse, deux approches nouvelles de la cardiologie nucléaire. La dysfonction endothéliale est considérée comme le signal pathologique le plus précoce de l’athérosclérose. Les facteurs de risques cardiovasculaires traditionnels atteignent la fonction endothéliale et peuvent initier le processus d’athérosclérose même en l’absence de lésion endothéliale physique. La quantification de la fonction endothéliale coronarienne comporte donc un intérêt certain comme biomarqueur précoce de la maladie coronarienne. La pléthysmographie isotopique, méthodologie développée lors de ce cycle d’étude, permet de quantifier la fonction endothéliale périphérique, cette dernière étant corrélée à la fonction endothéliale coronarienne. Cette méthodologie est démontrée dans le premier manuscrit (Harel et. al., Physiol Meas., 2007). L’utilisation d’un radiomarquage des érythrocytes permet la mesure du flot artériel au niveau du membre supérieur pendant la réalisation d’une hyperémie réactive locale. Cette nouvelle procédure a été validée en comparaison à la pléthysmographie par jauge de contrainte sur une cohorte de 26 patients. Elle a démontré une excellente reproductibilité (coefficient de corrélation intra-classe = 0.89). De plus, la mesure du flot artérielle pendant la réaction hyperémique corrélait avec les mesure réalisées par la méthode de référence (r=0.87). Le deuxième manuscrit expose les bases de la spectroscopie infrarouge comme méthodologie de mesure du flot artériel et quantification de la réaction hyperémique (Harel et. al., Physiol Meas., 2008). Cette étude utilisa un protocole de triples mesures simultanées à l’aide de la pléthysmographie par jauge de contrainte, radio-isotopique et par spectroscopie infrarouge. La technique par spectroscopie fut démontrée précise et reproductible quant à la mesure des flots artériels au niveau de l’avant-bras. Cette nouvelle procédure a présenté des avantages indéniables quant à la diminution d’artéfact et à sa facilité d’utilisation. Le second volet de ma thèse porte sur l’analyse du synchronisme de contraction cardiaque. En effet, plus de 30% des patients recevant une thérapie de resynchronisation ne démontre pas d’amélioration clinique. De plus, ce taux de non-réponse est encore plus élevé lors de l’utilisation de critères morphologiques de réponse à la resynchronisation (réduction du volume télésystolique). Il existe donc un besoin urgent de développer une méthodologie de mesure fiable et précise de la dynamique cardiaque. Le troisième manuscrit expose les bases d’une nouvelle technique radio-isotopique permettant la quantification de la fraction d’éjection du ventricule gauche (Harel et. al. J Nucl Cardiol., 2007). L’étude portant sur 202 patients a démontré une excellente corrélation (r=0.84) avec la méthode de référence (ventriculographie planaire). La comparaison avec le logiciel QBS (Cedar-Sinai) démontrait un écart type du biais inférieur (7.44% vs 9.36%). De plus, le biais dans la mesure ne démontrait pas de corrélation avec la magnitude du paramètre pour notre méthodologie, contrairement au logiciel alterne. Le quatrième manuscrit portait sur la quantification de l’asynchronisme intra-ventriculaire gauche (Harel et. al. J Nucl Cardiol, 2008). Un nouveau paramètre tridimensionnel (CHI: contraction homogeneity index) (médiane 73.8% ; IQ 58.7% - 84.9%) permis d’intégrer les composantes d’amplitude et du synchronisme de la contraction ventriculaire. La validation de ce paramètre fut effectuée par comparaison avec la déviation standard de l’histogramme de phase (SDΦ) (médiane 28.2º ; IQ 17.5º - 46.8º) obtenu par la ventriculographie planaire lors d’une étude portant sur 235 patients. Ces quatre manuscrits, déjà publiés dans la littérature scientifique spécialisée, résument une fraction des travaux de recherche que nous avons effectués durant les trois dernières années. Ces travaux s’inscrivent dans deux axes majeurs de développement de la cardiologie du 21ième siècle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire de maîtrise en recherche-création cherche à explorer de deux façons singulières les possibilités littéraires de la construction (ou de la déconstruction) d’un objet saisi comme une totalité. La création s’écrit selon une contrainte stricte : laisser des matériaux produire du récit afin d’en découvrir méthodiquement le vocabulaire, la symbolique et les résonances historiques. Ce sont encore les matériaux qui dictent l’ordre des textes selon leur propre chronologie. L’essai quant à lui, procède d’une recherche semblable par l’analyse de textes choisis de trois auteurs modernes : Georges Perec, François Bon et Francis Ponge. Par la diversité des genres qu’ils expérimentent, par leurs méthodes d’écriture singulières et par la richesse de leurs corpus, ils constituent un terrain privilégié pour des études de cas variées ainsi que pour une synthèse pertinente. Ces deux parties se conjuguent étroitement, dans une expérience ouverte de la littérature.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les données manquantes sont fréquentes dans les enquêtes et peuvent entraîner d’importantes erreurs d’estimation de paramètres. Ce mémoire méthodologique en sociologie porte sur l’influence des données manquantes sur l’estimation de l’effet d’un programme de prévention. Les deux premières sections exposent les possibilités de biais engendrées par les données manquantes et présentent les approches théoriques permettant de les décrire. La troisième section porte sur les méthodes de traitement des données manquantes. Les méthodes classiques sont décrites ainsi que trois méthodes récentes. La quatrième section contient une présentation de l’Enquête longitudinale et expérimentale de Montréal (ELEM) et une description des données utilisées. La cinquième expose les analyses effectuées, elle contient : la méthode d’analyse de l’effet d’une intervention à partir de données longitudinales, une description approfondie des données manquantes de l’ELEM ainsi qu’un diagnostic des schémas et du mécanisme. La sixième section contient les résultats de l’estimation de l’effet du programme selon différents postulats concernant le mécanisme des données manquantes et selon quatre méthodes : l’analyse des cas complets, le maximum de vraisemblance, la pondération et l’imputation multiple. Ils indiquent (I) que le postulat sur le type de mécanisme MAR des données manquantes semble influencer l’estimation de l’effet du programme et que (II) les estimations obtenues par différentes méthodes d’estimation mènent à des conclusions similaires sur l’effet de l’intervention.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les chutes chez les personnes âgées représentent un problème majeur. Il n’est donc pas étonnant que l’identification des facteurs qui en accroissent le risque ait mobilisé autant d’attention. Les aînés plus fragiles ayant besoin de soutien pour vivre dans la communauté sont néanmoins demeurés le parent pauvre de la recherche, bien que, plus récemment, les autorités québécoises en aient fait une cible d’intervention prioritaire. Les études d’observation prospectives sont particulièrement indiquées pour étudier les facteurs de risque de chutes chez les personnes âgées. Leur identification optimale est cependant compliquée par le fait que l’exposition aux facteurs de risque peut varier au cours du suivi et qu’un même individu peut subir plus d’un événement. Il y a 20 ans, des chercheurs ont tenté de sensibiliser leurs homologues à cet égard, mais leurs efforts sont demeurés vains. On continue aujourd’hui à faire peu de cas de ces considérations, se concentrant sur la proportion des personnes ayant fait une chute ou sur le temps écoulé jusqu’à la première chute. On écarte du coup une quantité importante d’information pertinente. Dans cette thèse, nous examinons les méthodes en usage et nous proposons une extension du modèle de risques de Cox. Nous illustrons cette méthode par une étude des facteurs de risque susceptibles d’être associés à des chutes parmi un groupe de 959 personnes âgées ayant eu recours aux services publics de soutien à domicile. Nous comparons les résultats obtenus avec la méthode de Wei, Lin et Weissfeld à ceux obtenus avec d’autres méthodes, dont la régression logistique conventionnelle, la régression logistique groupée, la régression binomiale négative et la régression d’Andersen et Gill. L’investigation est caractérisée par des prises de mesures répétées des facteurs de risque au domicile des participants et par des relances téléphoniques mensuelles visant à documenter la survenue des chutes. Les facteurs d’exposition étudiés, qu’ils soient fixes ou variables dans le temps, comprennent les caractéristiques sociodémographiques, l’indice de masse corporelle, le risque nutritionnel, la consommation d’alcool, les dangers de l’environnement domiciliaire, la démarche et l’équilibre, et la consommation de médicaments. La quasi-totalité (99,6 %) des usagers présentaient au moins un facteur à haut risque. L’exposition à des risques multiples était répandue, avec une moyenne de 2,7 facteurs à haut risque distincts par participant. Les facteurs statistiquement associés au risque de chutes incluent le sexe masculin, les tranches d’âge inférieures, l’histoire de chutes antérieures, un bas score à l’échelle d’équilibre de Berg, un faible indice de masse corporelle, la consommation de médicaments de type benzodiazépine, le nombre de dangers présents au domicile et le fait de vivre dans une résidence privée pour personnes âgées. Nos résultats révèlent cependant que les méthodes courantes d’analyse des facteurs de risque de chutes – et, dans certains cas, de chutes nécessitant un recours médical – créent des biais appréciables. Les biais pour les mesures d’association considérées proviennent de la manière dont l’exposition et le résultat sont mesurés et définis de même que de la manière dont les méthodes statistiques d’analyse en tiennent compte. Une dernière partie, tout aussi innovante que distincte de par la nature des outils statistiques utilisés, complète l’ouvrage. Nous y identifions des profils d’aînés à risque de devenir des chuteurs récurrents, soit ceux chez qui au moins deux chutes sont survenues dans les six mois suivant leur évaluation initiale. Une analyse par arbre de régression et de classification couplée à une analyse de survie a révélé l’existence de cinq profils distinctifs, dont le risque relatif varie de 0,7 à 5,1. Vivre dans une résidence pour aînés, avoir des antécédents de chutes multiples ou des troubles de l’équilibre et consommer de l’alcool sont les principaux facteurs associés à une probabilité accrue de chuter précocement et de devenir un chuteur récurrent. Qu’il s’agisse d’activité de dépistage des facteurs de risque de chutes ou de la population ciblée, cette thèse s’inscrit dans une perspective de gain de connaissances sur un thème hautement d’actualité en santé publique. Nous encourageons les chercheurs intéressés par l’identification des facteurs de risque de chutes chez les personnes âgées à recourir à la méthode statistique de Wei, Lin et Weissfeld car elle tient compte des expositions variables dans le temps et des événements récurrents. Davantage de recherches seront par ailleurs nécessaires pour déterminer le choix du meilleur test de dépistage pour un facteur de risque donné chez cette clientèle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé Le but de cette thèse est de comprendre les représentations du risque chez les jeunes de la rue. Plus précisément, elle s’intéresse à appréhender les constructions du risque que font les jeunes de la rue eux-mêmes, d’autant plus que ces jeunes sont définis comme un groupe à risque. Si le risque est plus souvent défini de manière stricte comme le mal éventuel, dans cette étude, il est défini plus largement intégrant l’idée des opportunités et prises de risque. Ancrée dans une perspective double du constructionnisme social et de l’interactionnisme symbolique, cette recherche a exploré les savoirs des jeunes sur les risques qu’ils vivaient dans les contextes observés et la manière dont ils les appréhendaient. Pour y parvenir, cette recherche s’inscrit dans une approche ethnographique pour mieux comprendre le monde des jeunes de la rue, utilisant des méthodes d'observation participante et dévoilée et des entrevues informelles variées. Cette approche globale permet de saisir comment les jeunes définissent leur capacité à estimer, gérer, éviter ou prendre des risques. L’utilisation d’une perspective longitudinale (de un à deux ans) et les relations de confiance bâties avec ces jeunes, ont permis de suivre comment la construction identitaire des jeunes observés a influencé leurs perception du risque et leurs pratiques de débrouillardise. En outre, les liens établis ont permis de révéler les points de vue singuliers des jeunes mais aussi leurs savoirs expérientiels relatifs aux risques. Il s’agit dans cette étude de montrer à partir des théories générales qui définissent nos sociétés comme des sociétés du risque, comment des individus, identifiés comme appartenant à un groupe à risque, définissent et gèrent leurs risques à partir de leur propre expérience et point de vue afin de révéler la diversité et la complexité des expériences et savoirs des jeunes de la rue à l’endroit du risque. En effet, cette thèse montre qu’un ancrage dans une sociologie du risque permet de sortir de l’image de victime ou de déviance associée généralement aux jeunes de la rue mais qu’elle demeure marquée par la promotion de la sécurité légitimant intervention et régulation de la situation des jeunes de la rue tout en ignorant l’expérience même des jeunes. Les discours sur les risques associés à la rue sont alors inscrits dans une logique d’expertise. Cette étude vise à sortir de ces préconceptions des risques pris par les jeunes de la rue pour au contraire s’attarder à comprendre comment se définit le risque à partir du sens que les jeunes accordent et les expériences qu’ils en ont. Mots clés: jeunes itinérants, jeunes de la rue, le risque, à risque, victimisation, déviance, identité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ancrée dans le domaine de la didactique des mathématiques, notre thèse cible le « travail de l’erreur » effectué par trois enseignants dans leur première année de carrière. Libérés des contraintes associées au système de formation initiale, ces sujets assument pleinement leur nouveau rôle au sein de la classe ordinaire. Ils se chargent, entre autres, de l’enseignement de l’arithmétique et, plus précisément, de la division euclidienne. Parmi leurs responsabilités se trouvent le repérage et l’intervention sur les procédures erronées. Le « travail de l’erreur » constitue l’expression spécifique désignant cette double tâche (Portugais 1995). À partir d’un dispositif de recherche combinant les méthodes d’observation et d’entrevue, nous documentons des séances d’enseignement afin de dégager les situations où nos maîtres du primaire identifient des erreurs dans les procédures algorithmiques des élèves et déploient, subséquemment, des stratégies d’intervention. Nous montrons comment ces deux activités sont coordonnées en décrivant les choix, décisions et actions mises en œuvre par nos sujets. Il nous est alors possible d’exposer l’organisation de la conduite de ces jeunes enseignants en fonction du traitement effectif de l’erreur arithmétique. En prenant appui sur la théorie de champs conceptuels (Vergnaud 1991), nous révélons l’implicite des connaissances mobilisées par nos sujets et mettons en relief les mécanismes cognitifs qui sous-tendent cette activité professionnelle. Nous pouvons ainsi témoigner, du moins en partie, du travail de conceptualisation réalisé in situ. Ce travail analytique permet de proposer l’existence d’un schème du travail de l’erreur chez ces maîtres débutants, mais aussi de spécifier sa nature et son fonctionnement. En explorant le versant cognitif de l’activité enseignante, notre thèse aborde une nouvelle perspective associée au thème du repérage et de l’intervention sur l’erreur de calcul de divisions en colonne.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Affiche de projet terminal, baccalauréat en Urbanisme. Institut d'urbanisme, Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Problématique : La pénurie d’organes qui sévit actuellement en transplantation rénale incite les chercheurs et les équipes de transplantation à trouver de nouveaux moyens afin d’en améliorer l’efficacité. Le Groupe de recherche transdisciplinaire sur les prédicteurs du risque immunologique du FRSQ travaille actuellement à mettre en place de nouveaux outils facilitant la quantification du risque immunologique global (RIG) de rejet de chaque receveur en attente d’une transplantation rénale. Le calcul du RIG s’effectuerait en fonction de facteurs scientifiques et quantifiables, soit le biologique, l’immunologique, le clinique et le psychosocial. La détermination précise du RIG pourrait faciliter la personnalisation du traitement immunosuppresseur, mais risquerait aussi d’entraîner des changements à l’actuelle méthode de sélection des patients en vue d’une transplantation. Cette sélection se baserait alors sur des critères quantifiables et scientifiques. L’utilisation de cette méthode de sélection possède plusieurs avantages, dont celui d’améliorer l’efficacité de la transplantation et de personnaliser la thérapie immunosuppressive. Malgré tout, cette approche soulève plusieurs questionnements éthiques à explorer chez les différents intervenants œuvrant en transplantation rénale quant à sa bonne utilisation. Buts de l’étude : Cette recherche vise à étudier les perceptions de néphrologues transplanteurs et référents de la province de Québec face à l’utilisation d’une méthode de sélection des patients basée sur des critères scientifiques et quantifiables issus de la médecine personnalisée. Les résultats pourront contribuer à déterminer la bonne utilisation de cette méthode et à étudier le lien de plus en plus fort entre science et médecine. Méthodes : Des entretiens semi-dirigés combinant l’emploi de courtes vignettes cliniques ont été effectués auprès de 22 néphrologues québécois (transplanteurs et référents) entre juin 2007 à juillet 2008. Le contenu des entretiens fut analysé qualitativement selon la méthode d’analyse de Miles et Huberman. Résultats : Les résultats démontrent une acceptation généralisée de cette approche. La connaissance du RIG pour chaque patient peut améliorer le traitement et la prise en charge post-greffe. Son efficacité serait supérieure à la méthode actuelle. Par contre, la possible exclusion de patients pose un important problème éthique. Cette nouvelle approche doit toutefois être validée scientifiquement et accorder une place au jugement clinique. Conclusions : La médecine personnalisée en transplantation devrait viser le meilleur intérêt du patient. Malgré l’utilisation de données scientifiques et quantifiables dans le calcul du RIG, le jugement clinique doit demeurer en place afin d’aider le médecin à prendre une décision fondée sur les données médicales, son expertise et sa connaissance du patient. Une réflexion éthique approfondie s’avère nécessaire quant à l’exclusion possible de patients et à la résolution de la tension entre l’équité et l’efficacité en transplantation rénale.