540 resultados para Résidence de longue durée
Resumo:
L’objectif de la présente thèse était de caractériser le sommeil d’un groupe clinique d’enfants et d’adolescents ayant un trouble d’anxiété comme diagnostic primaire et le comparer à un groupe témoin. Dans un premier temps, nous avons vérifié si le profil de la fréquence cardiaque nocturne des enfants et des adolescents pouvait être regroupé selon le diagnostic. Pour ce faire, la fréquence cardiaque nocturne de 67 adolescents anxieux et 19 sujets non anxieux a été enregistrée à l’aide d’un équipement ambulatoire. Les résultats de cette étude montrent que le profil de la fréquence cardiaque nocturne chez les enfants anxieux varie selon le diagnostic. Alors que les adolescents non anxieux montrent un profil de la fréquence cardiaque nocturne plat, on retrouve les associations suivantes chez les adolescents ayant un trouble anxieux : a) un profil croissant de la fréquence cardiaque chez les adolescents ayant un trouble d’anxiété de séparation; b) un profil décroissant de la fréquence cardiaque chez les adolescents ayant un trouble d’anxiété généralisé; c) un profil en forme de U chez les adolescents ayant un trouble d’anxiété sociale. De plus, une association significative a été observée entre le diagnostic et la présence de fatigue matinale. L’association d’un profil de la fréquence cardiaque nocturne avec un diagnostic d’anxiété suggère la présence d’une dysrégulation de la modulation chronobiologique du système nerveux autonome. Étant donné que le profil de la fréquence cardiaque nocturne s’exprime différemment selon le diagnostic, qu’en est-il de l’architecture du sommeil? Dans un deuxième temps, nous avons enregistré le sommeil en laboratoire d’un groupe clinique de 19 jeunes ayant un trouble d’anxiété comme diagnostic primaire, avec comorbidités et médication et comparé à 19 jeunes non anxieux. Les résultats de cette étude ont montré que les participants du groupe anxieux ont une latence au sommeil plus longue, une latence au sommeil paradoxal plus longue et une durée d’éveil plus longue lorsque comparé au groupe témoin. L’évaluation subjective de la qualité du sommeil chez le groupe d’adolescents anxieux montre que leur auto-évaluation reflète les valeurs enregistrées en laboratoire. Nous avons également observé chez le groupe anxieux une fréquence cardiaque moyenne plus élevée et un index plus élevé d’apnée-hypopnée, bien que non pathologique. Nous avons également observé une association positive entre l’anxiété de trait et l’indice d’apnée-hypopnée et la latence au sommeil, ainsi qu’une association positive entre l’anxiété manifeste et la latence au sommeil paradoxal. Ces résultats suggèrent que le sommeil chez cette population est altéré, que des signes d’hypervigilance physiologique sont présents et qu'une association existe entre ces deux paramètres. Finalement, dans la troisième étude de cette thèse, nous avons analysé l’activité cardiaque pendant le sommeil en utilisant les paramètres temporels et fréquentiels de la variabilité cardiaque chez un groupe clinique de dix-sept enfants et adolescents ayant un trouble d’anxiété comme diagnostic primaire avec comorbidité et médication, et comparé à un groupe non anxieux. Les résultats ont montré que les participants du groupe anxieux, lorsque comparés au groupe non anxieux, présentent des intervalles interbattements plus courts, un indice temporel de la variabilité cardiaque représentant la branche parasympathique moindre, une activité des hautes fréquences normalisées moindre et un ratio basse fréquence sur haute fréquence augmenté. Plusieurs corrélations ont été observées entre les mesures cliniques de l’anxiété et les mesures de la variabilité cardiaque. Ces résultats viennent ajouter à la littérature actuelle un volet descriptif clinique à ce jour non documenté, soit l’impact de l’anxiété pathologique chez un groupe clinique d’enfants et d’adolescents sur le processus normal du sommeil et sur la régulation de la fréquence cardiaque. En résumé, les résultats de ces trois études ont permis de documenter chez un groupe clinique d’enfants et d’adolescents ayant de l’anxiété pathologique, la présence d’une altération circadienne du profil de la fréquence cardiaque, d’une architecture altérée du sommeil ainsi qu’une dysrégulation du système nerveux contrôlant l’activité cardiaque.
Resumo:
Bien que le changement dans le choix des substrats énergétiques des acides gras (AGs) vers les glucides soit considéré comme bénéfique pour le cœur insuffisant, il n’est pas clair à savoir pourquoi les patients atteints de désordres de la β-oxydation (β-OX) des AGs à chaîne longue (AGCLs) développent des troubles du rythme et des cardiomyopathies. De plus, le traitement actuel ne permet pas de prévenir l’apparition du phénotype clinique chez tous les patients, spécifiquement en condition de jeûne ou de stress. Ainsi, plusieurs modèles de souris déficientes pour des enzymes impliquées dans l’oxydation des acides gras ont été développés de manière à améliorer les connaissances de la maladie ainsi que les traitements offerts aux patients. À cet égard, cette étude vise à évaluer le phénotype métabolique et fonctionnel des cœurs de souris déficientes pour le récepteur activé de la prolifération des peroxysomes-α (PPARα), un facteur de transcription des gènes impliqués notamment dans la β-OX des AGs, et pour la déshydrogénase des acyl-CoA à très longue chaîne (very-long chain acyl-CoA dehydrogenase, VLCAD), le déficit de l’oxydation des AGCLs le plus commun chez l’humain. L’approche expérimentale utilisée comprend plusieurs techniques dont (i) la perfusion ex vivo de cœur de souris au travail combinée à l’utilisation de substrats marqués au carbone 13 (13C) et à l’analyse par chromatographie gazeuse-spectrométrie de masse (GCMS), (ii) l’analyse de l’expression génique par qPCR et (iii) l’analyse de l’activité électrique du cœur in vivo par télémétrie. De manière inattendue, les résultats de cette étude menée chez la souris ont permis de mettre en évidence que des déficits pour des protéines impliquées dans l’oxydation des AGCLs sont associés à des altérations du métabolisme (i) des glucides, (ii) des AGs polyinsaturés (AGPIs), et (iii) mitochondrial, incluant l’anaplérose, en plus d’être liés à des désordres de la fonction électrique du cœur, à savoir une prolongation du segment QTc. Pris dans leur ensemble, les résultats de cette thèse pourraient servir à l’élaboration de nouvelles interventions métaboliques destinées à améliorer les traitements possibles et donc, la qualité de vie des patients atteints de désordres héréditaires de la β-OX des AGCLs.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Au cours des dernières décennies, l’important mouvement de déconcentration territoriale évoluant au sein de nombreuses métropoles à travers le monde a indéniablement su bouleverser leurs dynamiques territoriales, notamment en termes d’organisation spatiale des fonctions urbaines et de mobilité. Ce phénomène n’a pas manqué de susciter l’intérêt de nombreux auteurs, toutefois, face à la variété des facteurs d’influence et aux nombreuses spécificités locales, ces études se sont régulièrement révélées divergentes, voire contradictoires. Ainsi, de nombreuses incertitudes demeurent. La déconcentration des activités serait-elle en mesure de favoriser une meilleure adéquation des lieux de résidence et de travail au sein des territoires métropolitains? Quels en sont les conséquences sur les migrations alternantes? À l’heure où la mobilité constitue à la fois un facteur clé du développement des villes et un enjeu majeur quant aux ’émissions de GES et, alors que le mouvement de déconcentration demeure très actuel et poursuit sa progression, ce mémoire vise à enrichir le débat en proposant une étude basée sur l’analyse des plus récentes formes de distribution des activités métropolitaines en lien avec les caractéristiques de navettage, le tout dans une optique d’évaluation de la durabilité des déplacements. Le cas de Montréal, une métropole dont l’organisation spatiale a été considérée atypique en Amérique du nord, a été observé. L’analyse réalisée comprend trois grandes étapes. L’espace métropolitain montréalais a d’abord fait l’objet d’une caractérisation basée sur une typologie développée en France et basée sur divers critères reliés à la localisation emploi-résidence. Cette typologie a ensuite servi de base à une analyse des déplacements pendulaires, entre 2003 et 2008. Le portrait obtenu a finalement été opposé à celui résultant d’une analyse basée sur un découpage plus traditionnel « centre-banlieue-périphérie » de l’espace métropolitain. Les résultats suggèrent, à l’instar d’autres études, que la seule proximité des lieux d’emploi et de résidence ne suffit pas à favoriser des pratiques de navettage plus durables. D’un point de vue méthodologique, l’étude révèle également la pertinence des deux types d’approches proposés, de même que leur complémentarité.
Resumo:
L’exposition quotidienne aux polluants atmosphériques tels que le dioxyde de soufre, les particules fines (PM2.5) et l’ozone en milieu urbain sont associés à des effets néfastes sur la santé respiratoire des enfants. Des études épidémiologiques transversales rapportent des associations entre la pollution atmosphérique et des problèmes de santé respiratoires chez les enfants en milieu industriel telles que la prévalence de l’asthme et de l'hyperréactivité bronchique. Ces études épidémiologiques transversales ne permettent pas d’évaluer les effets sur la santé d’une exposition de courte durée. Peu d’études ont évalué les effets respiratoires des expositions aiguës chez les enfants à la pollution atmosphérique d’émissions industrielles. Dans ce mémoire, nous avons analysé l’association entre l’exposition journalière aux émissions d’une aluminerie et l’hospitalisation pour problèmes respiratoires (asthme, bronchiolite) chez les enfants de Shawinigan. Pour étudier ces effets des expositions aiguës, nous avons utilisé le devis épidémiologique de type « case-crossover » qui compare l’exposition lors des jours « cas » (jour d’hospitalisation) avec l’exposition lors des jours « contrôle » (exposition du même individu, les mêmes jours de la semaine, durant le même mois). Les variables d’exposition suivantes ont été calculées pour les enfants vivants dans un rayon de 7.5 km de l’industrie et pour ceux habitant à moins de 2.5 km de la station de mesure de polluants près de l’industrie : i) le nombre d’heures par jour durant lesquelles la résidence de chaque enfant recevait le panache de fumée de l’industrie. ii) les concentrations journalières de PM2.5 et de SO2 (moyenne et maximales) de la station de mesure des polluants localisée près de l’industrie. Des régressions logistiques conditionnelles ont été utilisées pour estimer les rapports de cotes (OR) et leurs intervalles de confiance à 95% (IC95%). Au total, 429 hospitalisations d’enfants pour asthme et bronchiolite ont été recensées pendant la période d’étude allant de 1999 à 2008. Le risque d’hospitalisations pour asthme et bronchiolite a augmenté avec l’augmentation du nombre d’heures d’exposition aux fumées de l’industrie, chez les enfants de moins de 5 ans. Pour les enfants de 2-4 ans, cette association était : OR : 1.27, pour un interquartile de 4.8 heures/jour; intervalle de confiance à 95%: 1.03-1.56. Des tendances moins prononcées sont notées avec les niveaux de SO2 et de PM2.5. Cette étude suggère que l’exposition journalière aux émissions industrielles identifiées par l’exposition horaire des vents venant de l’usine pourrait être associée à une exacerbation des problèmes respiratoires chez les jeunes enfants. De plus, l’effet plus prononcé avec la variable d’exposition basée sur les vents suggère un effet découlant des polluants autres que ceux mesurés (SO2 et PM2.5), possiblement comme les hydrocarbures aromatiques polycycliques (HAP).
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Problématique : En dépit de nombreuses initiatives et interventions au cours des dernières années, l’intérêt des étudiants en médecine pour la médecine de famille (MF) demeure inférieur aux attentes des planificateurs de services de santé. Objectifs : Préciser les facteurs qui influencent les leaders étudiants en médecine dans leur choix de programme de résidence en s’intéressant plus spécifiquement aux groupes d’intérêt en médecine de famille (GIMF) et aux moyens d’accroître leur efficacité. Stratégie et devis : Approche synthétique par étude de cas multiples à un seul niveau d’analyse. Recherche descriptive à finalité instrumentale en recherche-action. Participants : Leaders étudiants de trois facultés de médecine du Québec (n=21), sélectionnés par choix raisonné à l’aide d’un sociogramme. Méthode : Groupes de discussion et questionnaire autoadministré. Analyse qualitative assistée par le logiciel N-Vivo. Résultats : Différents facteurs, dont l’existence des GIMF, influencent le choix de carrière des étudiants en médecine. Pour augmenter la capacité des GIMF d’intéresser les étudiants à la MF, on pourrait notamment s’appuyer sur les groupes d’intérêt d’autres spécialités et développer une approche de marketing social auprès des indécis, insistant sur leurs motivations d’ordre émotionnel. Conclusion : Les GIMF peuvent contribuer à la promotion et à la valorisation de la MF chez les étudiants en médecine du Québec. En s’intéressant aux leaders étudiants en médecine et leur influence naturelle sur leurs pairs, il est possible d’accroître l’efficacité des GIMF.
Resumo:
Introduction: La réinstitution de l’alimentation entérale en deçà de 24h après une chirurgie digestive semble a priori conférer une diminution du risque d’infections de plaie, de pneumonies et de la durée de séjour. Le but de cette étude est de vérifier l’effet de la reprise précoce de l’alimentation entérale sur la durée de séjour hospitalier suite à une chirurgie colique. Méthodes: Il s’agit d’une étude prospective randomisée dans laquelle 95 patients ont été divisés aléatoirement en deux groupes. Dans le groupe contrôle, la diète est réintroduite lorsque le patient passe des gaz ou des selles per rectum, et qu’en plus il n’est ni nauséeux ni ballonné. Les patients du groupe expérimental reçoivent pour leur part une diète liquide dans les 12 heures suivant la chirurgie, puis une diète normale aux repas subséquents. L’objectif primaire de cette étude est de déterminer si la réinstitution précoce de l'alimentation entérale post chirurgie colique diminue la durée de séjour hospitalier lorsque comparée au régime traditionnel de réintroduction de l’alimentation. Les objectifs secondaires sont de quantifier l’effet de la réintroduction précoce de la diète sur les morbidités periopératoires et sur la reprise du transit digestif. Résultats: La durée de séjour hospitalier a semblé être légèrement diminuée dans le groupe expérimental (8,78±3,85 versus 9,41±5,22), mais cette difference n’était pas statistiquement significative. Des nausées ou des vomissements furent rapportés chez 24 (51%) patients du bras experimental et chez 30 (62.5%) patients du groupe contrôle. Un tube nasogastrique a du être installé chez un seul patient du groupe experimental. La morbidité périopératoire fut faible dans les deux groupes. Conclusion: Il semble sécuritaire de nourrir précocément les patients suite à une chirurgie colique. Cependant cette étude n’a pu démontrer un impact significatif de la reintroduction précoce de l alimentation per os sur la durée de séjour hospitalier.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Cette thèse porte sur les dynamiques interculturelles et la réactivité des institutions dans les contextes pluralistes. Le contexte clinique, un exemple parmi tant d’autres, sert à saisir les enjeux des rencontres entre personnes d’origines différentes. Le milieu de la réadaptation physique apparaît particulièrement intéressant pour étudier les enjeux induits par les rencontres interculturelles, car les interventions y sont d’une durée relativement longue en comparaison avec les soins aigus, et ce type de pratique demande une grande collaboration de la part des clients. Cette recherche sollicite trois acteurs essentiels dans ce contexte : clients immigrants, intervenants et agents tiers payeurs (CSST) ont pris la parole lors de groupes de rencontre (focus group). La recherche d’un cadre théorique pertinent en anthropologie interculturelle revisite les courants moderniste et postmoderniste, à partir d’une approche critique, et propose une épistémologie interactionniste. Ces courants qui traversent l’anthropologie sont étudiés à la lumière de la clinique, ce qui engendre un dialogue entre les intervenants et les anthropologues. Le contexte ethnographique permet de cerner différents enjeux concernant les politiques de santé dans les contextes pluriethniques, ce qui permet de saisir, à partir de la gestion, des rapports d’emboitement entre le macro et le micro. Le fonctionnement de la réadaptation physique au Québec sert de toile de fond pour comprendre les discours des acteurs sollicités par cette recherche. L’ethnographie met en lumière les convergences et les divergences entre ces trois acteurs dans les contextes pluriethniques. Selon une méthode caractéristique des relations interculturelles, je présente d’abord l’intervention dans les institutions de réadaptation. Les clients immigrants sont mis en scène avec l’intervention dans les contextes pluriethniques. Les discours de tous ces acteurs mettent en lumière des barrières dites objectives et des facteurs liés à la culture. L’analyse s’intéresse à la communication et à la circulation de l’information dans les contextes pluriethniques; elle étudie les rapports entre l’information, la connaissance et les préjugés. L’analyse offre quelques pistes qui aident à comprendre l’imperméabilité du système de santé dans les contextes pluralistes. La conclusion propose une approche complémentariste pour établir un dialogue entre les modèles de discrimination et l’interculturel. Les anthropologues sont alors interpellés en vue de répondre aux nouveaux défis générés par le néolibéralisme.