981 resultados para Facteurs de prédiction
Resumo:
Face aux pressions continues que subissent les systèmes de santé, de nombreuses réformes sont perpétuellement en cours pour améliorer le processus de soins et par conséquent, offrir des soins de qualité et accroître le niveau de santé des populations. Les réformes que connaissent actuellement les systèmes de santé visent à optimiser l’impact des services sur la santé de la population en introduisant le concept de la responsabilité populationnelle. Par ailleurs, il existe de plus en plus un consensus sur la nécessité d’établir une relation directe et durable entre les prestataires et la population des territoires desservies pour être en mesure de tenir compte des contextes personnels et sociaux des patients et de leurs familles et pour assurer la continuité des soins dans le temps et d’un service à l’autre. Cette thèse porte sur la Programmation régionale de services ambulatoires (PRSA) de Laval. Elle analyse cette programmation comme une solution innovatrice dans la mise en œuvre de la responsabilisation populationnelle des soins. La stratégie de recherche combine à la fois une revue intégrative de la littérature qui vise à analyser le bien-fondé de la PRSA; une étude quasi-expérimentale pour examiner ses effets; et enfin, une recherche synthétique de cas pour comprendre l’évolution de la PRSA et analyser l’institutionnalisation du changement dans les organisations de la santé. Dans le premier article, nous nous sommes employés à analyser le bien fondé c’est-à-dire la plausibilité des mécanismes causaux présumés. La PRSA est un modèle d’intégration régionale basée sur une approche populationnelle. La stratégie de réseaux intégrés de soins et de case management combinée avec une approche populationnelle telle que mise de l’avant par le PRSA sont trois éléments essentiels en faveur d’une responsabilité populationnelle des soins. À l’aide d’une revue intégrative de la littérature, nous avons démontré qu’il s’agit d’une programmation capable de consolider une intégration régionale en mettant de l’avant une approche populationnelle permettant de bien cibler les besoins des populations du territoire à desservir. Le deuxième article examine les effets populationnels de la PRSA en termes de réduction de la durée moyenne de séjour et de l’augmentation de la rétention régionale. Une approche quasi expérimentale a été utilisée. En ce qui concerne la durée moyenne de séjour, on n’observe aucune diminution pour l’asthme ni pour la démence. Par contre, il est plausible que l’implantation de la PRSA ait permis une diminution de la durée moyenne de séjour pour les maladies coronariennes, les MPOC, l’embolie pulmonaire et le cancer du sein. Pour la rétention régionale, aucun effet n’a été observé pour les MPOC, l’embolie pulmonaire et la démence. Une augmentation de la rétention régionale a été observée pour les maladies coronariennes, l’asthme et le cancer du sein. Cette augmentation pourrait être attribuée à la PRSA. Dans le troisième article, nous avons examiné les facteurs susceptibles d’expliquer l’évolution de la PRSA. En partant du point de vue des responsables de la programmation de la PRSA et les gestionnaires actuels de la programmation de services de la région de Laval, nous avons tenté de mieux cerner les facteurs qui ont provoqué la suspension du déploiement de la PRSA. Les résultats indiquent que les changements fréquents dans les structures dirigeantes du réseau de la santé ainsi que l’interférence de plusieurs autres réformes ont été un obstacle dans le maintien de la PRSA. Dans le contexte actuel des réformes en santé où l’approche de réseaux intégrés de soins et de responsabilité populationnelle sont mises de l’avant, les résultats de cette thèse apportent un éclairage certain sur l’opérationnalisation de ces orientations.
Resumo:
José Antonio de Alzate y Ramírez (1737-1799) est reconnu aujourd’hui, entre autres choses, comme un des premiers journalistes, scientifiques, critiques littéraires et patriotes mexicains. Ce mémoire présente, dans un premier temps, une introduction à la vie et l’œuvre du personnage et rend compte de la réception globale de celle-ci, de 1831 à nos jours. Nous y montrons que les différents journaux d’Alzate, ses Diario literario de México (1768), Asuntos Varios sobre Ciencia y Arte (1772-1773), Observaciones sobre la física (1787-1788), et Gaceta de literatura (1788-1795), ont été étudiés principalement dans le contexte historique de la création de la nation mexicaine et que les intentions patriotiques ou proto-nationales qui lui ont été prêtées méritent d’être nuancées. Effectivement, bien qu’il ait publié plusieurs textes susceptibles de contribuer à améliorer certains domaines de l’économie américaine, tels que les activités minières, l’agriculture et les arts manuels, l’auteur révèle à travers son discours un désir de participer, au moyen de ses journaux, au mouvement scientifique européen. En ce sens, nous défendons l’hypothèse qu’Alzate ait choisi de pratiquer un type de journalisme spécifique, inspiré notamment du Journal des Sçavans (1665) et du Journal de Physique (1771-1773), qui lui permettrait de s’adresser autant à ses compatriotes, qu’aux membres de la République des Lettres. Nous présentons une étude comparative des similarités qui existent entre les publications d’Alzate et les deux journaux français ci-haut mentionnés, notamment en ce qui concerne les buts énoncés par leurs éditeurs ainsi que les modalités discursives et les thèmes qui les caractérisent. Dans le même ordre d’idée, nous soutenons que les publications d’Alzate présentent plusieurs des éléments clés qui définissent les journaux savants produits en Europe durant le dix-huitième siècle selon les études réalisées par Jean-Pierre Vittu. Enfin, nous expliquons comment le modèle du «journal savant» a été adapté par Alzate aux particularités de la Nouvelle-Espagne. Nous abordons, entre autres, les questions de la censure, de la critique et du manque de ressources financières dont il a souffert, facteurs qui, selon nos études, ont façonné l’entreprise du personnage. D’autre part, nous analysons les attitudes scientifiques adoptées par Alzate en tant que membre de la République des Lettres. Nous examinons aussi les principales sources de savoir qu’il a préconisées en tant qu’auteur afin d’accomplir certains devoirs propres aux membres de cette communauté.
Resumo:
Les maladies cardiovasculaires (MCV) demeurent au tournant de ce siècle la principale cause de mortalité dans le monde. Parmi les facteurs de risque, l’hypercholestérolémie et l’obésité abdominale sont directement liées au développement précoce de l’athérosclérose. L’hypercholestérolémie familiale, communément associée à une déficience des récepteurs des lipoprotéines de basse densité (LDLR), est connue comme cause de maladie précoce d’athérosclérose et de calcification aortique chez l’humain. La subtilisine convertase proprotéine/kexine du type 9 (PCSK9), membre de la famille des proprotéines convertases, est trouvée indirectement associée aux MCV par son implication dans la dégradation du LDLR. Chez l'humain, des mutations du gène PCSK9 conduisent soit à une hypercholestérolémie familiale, soit à une hypocholestérolémie, selon que la mutation entraîne un gain ou une perte de fonction, respectivement. Il demeure incertain si les individus porteurs de mutations causant un gain de fonction de la PCSK9 développeront une calcification aortique ou si des mutations entraînant une perte de fonction provoqueront une obésité abdominale. Dans cette étude, nous avons examiné : 1) l’effet d’une surexpression de PCSK9 dans le foie de souris sur la calcification aortique ; 2) les conséquences d’une déficience en PCSK9 (Pcsk9 KO), mimant une inhibition pharmacologique, sur le tissu graisseux. Nous avons utilisé un modèle de souris transgénique (Tg) surexprimant le cDNA de PCSK9 de souris dans les hépatocytes de souris et démontrons par tomographie calculée qu’une calcification survient de façon moins étendue chez les souris PCSK9 Tg que chez les souris déficientes en LDLR. Alors que le PCSK9 Tg et la déficience en LDLR causaient tous deux une hypercholestérolémie familiale, les niveaux seuls de cholestérol circulant ne parvenaient pas à prédire le degré de calcification aortique. Dans une seconde étude, nous utilisions des souris génétiquement manipulées dépourvues de PSCK9 et démontrons que l’accumulation de graisses viscérales (adipogenèse) apparaît régulée par la PCSK9 circulante. Ainsi, en l’absence de PCSK9, l’adipogenèse viscérale augmente vraisemblablement par régulation post-traductionnelle des récepteurs à lipoprotéines de très basse densité (VLDLR) dans le tissu adipeux. Ces deux modèles mettent en évidence un équilibre dynamique de la PCSK9 dans des voies métaboliques différentes, réalisant un élément clé dans la santé cardiovasculaire. Par conséquent, les essais d’investigations et d’altérations biologiques de la PCSK9 devraient être pris en compte dans un modèle animal valide utilisant une méthode sensible et en portant une attention prudente aux effets secondaires de toute intervention.
Resumo:
L’histoire identitaire du Québec a constamment été marquée par des enjeux d’ordre «linguistique». En effet, de par l’isolement de cette province majoritairement francophone, entourée de provinces et d’un pays anglophones, nous avons été témoins de plusieurs débats passionnés sur l’avenir du français au Québec. Mais qu’en est-il réellement de la situation linguistique et plus particulièrement de la fécondité au Québec? Avec le constat que le Québec, tout comme la plupart des pays occidentaux, n’assure plus le remplacement de ses générations par son accroissement naturel, l’immigration devient la seule alternative. Certains se sont alors interrogés sur la représentativité future des francophones au sein de leur province. Axée essentiellement sur la langue d’usage, nous avons effectué plusieurs analyses comparatives de l’indice synthétique de fécondité (ISF) selon les groupes linguistiques, mais également selon les régions. Trois facteurs importaient : déterminer les différences de fécondité entre les groupes linguistiques; déterminer les différences de fécondité entre l’ensemble du Québec, l’île de Montréal et le reste du Québec; et déterminer quel jeu d’hypothèses de construction de l’ISF se rapproche le plus de la réalité. C’est à l’aide de six combinaisons d’hypothèses que nous avons effectué l’analyse de la fécondité des groupes linguistiques, soit trois hypothèses de redistribution des naissances dont la langue d’usage de la mère est inconnue, et deux hypothèses de distribution des effectifs, soit la population féminine âgée de 15 à 49 ans. L’analyse annuelle de la fécondité des groupes linguistiques au Québec nous a permis d’observer des variations pour le moins importantes au cours des deux dernières décennies, ce que des analyses de la fécondité limitées aux années censitaires seulement ont en quelque sorte atténué. Bien que les allophones aient des ISF plus «instables» que les deux autres groupes linguistiques, à cause de leurs faibles effectifs, il appert que leur ISF est en-deçà du seuil de remplacement depuis 1996, pour progressivement se rapprocher de celui des deux autres groupes linguistiques.
Resumo:
Cette étude de cas, composée de trois articles, examine les diverses sources d’explication de l’écart salarial selon le genre chez les professeurs d’une grande université de recherche canadienne. Le premier article analyse les écarts selon le genre sur les primes “de marché” à partir de données d’un sondage réalisé auprès des professeurs en 2002. Une analyse des correspondances donne une solution à deux facteurs dans laquelle le second facteur oppose clairement les professeurs qui ont reçu une prime à ceux qui n’en n’ont pas reçue. Le genre est fortement associé à ce facteur, la catégorie “femme” se retrouvant du côté de l’axe associé à l’absence de primes de marché. Les résultats de la régression logistique confirment que le secteur d’activité, la fréquence des contrats de recherche, la valorisation du salaire ainsi que le rang combiné à l’ancienneté sont reliés à la présence de primes de marché, tel que proposé par les hypothèses. Toutefois, même après avoir contrôlé pour ces relations, les femmes sont toujours près de trois fois moins susceptibles de s’être vu attribuer des primes de marché que leurs homologues masculins. Dans l’ensemble, les résultats suggèrent que dans un contexte où les salaires sont déterminés par convention collective, la réindividualisation du processus de détermination des salaires — en particulier le versement de primes de marché aux professeurs d’université — peut favoriser la réapparition d’écarts de salaire selon le genre. Le second article est réalisé à partir de données administratives portant sur les années 1997 à 2006. Les contributions respectives de quatre composantes de la rémunération à l’écart salarial selon le genre y sont analysées, soit le salaire de base, l’accès au rang de professeur titulaire, l’accès aux primes de marché et chaires de recherche du Canada, de même que les montants reçus. Les composantes varient quant à leur degré de formalisation. Ceci permet de tester l’hypothèse selon laquelle l’ampleur de l’écart salarial selon le genre varie en fonction du degré de formalisation des composantes salariales. Nous déterminons également dans quelle mesure l’écart selon le genre sur les diverses composantes de la rémunération varie en fonction de la représentation relative des femmes professeurs au sein des unités. Les résultats démontrent l’existence de variations dans l’ampleur des différences selon le genre en fonction du degré de formalisation des pratiques de rémunération. Qui plus est, après contrôles, la rémunération est plus faible dans les unités où les femmes sont fortement représentées. Le dernier article examine les mécanismes pouvant mener à un écart selon le genre en ce qui a trait à l’accès aux primes de marché chez les professeurs de l’institution. Les processus d’attribution de ces suppléments salariaux sont examinés à partir d’entretiens réalisés avec 17 administrateurs à tous les niveaux hiérarchiques de l’institution et dans une diversité d’unités académiques. Les résultats suggèrent que les différences selon le genre pourraient être liées à des caractéristiques spécifiques du processus d’attribution et à une distribution inégale des primes aux unités à forte représentation féminine. De façon générale, les résultats démontrent que l’écart de rémunération selon le genre chez les professeurs de cette université n’est pas totalement expliqué par des différences dans les caractéristiques individuelles des hommes et femmes. L’analyse révèle que l’écart réside dans des différences selon le genre en ce qui a trait à l’accès aux primes de marché et aux chaires de recherches du Canada et, dans une moindre mesure, au rang de professeur titulaire. Aucune différence n’est observée sur le salaire de base et le montant des primes salariales reçues, que celles-ci soient dites de “marché” ou associées à une chaire de recherche du Canada. Qui plus est, on constate que la rémunération est plus faible dans les unités où les femmes sont le mieux représentées. L’accès différencié selon le genre aux primes de marché qui est observé pourrait être lié à certains processus organisationnels qui limitent les probabilités d’octrois à des femmes. Les femmes pourraient être particulièrement désavantagées dans ce système d’octroi, pour plusieurs raisons. L’existence de différences selon le genre en ce qui a trait aux dispositions ou habiletés des individus à négocier leur salaire est évoquée et supposée par certains administrateurs. Un accès limité aux informations concernant la politique de primes pourrait réduire la probabilité que des femmes tentent d’obtenir ces suppléments salariaux. Les directeurs d’unités, qui sont en majorité des hommes, pourraient être biaisées en faveur des professeurs masculins dans leurs évaluations s’ils tendent à favoriser ceux qui leurs ressemblent. Il est également possible que les directeurs d’unités où les femmes sont les mieux représentées n’aient pas reçu d’information sur les primes de marché ou que des traditions disciplinaires les aient rendu réticents à demander des primes.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
L’immunosuppression a permis d’améliorer l’incidence du rejet aigu sans toutefois améliorer significativement le rejet chronique. Celui-ci est caractérisé par une vasculopathie du greffon (VG) similaire à une forme accélérée d’athérosclérose native accompagnée de fibrose. La pathophysiologie de la VG découle de l’hypothèse de réponse à l’insulte proposée par Russell Ross en 1977. Selon son postulat, l’endothélium stressé par des facteurs immunologiques et non immunologiques initie l’apoptose endothéliale suivi d’une réponse de réparation vasculaire via un épaississement myo-intimal aux sites d’insultes. Toutefois, lorsque les stress endothéliaux initiaux demeurent soutenus, l’apoptose endothéliale et la réponse de réparation perpétuent. Compte tenu que l’inhibition de l’apoptose endothéliale bloque le développement de la VG in vivo, notre hypothèse de travail reposait sur les répercussions paracrines de l’apoptose endothéliale sur les types cellulaires participant au remodelage vasculaire. Nous avons généré un système expérimental in vitro afin d’induire l’apoptose endothéliale en absence significative de nécrose cellulaire. À l’aide d’une approche protéomique multidimensionnelle et comparative, nous avons démontré que les cellules endothéliales apoptotiques exportent spécifiquement 27 signaux post mortem (SPM). Nous avons démontré que certains de ces SPM ont des propriétés anti-apoptotiques (TCTP et EGF), d’autre fibrogénique (CTGF), récapitulant ainsi certains phénotypes cellulaires associés au développement de la VG. Parmi les médiateurs identifiés, 16 n’avaient pas de signal de sécrétion, incluant TCTP, suggérant que des mécanismes de sécrétion non conventionnels soient favorisés durant l’apoptose. Nous avons démontré que la caspase-3 effectrice régule la voie de sécrétion non classique exosomiale associée à l’export extracellulaire de nanovésicules TCTP+VE, anti-apoptotiques et biochimiquement distinctes des corps apoptotiques. Finalement, l’ensemble des données protéomiques ont permis d’émettre l’hypothèse qu’en réponse à un stress apoptotique, la cellule exporte différents médiateurs (solubles et vésiculaires) de manière non conventionnelle nécessitant la fusion d’organelles de la voie endocytaire et autophagique avec la membrane plasmique. Ce mécanisme serait régulé durant la phase effectrice de l’apoptose permettant ainsi d’initier une réponse de réparation extracellulaire seulement lorsque le destin cellulaire a atteint un point de non retour. Ainsi, le testament protéique et nanovésiculaire légué durant l’apoptose endothéliale pourrait servir simultanément de biomarqueur de la VG et de cible thérapeutique afin de diminuer le remodelage vasculaire pathologique.
Resumo:
Bien que les infections à Besnoitia tarandi sont documentées chez l’espèce Rangifer sp. depuis 1922, les données récoltées sur l’écologie et la distribution de cette parasitose demeurent rares. Les objectifs de cette étude ont donc été (i) d’identifier le meilleur tissu à échantillonner pour détecter les infections à Besnoitia tarandi dans les populations de caribous, (ii) de calculer la sensibilité et la spécificité de l’examen visuel comparativement à l’examen microscopique et (iii) d’identifier les facteurs de risques intrinsèques et extrinsèques associés à cette parasitose afin (iv) de comparer la prévalence et la densité des kystes parasitaires entre certains troupeaux. Nos résultats suggèrent que l'examen microscopique du derme superficiel d’une section de peau provenant du tiers moyen antérieur du métatarse devrait être privilégié pour dépister les infections par B. tarandi et en évaluer l'intensité. L’examen microscopique est également un outil très sensible comparativement à l’examen visuel des kystes parasitaires. Besnoitia tarandi, qui semble être absent du Groenland, a été observé dans environ un tiers des caribous nord-américains. Une variation saisonnière de prévalence et d'intensité de B. tarandi a été détectée; le parasite étant plus abondant chez cet hôte intermédiaire durant la période de l'automne/hiver comparativement à celle du printemps/été. Cet effet saisonnier pourrait être associé à une augmentation de l'abondance du parasite suite à la saison des insectes (i.e. été), supportant ainsi le rôle présumé des arthropodes piqueurs comme vecteurs de la maladie. Cette différence saisonnière pourrait aussi être expliquée par la diminution de la charge parasitaire par le système immunitaire et/ou par un taux de survie inférieur des animaux les plus parasités durant la saison froide. Les niveaux d'infection étaient légèrement plus élevés chez les mâles que chez les femelles, ce qui suggère soit une diminution du taux de mortalité, soit une exposition accrue ou une plus grande susceptibilité au parasite des mâles en comparaison aux femelles. La densité d’infection supérieure dans le troupeau Rivière-aux-Feuilles (Nunavik) suggère des niveaux d'exposition au parasite plus élevés et/ou une diminution des niveaux de résistance de ces caribous à ce protozoaire. Les résultats de cette étude démontrent que B. tarandi peut réduire les chances de survie des caribous infectés. Il sera donc important de continuer à surveiller les infections à B. tarandi surtout en cette période de changements climatiques.
Resumo:
Le développement du système nerveux central (SNC) chez les vertébrés est un processus d'une extrême complexité qui nécessite une orchestration moléculaire très précise. Certains gènes exprimés très tôt lors du développement embryonnaire sont d'une importance capitale pour la formation du SNC. Parmi ces gènes, on retrouve le facteur de transcription à Lim homéodomaine Lhx2. Les embryons de souris mutants pour Lhx2 (Lhx2-/-) souffre d'une hypoplasie du cortex cérébral, sont anophtalmiques et ont un foie de volume réduit. Ces embryons mutants meurent in utero au jour embryonnaire 16 (e16) dû à une déficience en érythrocytes matures. L'objectif principal de cette thèse est de caractériser le rôle moléculaire de Lhx2 dans le développement des yeux et du cortex cérébral. Lhx2 fait partie des facteurs de transcription à homéodomaine exprimé dans la portion antérieure de la plaque neurale avec Rx, Pax6, Six3. Le développement de l'oeil débute par une évagination bilatérale de cette région. Nous démontrons que l'expression de Lhx2 est cruciale pour les premières étapes de la formation de l'oeil. En effet, en absence de Lhx2, l'expression de Rx, Six3 et Pax6 est retardée dans la plaque neurale antérieure. Au stade de la formation de la vésicule optique, l'absence de Lhx2 empêche l'activation de Six6 (un facteur de transcription également essentiel au développement de l'œil). Nous démontrons que Lhx2 et Pax6 coopèrent en s'associant au promoteur de Six6 afin de promouvoir sa trans-activation. Donc, Lhx2 est un gène essentiel pour la détermination de l'identité rétinienne au niveau de la plaque neurale. Plus tard, il collabore avec Pax6 pour établir l'identité rétinienne définitive et promouvoir la prolifération cellulaire. De plus, Lhx2 est fortement exprimé dans le télencéphale, région qui donnera naissance au cortex cérébral. L'absence de Lhx2 entraîne une diminution de la prolifération des cellules progénitrices neurales dans cette région à e12.5. Nous démontrons qu'en absence de Lhx2, les cellules progénitrices neurales (cellules de glie radiale) se différencient prématurément en cellules progénitrices intermédiaires et en neurones post-mitotiques. Ces phénotypes sont corrélés à une baisse d'activité de la voie Notch. En absence de Lhx2, DNER (un ligand atypique de la voie Notch) est fortement surexprimé dans le télencéphale. De plus, Lhx2 et des co-répresseurs s'associent à la chromatine de la région promotrice de DNER. Nous concluons que Lhx2 permet l'activation de la voie Notch dans le cortex cérébral en développement en inhibant la transcription de DNER, qui est un inhibiteur de la voie Notch dans ce contexte particulier. Lhx2 permet ainsi la maintenance et la prolifération des cellules progénitrices neurales.
Resumo:
Introduction: Les troubles respiratoires du sommeil (TRS), qui représentent une préoccupation croissante pour la santé, ont des effets significatifs sur la santé, le comportement et la performance académique chez l’enfant. Les malformations craniofaciales, l’hypertrophie adéno-amygdalienne et l'obésité, représentent des facteurs de risque importants dans le développement de cette condition. Les symptômes des TRS ont été étudiés dans une étude prospective chez les enfants et adolescents durant leur traitement orthodontique dans un milieu universitaire. Cette étude a cherché à décrire la prévalence et les facteurs de risque principaux des TRS, ainsi que l'impact des différentes interventions orthodontiques sur les symptômes TRS. Matériel et méthodes: dans une étude cohorte prospective, un groupe de 168 sujets âgés de 12 à 21 ans ont été soumis, quatre ans après la prise de données initiale, à un examen craniofacial en plus d'être administré des questionnaires qui ont recueilli des données sur la situation socio-démographique, le bruxisme et les troubles d’ATM, le sommeil et le comportement diurne, et les facteurs neuropsychologiques. Résultats: l'indice de masse corporelle a été augmenté mais est demeurée dans la même catégorie aux deux moments de l'enquête. Il ya eu une augmentation du serrement des dents et des symptômes de l'ATM, une diminution de la taille des amygdales, et une augmentation de la somnolence diurne. La prévalence des TRS n'a pas changé entre l’étude initiale et l’étude de suivi. Aucune intervention orthodontique s'est avérée avoir un effet cliniquement significatif sur les voies aériennes supérieures. Conclusions: la prévalence des symptômes TRS était constante par rapport aux valeurs de base pour la population étudiée, mais a augmenté si rapportée à la population générale. Les traitements orthodontiques ne montrent aucun effet sur les TRS. Mots-clés : apnée du sommeil, craniofacial, prévalence, ronflement, traitement orthodontique, voies aériennes supérieures
Resumo:
Ce mémoire est une analyse socio-juridique de la discrimination en milieu de travail et de son impact sur le devoir juridique de représentation syndicale, ou plus précisément, sur la responsabilité syndicale en contexte de diversité. Partant d’une première approche sociométrique du phénomène, suivie d’une deuxième davantage socio-juridique, le constat est à l’effet que la discrimination en milieu de travail a des répercussions jusque dans les milieux syndiqués,où les flux d’immigration semblent, à plusieurs égards, bousculer l’ordre établi. La revue de littérature permet de dégager deux grands axes de recherche : un premier concernant les forums : dans l’état actuel du droit, ce sont les Tribunaux des droits de la personne qui élaborent les normes applicables au devoir juridique de représentation syndicale dans les cas allégués de discrimination au travail, les Commissions des relations de travail s’adaptant mais lentement, sinon avec réticence, à la nouvelle donne ; le deuxième concernant spécifiquement la partie syndicale : cette dernière pondère l’effet des normes applicables en matière de discrimination au travail tant en fonction de ses propres intérêts stratégiques, que de l’attente des membres, que des préjugés et stéréotypes présents dans le milieu de travail. L’analyse globale porte sur 689 décisions en provenance de quatre Commissions des relations de travail — Québec, Fédéral, Ontario et Colombie-Britannique — et ainsi que des quatre Tribunaux des droits de la personne correspondants, sur une période de dix ans, allant du 1er janvier 2000 au 31 décembre 2009. Quant aux forums, la conclusion est à l’effet qu’au cours de la période étudiée, aucune institution n’a de préséance sur l’autre en ce qui a trait aux motifs illicites de discrimination. Les deux se complétent sans presque se chevaucher, et chacune à leur manière, contribuent fortement à faire progresser les droits de la personne. Par contre, les Commissions des relations de travail ont préséance quant au harcèlement, tandis que les Tribunaux des droits de la personne sont prépondérants face aux mesures d’accommodement. Quant à la partie syndicale, si elle a toujours agi, pour des raisons historiques, en fonction de ses intérêts stratégiques, de l’attente des membres, et des préjugés et stéréotypes présents sur les lieux de travail. Mais, ce qui change au fil du temps, c’est tout ce qui entoure le devoir juridique de représentation syndicale, c’est-à-dire tout le climat général d’application, ainsi que tout le contexte d’analyse et d’évaluation des situations. Quel est donc l’impact de la discrimination en milieu de travail sur le devoir juridique de représentation syndicale ? Dans la mesure où le contexte d’analyse et d’évaluation des situations est la lecture que font les agents, du climat général d’application, et des changements qu’ils y apportent en fonction de leurs propres intérêts stratégiques, du point de vue syndical, cet impact est triple : d’abord, devant chaque cas d’espèce, (1) l’acteur syndical doit désormais jongler avec beaucoup plus de facteurs qu’auparavant ; deuxièmement, (2) envers les salariés de l’unité de négociation, la marge de manoeuvre est beaucoup plus restreinte en contexte de lutte contre la discrimination ; enfin, et c’est le point le plus important, (3) l’économie générale des droits de la personne a pour effet d’introduire une hiérarchie dans les normes applicables, ce qui oblige l’acteur syndical à s’adapter, de façon constante, à un climat général d’application sans cesse changeant, auquel tous les agents contribuent, y compris lui-même.
Resumo:
La mesure du déjettement du tronc est un élément important pour évaluer la posture en ce qui a trait à la scoliose idiopathique. Cependant, il y a peu d'informations quant à sa mesure et les associations entre le déjettement du tronc et d'autres indicateurs ou facteurs pertinents. Les objectifs de cette étude sont : 1) d’évaluer la validité et la fiabilité de test-retest du fil à plomb pour mesurer le déjettement du tronc de C7 à S1 chez les personnes atteintes de scoliose idiopathique; et 2) d'étudier l'association entre le déjettement du tronc et les facteurs suivants : la douleur, l’angle de Cobb, le type de scoliose, la santé mentale et l’image de soi chez les personnes atteintes de scoliose idiopathique. Nous avons recruté 55 sujets âgés de 10 à 21 ans atteints de scoliose idiopathique (angle de Cobb : 15º à 60º) de la clinique de scoliose dans un hôpital pédiatrique de soins tertiaires. Le déjettement a été mesuré directement sur les sujets à deux reprises par la même physiothérapeute de même que sur les radiographies prises ce jour-là. Deux mesures ont été prises à chaque fois : une les pieds joints (FT) et l’autre en écartant les pieds (FA). Les sujets ont répondu au questionnaire adressé au patient de la Scoliosis Research Society-22, qui traite de la douleur, de l'image de soi et de la santé mentale. Le type de scoliose et l'angle de Cobb ont été mesurés sur les radiographies prises ce jour-là. Nous avons utilisé la théorie de la généralisabilité pour calculer la fidélité de test-retest pour les mesures FT et FA, en rapportant les coefficients de fiabilité (f) et les erreurs types de mesure (SEM). La validité de la mesure du fil à plomb a été calculée en comparant les mesures prises directement sur les radiographies en utilisant le coefficient de corrélation de Pearson. Les corrélations de Pearson ont été calculées entre le déjettement du tronc et la douleur, l'angle de Cobb, l'image de soi et la santé mentale. Les corrélations de Spearman ont été calculées entre le déjettement du tronc et le type de scoliose. Nous avons ensuite utilisé des modèles de régression linéaire multiple pour déterminer les associations entre ces variables. Nos résultats indiquent que les mesures de déjettement du tronc en utilisant un fil à plomb ont une forte corrélation (r = 0,87) avec la mesure obtenue par radiographie. La mesure du déjettement du tronc en utilisant un fil à plomb a démontré une excellente fidélité de test-retest (f: 0,98 pour la mesure FT et 0,99 pour la mesure FA) et les SEM étaient de 2,0 mm pour la mesure FT et 1,8 mm pour la mesure FA. Le déjettement du tronc est corrélé positivement avec l'angle de Cobb (r = 0,32, p = 0,02), mais il n'est pas corrélé à la douleur, la santé mentale, l'image de soi ou le type de scoliose. Les conclusions de notre étude ont montré que la mesure clinique du déjettement du tronc en utilisant un fil à plomb est une méthode fiable et valide et que le déjettement du tronc est associé à l'angle de Cobb. Une étude longitudinale est nécessaire pour déterminer si le déjettement du tronc est un indicateur pronostique de la progression de la scoliose. Mots-clés: la scoliose idiopathique, le déjettement du tronc, fil à plomb, posture, déplacement latéral du tronc
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Objectifs: Observer l’évolution de la stomatite prothétique dans le temps quant à la fréquence et la sévérité ainsi que son association avec de potentiels facteurs de risque au cours d’un suivi longitudinal de 2 ans. Matériels et méthodes : Cent trente-cinq patients âgés complètement édentés et en bonne santé ont été sélectionnés pour participer à cette étude et ont été divisés de façon randomisée en deux groupes. Ils ont tous reçu une prothèse dentaire amovible totale conventionnelle au maxillaire supérieur. La moitié d’entre eux a reçu une prothèse totale mandibulaire implanto-portée retenue par deux attachements boule et l’autre moitié une prothèse conventionnelle. Ils ont été suivis sur une période de deux ans. Les données sociodémographiques, d’habitudes de vie, d’hygiène et de satisfaction des prothèses ont été amassées à l’aide de questionnaires. Les patients ont aussi subi un examen oral complet lors duquel une évaluation de la stomatite prothétique, basée sur la classification de Newton, a été effectuée ainsi qu’un prélèvement de la plaque prothétique. Les analyses microbiologiques pertinentes afin de détecter la présence de Candida ont ensuite été effectuées. Des tests Chi-carré de Pearson et McNemar ont été utilisés pour analyser la fréquence de la stomatite, son association avec de possibles facteurs de risque ainsi que son évolution dans le temps. Des rapports de cotes (odds ratio) et leurs intervalles de confiance (95%) ont été effectués afin de déterminer la force d’association entre les facteurs de risque et la stomatite prothétique. Résultats : La prévalence de la stomatite a augmenté entre la première (63,6%) et la deuxième année de suivi (88,7%) avec une incidence de 78,8%. Les patients souffrant d’une stomatite de type 2 ou 3 et qui brossent leur palais ont environ 6 fois plus de chance de voir la sévérité de leur stomatite diminuer [p = 0,04 OR 5,88 CI (1,1-32,2)]. Il n’y a pas d’association statistiquement significative entre la fréquence de la stomatite et les facteurs de risque investigués. La prévalence de la candidose est demeurée stable dans le temps (45,8% et 49,2% à la première et deuxième année de suivi respectivement, p > 0,05). Il n’y a pas d’association entre la présence d’une candidose orale, la stomatite prothétique et les facteurs de risque étudiés. Conclusion : Les résultats de cette étude suggèrent que la stomatite prothétique progresse dans le temps indépendamment de la présence d’une candidose. Le brossage du palais pourrait être une approche simple à conseiller aux patients souffrant d’une stomatite prothétique de type 2 ou 3.
Resumo:
L’objectif principal de cette thèse était de quantifier et comparer l’effort requis pour reconnaître la parole dans le bruit chez les jeunes adultes et les personnes aînées ayant une audition normale et une acuité visuelle normale (avec ou sans lentille de correction de la vue). L’effort associé à la perception de la parole est lié aux ressources attentionnelles et cognitives requises pour comprendre la parole. La première étude (Expérience 1) avait pour but d’évaluer l’effort associé à la reconnaissance auditive de la parole (entendre un locuteur), tandis que la deuxième étude (Expérience 2) avait comme but d’évaluer l’effort associé à la reconnaissance auditivo-visuelle de la parole (entendre et voir le visage d’un locuteur). L’effort fut mesuré de deux façons différentes. D’abord par une approche comportementale faisant appel à un paradigme expérimental nommé double tâche. Il s’agissait d’une tâche de reconnaissance de mot jumelée à une tâche de reconnaissance de patrons vibro-tactiles. De plus, l’effort fut quantifié à l’aide d’un questionnaire demandant aux participants de coter l’effort associé aux tâches comportementales. Les deux mesures d’effort furent utilisées dans deux conditions expérimentales différentes : 1) niveau équivalent – c'est-à-dire lorsque le niveau du bruit masquant la parole était le même pour tous les participants et, 2) performance équivalente – c'est-à-dire lorsque le niveau du bruit fut ajusté afin que les performances à la tâche de reconnaissance de mots soient identiques pour les deux groupes de participant. Les niveaux de performance obtenus pour la tâche vibro-tactile ont révélé que les personnes aînées fournissent plus d’effort que les jeunes adultes pour les deux conditions expérimentales, et ce, quelle que soit la modalité perceptuelle dans laquelle les stimuli de la parole sont présentés (c.-à.-d., auditive seulement ou auditivo-visuelle). Globalement, le ‘coût’ associé aux performances de la tâche vibro-tactile était au plus élevé pour les personnes aînées lorsque la parole était présentée en modalité auditivo-visuelle. Alors que les indices visuels peuvent améliorer la reconnaissance auditivo-visuelle de la parole, nos résultats suggèrent qu’ils peuvent aussi créer une charge additionnelle sur les ressources utilisées pour traiter l’information. Cette charge additionnelle a des conséquences néfastes sur les performances aux tâches de reconnaissance de mots et de patrons vibro-tactiles lorsque celles-ci sont effectuées sous des conditions de double tâche. Conformément aux études antérieures, les coefficients de corrélations effectuées à partir des données de l’Expérience 1 et de l’Expérience 2 soutiennent la notion que les mesures comportementales de double tâche et les réponses aux questionnaires évaluent différentes dimensions de l’effort associé à la reconnaissance de la parole. Comme l’effort associé à la perception de la parole repose sur des facteurs auditifs et cognitifs, une troisième étude fut complétée afin d’explorer si la mémoire auditive de travail contribue à expliquer la variance dans les données portant sur l’effort associé à la perception de la parole. De plus, ces analyses ont permis de comparer les patrons de réponses obtenues pour ces deux facteurs après des jeunes adultes et des personnes aînées. Pour les jeunes adultes, les résultats d’une analyse de régression séquentielle ont démontré qu’une mesure de la capacité auditive (taille de l’empan) était reliée à l’effort, tandis qu’une mesure du traitement auditif (rappel alphabétique) était reliée à la précision avec laquelle les mots étaient reconnus lorsqu’ils étaient présentés sous les conditions de double tâche. Cependant, ces mêmes relations n’étaient pas présentes dans les données obtenues pour le groupe de personnes aînées ni dans les données obtenues lorsque les tâches de reconnaissance de la parole étaient effectuées en modalité auditivo-visuelle. D’autres études sont nécessaires pour identifier les facteurs cognitifs qui sous-tendent l’effort associé à la perception de la parole, et ce, particulièrement chez les personnes aînées.