947 resultados para Tour guidé
Resumo:
Objectif : L’objectif principal de cette thèse est d’examiner les déterminants de l’utilisation des services de soins pour des raisons de santé mentale dans le sud-ouest de Montréal. Données et méthodes : L’étude utilise les données de la première phase du projet portant sur « le développement d’une zone circonscrite d’études épidémiologiques en psychiatrie dans le sud-ouest de Montréal ». Les données ont été collectées entre mai 2007 et août 2008 auprès d’un échantillon de 2434 personnes sélectionnées au hasard dans tout le territoire de l’étude. De cet échantillon, nous avons sélectionné un sous-échantillon de personnes ayant eu au moins un diagnostic de santé mentale au cours de la dernière année. 423 personnes ont rencontrées ce critère et constituent l’échantillon pour les analyses de la présente thèse. Le modèle comportemental d’Andersen a servi de cadre pour le choix des variables à analyser. Parce que l’approche socio-spatiale a été privilégiée pour modéliser les déterminants de l’utilisation des services, les analyses ont été effectuées à l’aide de quatre logiciels distincts à savoir : SPSS, AMOS, ArcGIS et MlWin. Résultats : Les résultats montrent que 53,66% de notre échantillon ont utilisés au moins un service de santé pour des raisons de santé mentale. On constate néanmoins que les déterminants de l’utilisation des services en santé mentale sont à la fois complexes et spatialement inégalement réparties. En ce qui concerne les caractéristiques sociodémographiques et cliniques, les femmes et ceux qui perçoivent la stigmatisation envers les personnes ayant un problème de santé mentale utilisent plus les services. Le nombre de diagnostics de santé mentale est aussi associé à l’utilisation des services. L’augmentation du nombre de diagnostics entraîne une augmentation de l’utilisation des services (=0,38; p<0,001). D’autres variables comme l’âge, le statut matrimonial, la taille du ménage, le soutien social et la qualité de vie influencent indirectement l’utilisation des services. À titre illustratif toute augmentation de l’âge entraîne une augmentation du soutien social de (=0,69; p<0,001) qui à son tour fait diminuer la détresse psychiatrique (= -0,09 (p<0,05). Or, toute augmentation d’une unité de détresse psychiatrique entraîne une augmentation de l’utilisation des services (=0,58 (p<0,001). Sur le plan spatiale, il existe une corrélation positive entre l’utilisation des services et la défavorisation matérielle, la défavorisation sociale et le nombre d’immigrants récents sur un territoire. Par contre, la corrélation entre la prévalence de la santé mentale et l’utilisation des services est négative. Les analyses plus poussées indiquent que le contexte de résidence explique 12,26 % (p<0,05) de la variation totale de l’utilisation des services. De plus, lorsqu’on contrôle pour les caractéristiques individuelles, vivre dans un environnement stable augmente l’utilisation des services (O.R=1,24; p<0,05) tandis que les contextes défavorisés du point de vue socioéconomique ont un effet néfaste sur l’utilisation (O.R=0,71; p<0,05). Conclusion : Les résultats de l’étude suggèrent que si on veut optimiser l’utilisation des services en santé mentale, il est important d’agir prioritairement au niveau de la collectivité. Plus spécifiquement, il faudrait mener des campagnes de sensibilisation auprès de la population pour combattre la stigmatisation des personnes ayant un problème de santé mentale. Sur le plan de la planification des soins de santé, on devrait augmenter l’offre des services dans les territoires défavorisés pour en faciliter l’accès aux habitants.
Resumo:
L’ostéoarthrose (OA) est une maladie articulaire dont l’incidence augmente avec le vieillissement de la population. Elle se caractérise par une détérioration progressive du cartilage articulaire accompagnée du remodelage de l’os sous-chondral et du changement des tissus mous de l’articulation. La douleur et le dysfonctionnement de l’articulation affectée sont généralement attribués à l’inflammation et l’épanchement de la synovie. Plusieurs évidences indiquent que l’inflammation de la membrane synoviale contribue grandement à la pathogenèse de l’OA. En effet, la synthèse et l’expression des enzymes protéolytiques qui dégradent la matrice cartilagineuse sont régulées par de nombreuses cytokines retrouvées au sein de ce foyer inflammatoire. Deux d’entre elles, l’interleukine-1 beta (IL-1β) et le «tumor necrosis factor » alpha (TNF-α), jouent un rôle majeur dans le déclenchement de l’inflammation associée à l’OA. Ces cytokines pro-inflammatoires agissent notamment sur les synoviocytes et les chondrocytes en activant NF-κB qui, à son tour, active les gènes de cytokines. Cette boucle de régulation positive amplifie et perpétue la réponse inflammatoire. Récemment, il a été rapporté que l’activation de NF-κB par TNF-α peut être potentialisée par EXTL3, un récepteur transmembranaire ; mais le mécanisme sous-jacent de cet effet demeure inconnu. Toutefois, les niveaux important d’EXTL3 et de son ligand Reg1B chez les patients arthrosiques, laissent croire que ces protéines jouent un rôle dans le développement de l’OA. Notre objectif était d’étudier le mécanisme par lequel EXTL3 amplifie l’activation de NF-κB par TNF-α et d’examiner si ce phénomène se produit aussi avec l’IL-1β. Nous avons utilisé les cellules C28/I2, une lignée cellulaire de chondrocytes, comme modèle d’étude. Les transfections transitoires avec un vecteur d’expression, les techniques d’immunofluorescence (IF), d’immunoprécipitation (IP) et d’immunobuvardage de type Western (IB); ont été utilisées dans le cadre de diverses approches expérimentales. Les résultats obtenus par transfection ont révélé que la protéine EXTL3 potentialisait l’activation de NF-κB aussi bien par IL-1β que par TNF-α. Ce résultat signifie que la potentialisation de l’activité NF-κB par EXTL3 n’est pas spécifique à TNF-α. D’autre part, l’IP avec TNFRI et TRAF2 a révélé la présence d’EXTL3 dans le complexe TNF-α/TNFRI/TRAF2 qui se forme au niveau de la membrane plasmique. De plus, ceci a été confirmé in vivo par microscopie confocale montrant la co-localisation de TNFRI-TRAF2-EXTL3 dans la membrane nucléaire, suggérant ainsi la formation d’un complexe identique au niveau des membranes plasmique et nucléaires. Toutefois, la présence du ligand Reg1B et/ou de la glucosamine inhibait la formation de ce complexe au niveau de la membrane plasmique, tout comme ils abolissaient la potentialisation de l’activité NF-κB par EXTL3. Ces résultats suggèrent non seulement que le recrutement d’EXTL3 libre dans le complexe TNF-α/TNFR1 est requis pour amplifier l’activation de NF-κB par TNF-α, mais aussi la capacité du ligand Reg1B et de la glucosamine à moduler cette activation à travers la baisse ou l’inhibition de l’interaction EXTL3-TNFR1. Les données de cette étude constituent une avancée majeure dans la compréhension des événements moléculaires qui contrôlent l’activation de NF-κB par les cytokines pro-inflammatoires. Ces résultats pourraient conduire au développement de nouvelles approches thérapeutiques pour le traitement de l’inflammation associée à l’OA et impliquant une activation incessante de NF-κB.
Resumo:
Le but de ce mémoire est d’effectuer une analyse détaillée de ce chapitre de la Critique de la raison pure de Kant à partir de l’idée qu’il présente les « résultats » de la démarche critique menée jusque-là concernant les limites de la connaissance. Le mémoire sera divisé en deux parties. Dans la première partie, nous montrerons que ce chapitre dresse un bilan provisoire et que pour cette raison il soulève deux enjeux : 1 – montrer que les concepts purs de l'entendement – en dépit de leur caractère a priori et de leur origine dans l'entendement pur – ne sont susceptibles d'un usage objectif qu'appliqués aux données de la sensibilité (A 246/B 303 : « L'Analytique transcendantale a donc cet important résultat... ») ; 2 – montrer que, à son tour, la sensibilité est elle-même limitée par l'entendement et qu'elle ne renferme pas la totalité des objets possibles (A 251 : « Tel a été le résultat de toute l'Esthétique transcendantale... »). Dans la seconde partie, nous analyserons les différences entre les deux éditions de la Critique de la raison pure concernant ce chapitre en insistant tout particulièrement sur la distinction faite dans la deuxième édition entre noumène au sens positif et noumène au sens négatif.
Resumo:
Ce mémoire porte sur l’étude de deux réseaux d’eau distincts, soit celui de la ville d’Arthabaska et celui de la ville de Victoriaville. Nous souhaitons éclairer le rôle joué par les facteurs environnementaux, naturels et urbains, au cours du processus ayant mené à l’implantation de réseaux d’eau potable et d’eaux usées dans les deux villes à l’étude. Divers travaux ont traité de la mise en place des réseaux d’aqueduc et d’égout à la grandeur du Canada. Toutefois, ce sont essentiellement les grandes villes comme Montréal ou Toronto qui ont retenu l’attention de l’histoire urbaine, politique et environnementale canadienne. L’objectif de cette démarche consiste à montrer que le milieu physique rural doit être incorporé à l’analyse comme élément vivant qui se transforme, qui influence et qui est influencé à son tour par l’être humain, puisqu’un et l’autre sont en constante interaction. Nous soutenons que la mise en place et le développement de réseaux d’eau sont influencés par le territoire dans lequel ils sont implantés et qu’ils ne peuvent pas être correctement analysés sans celui-ci. Afin de mettre l’espace au cœur de l’étude, nous avons mené une analyse des villes d’Arthabaska et de Victoriaville en considérant la géographie de la région à l’aide des cartes et des plans d’assurance-incendie, en plus de consulter des documents officiels et des articles tirés des journaux locaux.
Resumo:
Ces travaux ont été réalisés en collaboration avec le groupe du professeur William Skene.
Resumo:
Cette thèse porte sur la perception du risque sous terre. Nous voulons comprendre comment les mineurs de fond de la région de l’Abitibi-Témiscamingue au Québec perçoivent les risques inhérents à leur métier et comment ils y réagissent. L’organisation du travail, le fonctionnement d’une mine souterraine et les rapports de production sous terre retiennent d’abord notre attention. Le concept de risque représente un concept relativement jeune qui a intéressé de nombreux auteurs. Un tour d’horizon des diverses approches nous permettra de définir ce concept en nous appuyant plus spécialement sur les travaux de Mary Douglas. Cependant, nous avons conduit notre enquête à partir d’un cadre théorique se fondant principalement sur la sociologie de Pierre Bourdieu. Notre hypothèse défend l’idée que dans leur perception du risque, les mineurs de fond de l’Abitibi-Témiscamingue font montre d’un sens pratique qui repose surtout sur la prise en charge individuelle de la sécurité, le rapport à la prime de rendement et un certain sentiment de l’inéluctabilité du danger. Vingt entrevues semi-dirigées et la technique classique de l’observation participante ont servi à la collecte de données. L’analyse des récits de travail a donné lieu à une typologie distinguant trois groupes de mineurs. Nous avons préalablement décortiqué chacun des récits afin de dégager un modèle de base. Les résultats de l’analyse nous obligent à réviser notre hypothèse initiale et à ne pas conclure trop rapidement au fatalisme des mineurs de fond témiscabitibiens.
Resumo:
Les difficultés croissantes de l’enseignement supérieur en matière d’accessibilité aux formations et de disponibilité de filières de qualité, dans les pays en voie de développement de l’Afrique de l’Ouest notamment, conjuguées avec le développement vertigineux des technologies de l’information et de la communication (TIC), suscitent un grand espoir de faire de la formation à distance une solution alternative crédible des formations présentielles (OCDE, 2006). Or, si la littérature s’accorde à reconnaitre aux TIC et l’interactivité qu’elles procurent des facteurs favorisant l’apprentissage (Karsenti, 2006), la réalité du terrain éducatif lui impose de reconnaitre que non seulement la révolution de la formation ouverte et à distance (FOAD) n’est pas encore d’actualité (OCDE, 2006), mais qu’elle ne le sera que si, pour faire face à la distance transactionnelle, plus accrue en formation à distance, l’apprenant ne se contente plus d’apprendre, mais d’apprendre à apprendre, ce qui exige de lui des compétences d’autonomie. Or, malgré des décennies d’intérêt et d’investissement de la recherche, le développement de l’autonomie sur le terrain reste toujours marginal, les débats philosophiques ayant pris le pas sur la quête de solutions pratiques (Albero ,2003). La question de savoir comment les éducateurs de la FOAD utilisent les solutions existantes, censées favoriser l’autonomie de l’apprenant, telles certaines formes de tutorat et de travail de groupes, n’est pas sans intérêt, puisqu’elle permet de mieux comprendre le terrain cible et sa part de responsabilité dans cet insuccès de l’autonomie. S’inscrivant en droite ligne des travaux d’Albero (2003), la présente étude organise les principes d’autonomie suivant un cadre conceptuel privilégiant l’action et le développement, selon une dimension dynamique symbolisant l’importance du soutien à accorder à l’apprenant, une dimension topologique indiquant la nécessité pour ce soutien de prendre en compte les différents aspects sur lesquels l’apprenant peut exercer son autonomie et une dimension chronologique exprimant l’importance du désétayage. De façon pratique, cette étude, démarrée en 2009 dans le contexte de la FOAD du 2IE (Institut International des Ingénieurs de l’Eau et de l’Environnement), sis à Ouagadougou au Burkina Faso, s’organise en trois articles : le premier tente de comprendre si les conditions d’efficacité de la FOAD, selon les apprenants, formulent un besoin d’apprentissage en autonomie; le second tente de comprendre, à partir des propos des tuteurs, si l’encadrement des apprenants respecte les principes d’autonomie; enfin, le troisième article s’est penché, sur la base des intentions exprimées par les concepteurs, sur le respect des principes d’autonomie par les cours. L’éloignement des apprenants et l’objectif de comprendre leurs perceptions de la FOAD, nous ont fait préférer une approche de recherche de type mixte, à la fois qualitative pour mieux comprendre leur perception (Karsenti & Savoie-Zajc, 2004) et quantitative, pour tenir compte de leur éloignement. Pour la perception des éducateurs, nous avons opté pour une approche qualitative/descriptive plus appropriée dès que l’étude vise la compréhension du phénomène social abordé (Karsenti & Savoie-Zajc, 2004). Des résultats obtenus, la perception des 62 apprenants sur les 170 initialement invités par courriel à répondre au questionnaire, semble confirmer l’autonomie de l’apprenant comme une condition de leur réussite en FOAD. La demande des apprenants pour un soutien accru, malgré l’effort actuellement consenti par l’encadrement, effort reconnu par les apprenants eux-mêmes et qu’attestent les 10 tuteurs interviewés sur une quarantaine au 2IE, devrait, toutefois, inviter à la réflexion, puisque ne s’opposant pas réellement à un apprentissage en hétéronomie. À l’analyse, il apparait que l’insatisfaction des apprenants s’expliquerait par la non-prise en compte des différents aspects susceptibles d’influencer leur apprentissage. De plus, en nous référant aux entretiens avec les 11 concepteurs de cours sur un total de 30, il apparait que, bien que conscients de la nécessité d’adapter les cours au contexte de la FOAD, ni la modularité des contenus, ni la flexibilité de la structure des cours ne semblent être prises en compte. Au final, l’étude révèle l’urgence de lutter contre les habitudes acquises en formation présentielle et la nécessité d’employer des pédagogues professionnels formés pour une pédagogie d’autonomisation. Encore faudrait-il que l’autonomie soit véritablement consacrée par la littérature comme une praxis pour signifier qu’elle n’a d’autre fin qu’elle-même, et non comme une poiesis, pour dire que l’autonomie vise une production et cesserait dès que son objectif est atteint.
Resumo:
Enseigner l’espagnol comme langue étrangère (ELE) et utiliser la Littérature comme moyen didactique n’est pas une activité qui a été favorisée, ni dans l’aspect théorique comme pratique, dans les salles de classe, on l’a plutôt évitée. On a constaté que la plupart de temps on l’a réduit à un échantillon culturelle qui se situe à la fin des unités didactiques dans le manuelles d’ELE. Ces visions ont radicalement changé ces dernières années et des nombreux auteurs ont revendiqué son potentiel didactique et pédagogique. La présente mémoire s’inscrit dans la courante qui revendique l’utilisation du texte littéraire (TL) à cause du potentiel didactique qu’il renferme. On propose une série d’activités didactiques qui s’appuient dans le texte littéraire pour renforcer les compétences du discours au niveau de la description, la narration et la argumentation dans le cours d’espagnol langue étrangère (ELE) au niveau collégial et universitaire au Québec (Canada), en s’ appuyant sur les critères établis par le Cadre européen commun de référence pour les langues, le Plan curricular de l’Institut Cervantès, et le Programme du Ministère de l’Éducation du Québec. Auparavant, on a fait un bref parcours sur les différentes méthodes et approches pédagogiques dans l’enseignement de l’espagnol (ELE) ainsi que plusieurs études et articles qui proposent l’utilisation du texte littéraire en ayant comme objectif d’améliorer les compétences linguistique et communicatives des étudiants.
Étude de l’association supramoléculaire bi- et tridimensionnelle d’oximes et d’hydrazones trigonales
Resumo:
Les concepts de la chimie supramoléculaire peuvent être exploités avantageusement pour contrôler la structure et les propriétés des matériaux moléculaires. Dans une approche productive, les composantes moléculaires du matériau peuvent être choisies pour pouvoir s'engager dans des interactions fortes et prévisibles avec leurs voisins. Cette stratégie, appelée la tectonique moléculaire, est caractérisée par la préparation de molécules particulières appelées tectons (du grec tectos, qui signifie constructeur) qui, par design rationnel, s’associent de manière prévisible via de multiples interactions non-covalentes afin de générer l’architecture désirée. Ce processus est réversible et guidé par la présence de fonctions chimiques complémentaires, appelées groupements de reconnaissance, qui sont orientées de manière à conférer un aspect directionnel aux interactions intermoléculaires. Ceci permet de positionner les molécules voisines de façon prédéterminée. Les contraintes imposées par les interactions s’opposent souvent à la tendance naturelle des molécules à former une structure compacte et permettent donc à d'autres molécules invitées d’occuper un volume appréciable dans le matériau, sans toutefois contribuer directement à l'architecture principale. Appliquée à la cristallisation, cette approche peut générer des cristaux poreux, analogues aux zéolites. Les ponts hydrogène offrent une interaction non-covalente de choix dans cette stratégie car ils sont forts et directionnels. L’exploration d’une multitude de fonctions chimiques connues pour pouvoir participer à la formation de ponts hydrogène a permis de créer une grande diversité de nouveaux matériaux lors de l’évolution du domaine du génie cristallin. Une molécule classique, qui illustre bien la stratégie tectonique et qui a eu un fort impact dans le domaine de la chimie supramoléculaire, est l’acide 1,3,5-benzènetricarboxylique, communément appelé acide trimésique. L’acide trimésique donne une orientation trigonale à trois groupements carboxyles, favorisant ainsi la formation d'un réseau hexagonal retenu par ponts hydrogène. Nous avons visé une modification dans laquelle les groupements -COOH de l'acide trimésique sont remplacés par deux autres groupements de reconnaissance, jusqu’ici peu exploités en chimie supramoléculaire, l’oxime et l’hydrazone. Nous rapportons la synthèse et la cristallisation de différentes trioximes et trihydrazones analogues à l'acide trimésique. Les cristaux obtenus ont été analysés par diffraction des rayons-X et leurs structures ont été déterminées. L’auto-assemblage de différentes trioximes et trihydrazones en 2D par adsorption sur graphite a également été étudié en utilisant la microscopie à balayage à effet tunnel. Nos résultats nous permettent de comparer l'organisation en 2D et en 3D de différents analogues de l'acide trimésique.
Resumo:
Le diabète de type 1 (DT1) est une maladie complexe qui requiert une implication importante des patients pour contrôler leur glycémie et ainsi prévenir les complications et comorbidités. L’activité physique (AP) régulière et une attention constante pour les glucides ingérés sont des adjuvants essentiels au traitement insulinique. Nous avons démontré que le questionnaire BAPAD-1, spécifiquement développé pour des adultes atteints de DT1, est un outil valide (validité prédictive, fiabilité interne et reproductibilité) pour définir des barrières associées à l’AP. Bien que le niveau de barrières envers l’AP soit faible, la crainte de l’hypoglycémie est la barrière la plus importante chez cette population. L’adoption d’un mode de vie actif est associée à un profil corporel favorable. Les adultes, avec un DT1 et non diabétique, qui maintiennent un bon niveau d’AP, soit un ratio entre la dépense énergétique totale et celle au repos ≥ 1.7, ont une masse grasse, un indice de masse corporelle et un tour de taille significativement inférieurs à ceux d’adultes moins actifs. Le niveau d’AP peut être estimé au moyen d’un moniteur d’AP comme le SenseWear Armband™. Afin de compléter les études de validation de cet outil, nous avons évalué et démontré la reproductibilité des mesures. Toutefois, la dépense énergétique est sous-estimée durant les 10 premières minutes d’une AP d’intensité modérée sur ergocycle. L’utilisation de cet appareil est donc justifiée pour une évaluation de la dépense énergétique sur de longues périodes. Le calcul des glucides est une méthode largement utilisée pour évaluer la quantité d’insuline à injecter lors des repas. Nous avons évalué dans un contexte de vie courante, sans révision de la technique, la précision des patients pour ce calcul. L’erreur moyenne est de 15,4 ± 7,8 g par repas, soit 20,9 ± 9,7 % du contenu glucidique. L’erreur moyenne est positivement associée à de plus grandes fluctuations glycémiques mesurées via un lecteur de glucose en continu. Une révision régulière du calcul des glucides est probablement nécessaire pour permettre un meilleur contrôle glycémique. Nous avons développé et testé lors d’un essai clinique randomisé contrôlé un programme de promotion de l’AP (PEP-1). Ce programme de 12 semaines inclut une séance hebdomadaire en groupe ayant pour but d’initier l’AP, d’établir des objectifs et d’outiller les adultes atteints de DT1 quant à la gestion de la glycémie à l’AP. Bien que n’ayant pas permis d’augmenter la dépense énergétique, le programme a permis un maintien du niveau d’AP et une amélioration de la condition cardio-respiratoire et de la pression artérielle. À la fin du programme, une plus grande proportion de patients connaissait la pharmacocinétique de l’insuline et une plus grande variété de méthodes pour contrer l’hypoglycémie associée à l’AP était utilisée. En conclusion, le diabète de type 1 engendre des défis quotidiens particuliers. D’une part, le calcul des glucides est une tâche complexe et son imprécision est associée aux fluctuations glycémiques quotidiennes. D’autre part, l’adoption d’un mode de vie actif, qui est associée à un meilleur profil de composition corporelle, est limitée par la crainte des hypoglycémies. Le programme PEP-1 offre un support pour intégrer l’AP dans les habitudes de vie des adultes avec un DT1 et ainsi améliorer certains facteurs de risque cardio-vasculaire.
Resumo:
Au cours des dernières années, le Québec fut durement touché par des vagues massives de licenciements collectifs. Après l’industrie du textile et du vêtement, c’est maintenant au tour de l’industrie forestière de subir, de plein fouet, les contrecoups d’une économie en pleine mutation. Les résultats des entrevues réalisées au printemps 2008, auprès des travailleurs de la Louisiana-Pacific de Saint-Michel-des-Saints, attestent de l’incapacité des dispositions sur le licenciement collectif à prendre adéquatement en charge les travailleurs victimes de ces fermetures d’usines. Pour évaluer le degré d’efficacité des dispositions sur le licenciement collectif, nous partons d’une étude empirique visant le processus de restructuration d’une grande entreprise papetière, qui conduit à la fermeture de son usine de traitement du bois à St-Michel-des-Saints. Des entretiens conduits auprès des travailleurs, des acteurs locaux comme des dirigeants du syndicat et de la communauté locale, et d’autres acteurs syndicaux et gouvernementaux permettent de reconstruire les étapes conduisant aux licenciements collectifs et à leur suite. Seule la mobilisation syndicale (blocus de l’usine) a permis de bonifier les faibles mesures palliatives prévues initialement par la loi. Cette mobilisation n’a toutefois pas empêché de constater des effets négatifs marqués (appauvrissement, sentiment d’exclusion, tensions familiales, etc.) chez les travailleurs victimes de ce licenciement massif.
Resumo:
Cette thèse s'intéresse au lien qui existe entre le système électoral et deux comportements importants de la vie civique, soit la participation à une élection et la désertion stratégique du candidat préféré vers un autre candidat. Ces thèmes sont abordés dans de nombreux et de très importants ouvrages en science politique. En passant par la théorie (Downs, 1957) jusqu'à des études de terrain par l'entremise de sondages (Abramson, 2010; Blais, 2010), diverses méthodologies ont été employées pour mieux expliquer les choix des électeurs. Ma contribution à l'avancement des connaissances dans ce domaine passe par l'usage de la méthode expérimentale pour mieux saisir les similitudes et différences dans les comportements des électeurs sous le système uninominal à un tour (UT) et la représentation proportionnelle (RP) ainsi que les mécanismes au niveau individuel qui produisent ces similitudes et différences. Le cœur de la thèse est composé des trois articles dont voici les résumés : Article 1. Des élections expérimentales faites à Montréal, Paris et Bruxelles permettent d'estimer l’influence directe du mode de scrutin sur la décision des électeurs de voter ou non, et de voter pour leur parti préféré ou non. En tout, 16 groupes de 21 électeurs votent sous différents systèmes électoraux, soit le UT et la RP. Les préférences sont attribuées aléatoirement et connues de tous les participants. Nos résultats indiquent que le vote n'est pas globalement plus sincère et que la participation électorale n'est pas plus élevée sous le système proportionnel. Toutefois, nous observons moins de désertion d'un petit parti sous le système proportionnel. Article 2. Les expériences permettent également d'expliquer pourquoi les électeurs votent parfois pour un parti autre que leur parti préféré. La conclusion principale est que la décision de voter de façon sincère ou non est influencée par les préférences individuelles, mais aussi par les perceptions des chances de gagner des candidats ainsi que des chances que son propre vote puisse décider le résultat de l'élection. Les électeurs qui désertent leur premier choix prennent en considération quel candidat est le plus près de leurs positions politiques, mais également de la viabilité de cette alternative. De plus, les électeurs qui aiment prendre des risques ont davantage tendance à déserter. Article 3. Le modèle de l'électeur pivot est mis à l'épreuve pour mieux comprendre la décision de voter ou non lors d'une élection. Nos expériences permettent de répliquer, avec un devis expérimental différent, les résultats importants des travaux de Duffy et Tavits (2008). Nos résultats confirment que la perception d'être pivot augmente la participation, que ces perceptions sont sujettes à la surestimation et que cette surestimation ne décline pas complètement dans le temps. Nous allons également plus loin que les recherches de Duffy et Tavits et nous trouvons que la participation n'est pas plus forte sous RP que sous UT et que la probabilité d'être pivot a un impact plus important chez les électeurs évitant de prendre des risques.
Resumo:
Cette thèse est composée de trois articles en économie des ressources naturelles non-renouvelables. Nous considérons tour à tour les questions suivantes : le prix in-situ des ressources naturelles non-renouvelables ; le taux d’extraction optimal et le prix des res- sources non-renouvelables et durables. Dans le premier article, nous estimons le prix in-situ des ressources naturelles non-renouvelables en utilisant les données sur le coût moyen d’extraction pour obtenir une approximation du coût marginal. En utilisant la Méthode des Moments Généralisés, une dynamique du prix de marché derivée des conditions d’optimalité du modèle d’Hotelling est estimée avec des données de panel de 14 ressources naturelles non-renouvelables. Nous trouvons des résultats qui tendent à soutenir le modèle. Premièrement, le modèle d’Hotelling exhibe un bon pouvoir explicatif du prix de marché observé. Deuxièmement, bien que le prix estimé présente un changement structurel dans le temps, ceci semble n’avoir aucun impact significatif sur le pouvoir explicatif du modèle. Troisièmement, on ne peut pas rejeter l’hypothèse que le coût marginal d’extraction puisse être approximé par les données sur le coût moyen. Quatrièmement, le prix in-situ estimé en prenant en compte les changements structurels décroît ou exhibe une forme en U inversé dans le temps et semble être corrélé positivement avec le prix de marché. Cinquièmement, pour neuf des quatorze ressources, la différence entre le prix in-situ estimé avec changements structurels et celui estimé en négligeant les changements structurels est un processus de moyenne nulle. Dans le deuxième article, nous testons l’existence d’un équilibre dans lequel le taux d’extraction optimal des ressources non-renouvelables est linéaire par rapport au stock de ressource en terre. Tout d’abord, nous considérons un modèle d’Hotelling avec une fonction de demande variant dans le temps caractérisée par une élasticité prix constante et une fonction de coût d’extraction variant dans le temps caractérisée par des élasticités constantes par rapport au taux d’extraction et au stock de ressource. Ensuite, nous mon- trons qu’il existe un équilibre dans lequel le taux d’extraction optimal est proportionnel au stock de ressource si et seulement si le taux d’actualisation et les paramètres des fonctions de demande et de coût d’extraction satisfont une relation bien précise. Enfin, nous utilisons les données de panel de quatorze ressources non-renouvelables pour vérifier empiriquement cette relation. Dans le cas où les paramètres du modèle sont supposés invariants dans le temps, nous trouvons qu’on ne peut rejeter la relation que pour six des quatorze ressources. Cependant, ce résultat change lorsque nous prenons en compte le changement structurel dans le temps des prix des ressources. En fait, dans ce cas nous trouvons que la relation est rejetée pour toutes les quatorze ressources. Dans le troisième article, nous étudions l’évolution du prix d’une ressource naturelle non-renouvelable dans le cas où cette ressource est durable, c’est-à-dire qu’une fois extraite elle devient un actif productif détenu hors terre. On emprunte à la théorie de la détermination du prix des actifs pour ce faire. Le choix de portefeuille porte alors sur les actifs suivant : un stock de ressource non-renouvelable détenu en terre, qui ne procure aucun service productif ; un stock de ressource détenu hors terre, qui procure un flux de services productifs ; un stock d’un bien composite, qui peut être détenu soit sous forme de capital productif, soit sous forme d’une obligation dont le rendement est donné. Les productivités du secteur de production du bien composite et du secteur de l’extraction de la ressource évoluent de façon stochastique. On montre que la prédiction que l’on peut tirer quant au sentier de prix de la ressource diffère considérablement de celle qui découle de la règle d’Hotelling élémentaire et qu’aucune prédiction non ambiguë quant au comportement du sentier de prix ne peut être obtenue de façon analytique.
Resumo:
L’insuffisance cardiaque (IC) est une maladie chronique dont les symptômes sévères peuvent mener à des hospitalisations répétées. Pour gérer ces symptômes, le plan de traitement implique plusieurs auto-soins, par exemple une diète limitée en sel et en liquide, ce qui est parfois difficile à respecter. Le but de la présente étude pilote randomisée à deux groupes (n = 16 / groupe) était d’évaluer la faisabilité, l’acceptabilité et l’efficacité préliminaire d’une intervention infirmière favorisant la pratique des auto-soins des patients atteints d’IC. L’intervention est basée sur la théorie de l’autodétermination (TAD) qui promeut l’autonomie dans la pratique des auto-soins. L’autodétermination est favorisée par le sentiment de compétence perçue, d’autonomie et d’affiliation. Pour soutenir le besoin d’affiliation, un aidant principal participe à l’intervention qui consiste en cinq entrevues chez le groupe d’intervention (GI) dont deux durant l’hospitalisation et trois par un appel téléphonique suite au congé. Les interventions découlant de cette théorie incluent par exemple de proposer des choix plutôt que d’imposer des restrictions, d’éviter la critique, de favoriser l’empathie et le renforcement positif. Les entrevues ont servi également à guider les aidants principaux pour qu’ils soutiennent à leur tour l’autodétermination de leur parent atteint d’IC. Les résultats soutiennent la faisabilité et l’acceptabilité de l’intervention évaluée dans la présente étude et permettent d’améliorer la pratique des auto-soins avec des résultats favorables pour la majorité des hypothèses évaluées. Ces résultats prometteurs permettront de guider la pratique clinique et offrent des pistes de recherches futures.
Resumo:
Ce mémoire porte sur la représentation de la fureur dans la tragédie en musique "Roland" de Philippe Quinault et Jean-Baptiste Lully, créée en 1685. Il cherche à préciser, dans une perspective historique et rhétorique, les moyens littéraires, musicaux et scéniques par lesquels sont rendus les excès du personnage furieux sur la scène classique du second XVIIe siècle. Le premier chapitre vise à rassembler les figures mythiques de la fureur dans une perspective d’ordre historique, des origines antiques aux diverses reprises dramatiques du répertoire français, en passant par la célèbre épopée de l’Orlando furioso, rappelant ainsi les bases de la topique de la fureur. Il s’intéresse également au développement d’une esthétique de la fureur propre au genre dramatique, ainsi qu’à son rapport au sublime, idéal d’expression classique. Guidé par la question de la représentation et de ses effets sur le spectateur, le second chapitre propose une analyse rhétorique de la scène de fureur dans Roland. L’étude de cette scène en fonction des différentes parties de la rhétorique – inventio, dispositio, elocutio et actio – démontre qu’une dynamique de contraste et d’alternance entre force et douceur se situe au cœur de la rhétorique du dérèglement qui conduit les représentations de la fureur.