992 resultados para Choix éclairé
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Problématique : En dépit de nombreuses initiatives et interventions au cours des dernières années, l’intérêt des étudiants en médecine pour la médecine de famille (MF) demeure inférieur aux attentes des planificateurs de services de santé. Objectifs : Préciser les facteurs qui influencent les leaders étudiants en médecine dans leur choix de programme de résidence en s’intéressant plus spécifiquement aux groupes d’intérêt en médecine de famille (GIMF) et aux moyens d’accroître leur efficacité. Stratégie et devis : Approche synthétique par étude de cas multiples à un seul niveau d’analyse. Recherche descriptive à finalité instrumentale en recherche-action. Participants : Leaders étudiants de trois facultés de médecine du Québec (n=21), sélectionnés par choix raisonné à l’aide d’un sociogramme. Méthode : Groupes de discussion et questionnaire autoadministré. Analyse qualitative assistée par le logiciel N-Vivo. Résultats : Différents facteurs, dont l’existence des GIMF, influencent le choix de carrière des étudiants en médecine. Pour augmenter la capacité des GIMF d’intéresser les étudiants à la MF, on pourrait notamment s’appuyer sur les groupes d’intérêt d’autres spécialités et développer une approche de marketing social auprès des indécis, insistant sur leurs motivations d’ordre émotionnel. Conclusion : Les GIMF peuvent contribuer à la promotion et à la valorisation de la MF chez les étudiants en médecine du Québec. En s’intéressant aux leaders étudiants en médecine et leur influence naturelle sur leurs pairs, il est possible d’accroître l’efficacité des GIMF.
Resumo:
La problématique du consentement éclairé en santé mentale demeure au coeur des préoccupations des cliniciens, médecins spécialistes et médecins experts. Le travail auprès des cérébrolésés ou des patients souffrant de troubles mentaux graves, tout comme les questions qui me sont adressées depuis près de 20 ans par les médecins spécialistes, juristes ou résidents en psychiatrie, m’ont amenée à y réfléchir davantage. J’ajouterais que le constat personnel d’une compréhension des comportements, attitudes, motivations et jugements des patients vulnérables qui s’est modifiée au fil des ans, et le constat de l’importance de la notion du consentement vs le flou de sa définition et la fragilité des paramètres établis pour l’évaluer et la définir ont ravivé cette réflexion. La présente étude n’a aucunement pour but d’élaborer quelque règle de conduite que ce soit, ni de définir ce que devrait être le consentement éclairé en psychiatrie, mais plutôt d’explorer les dilemmes éthiques et les questionnements cliniques auxquels sont confrontés les médecins psychiatres afin de raviver une réflexion éthique qui semble s’estomper au profit de procédures juridiques et administratives.
Resumo:
Certains sujets de discussion sont pérennes et ce, que la conversation soit entre profanes ou entre experts : on ne se lassera jamais de parler de météo, du Canadien de Montréal, de la Constitution canadienne. D’autres sujets, au contraire, ne sont que récurrents, leur actualité dépendant plutôt de leurs enjeux politiques, de l’intérêt circonstanciel qu’ils engendrent, ou encore d’un vide médiatique à remplir. Pourtant, que ces sujets soient éternels ou simplement récurrents, il est rare (surtout en milieu académique) que le fait de revoir un même problème en apporte une meilleure compréhension. Pis encore, si jamais un consensus quelconque émerge ou est sur le point d’émerger, ceux et celles dont la carrière est de commenter ces sujets – qu’ils soient des chercheurs, des professeurs,des prophètes ou des politiciens – trouveront toujours une excuse pour ressemer la discorde.
Resumo:
Malgré l’incertitude quant à leur sécurité à l’égard des personnes et de l’environnement, les cultures génétiquement modifiées (GM) ont été largement diffusées à travers le monde. En outre, dans de nombreux pays la coexistence des cultures GM avec les systèmes conventionnels de production et les systèmes de production biologique est habituelle. Dans l’Union européenne (UE), cependant, l’utilisation de cette technologie a soulevé d’importantes questions. Ces réserves sont reflétées dans le développement d’un cadre réglementaire particulièrement restrictif articulé autour d’une procédure unique d’approbation de ces cultures. De la même manière, le débat sur la coexistence des cultures GM avec la production agricole conventionnelle et la production biologique a été particulièrement animé dans l’UE. La première section de ce travail est consacrée à examiner comment, du fait de la complexité des nouvelles technologies, il est nécessaire, du point de vue régulateur, de faire face à des situations dans lesquelles les scientifiques ne peuvent encore fournir aucune réponse précise. Dans ce contexte, le principe de précaution est invoqué afin de limiter les dangers potentiels, mais ceci est sans préjudice des questions qui restent encore ouvertes sur la portée et la nature de ce principe. En tant que manifestations précises de ce principe de précaution, deux aspects sont abordés dans les secondes et troisièmes parties de ce travail. Nous analysons, d’abord, la procédure d’autorisation des produits GM dans l’UE, procédure spécifique basée sur le principe de précaution dans laquelle soit les institutions communautaires soit les autorités des États membres jouent un rôle important. Par rapport à ce cadre très réglementé de l’UE, la troisième partie examine le degré d’intervention des États membres. Ceci se manifeste principalement dans la possibilité d’adopter certaines clauses de sauvegarde pour limiter l’expansion des cultures GM ainsi que dans la réglementation de la coexistence des cultures GM avec les cultures conventionnelles et la possibilité d’exclure de la culture des OGM certaines zones. Finalement, quelques conclusions sont données dans la quatrième partie.
Resumo:
Cette étude s’insère dans une étude s’intitulant « Choix alimentaires d’adolescents canadiens et attitudes de leurs entraîneurs impliqués dans des activités sportives organisées ». Les objectifs étaient d’étudier chez des adolescents impliqués dans une compétition sportive provinciale où l’offre alimentaire est contrôlée 1) leur maîtrise des recommandations nutritionnelles 2) les facteurs individuels, comportementaux, socio-environnementaux influençant leurs choix alimentaires. Deux observateurs ont visité les différents sites alimentaires et de compétition pendant les Jeux du Québec de 2011 à Valleyfield. Les plateaux des athlètes ont été photographiés à table au moment des repas avec une caméra numérique et les commentaires oraux colligés par écrit. Au total, 173 photographies ont été analysées et comparées aux recommandations reconnues en nutrition sportive. Dans notre étude, les préférences alimentaires, l’offre alimentaire et la présence des coéquipiers sont les facteurs qui influencent le plus les choix alimentaires en compétition. Par contre, le sexe de l’athlète n’a pas influencé les choix alimentaires des athlètes observés. En pré-compétition, 85,4% des plateaux présentent une valeur énergétique supérieure aux recommandations et 66,3% d’entre eux ont une répartition en énergie inadéquate, peu importe le sexe. Un excès de lipides et de protéines au sein du repas précédant l’effort caractérise majoritairement les plateaux dont la répartition en énergie est non optimale (69,5%). Les recommandations en post-compétition (100%) et lors des jours de repos (95,8%) ont facilement été rencontrées. Il en est de même pour l’hydratation (99,4%). Le lait au chocolat est la boisson la plus populaire (59,5%). Les produits céréaliers (99,4%), le lait et substituts (87,3%), les légumes (85,7%), les viandes et substituts (83,2%), les aliments riches en sucres (79,8%), les fruits (70,5%) et les mets riches en gras (59,4%) sont particulièrement appréciés par les athlètes. Les commentaires recueillis font ressortir une vision dichotomique des aliments chez certains athlètes qui classifient les aliments en « bons » ou « mauvais ». Notre étude démontre que la présence d’une politique alimentaire permet de promouvoir des habitudes alimentaires saines et favorise la consommation d’aliments nutritifs lors d’une compétition sportive d’envergure. Cependant, de l’éducation en nutrition est toujours requise pour viser l’amélioration du comportement alimentaire avant l’effort.
Resumo:
En français contemporain, l’hésitation dans le choix entre être et avoir comme auxiliaire dans les formes verbale composées (par ex. le passé composé) de certains verbes intransitifs (par ex. tomber), surtout dans des variétés non standards du français, démonte clairement l’écart qui existe entre le français normé et le français oral quotidien. Cette hésitation, voire l’incertitude, dans le choix de l’auxiliaire n’est pas une particularité arbitraire ou aléatoire de la langue contemporaine; elle s’inscrit plutôt dans une tendance diachronique et pan-romane que l’on a pu observer dans la langue française depuis son émancipation du latin. Notre étude, qui se fonde sur la théorie de la grammaticalisation, propose une analyse du discours grammatical de 1500 – époque où sont apparues les premières grammaires du français – jusqu’à 1789 avec la Révolution française, signalant le moment où la langue se serait stabilisée et aurait adopté sa forme moderne. Nous divisons les trois siècles de notre étude en quatre périodes distinctes, déjà bien établies dans les études historiques. Ce sont : - Le XVIe siècle (1530-1599) - La première moitié de la période classique (1600-1650) - La deuxième moitié de la période classique (1651-1715) - Le Siècle des lumières (1716-1789) Pour chacune des quatre périodes, l’analyse se fait en trois temps. Premièrement, nous recensons les grammairiens, les lexicographes et les essayistes qui se sont prononcés, soit explicitement, soit implicitement, sur l’emploi des auxiliaires être et avoir dans les formes verbales composées (FVC). Nous identifions, là où cela est possible, le dialecte maternel de chaque auteur et son modèle d’usage. Deuxièmement, nous résumons les observations et les commentaires sur l’emploi des auxiliaires dans les FVC formulés par chaque auteur, y compris les tentatives d’explication quant à la variation dans le choix de l’auxiliaire. Finalement, nous rapportons la description de l’emploi des auxiliaires dans les FVC proposée par des historiens de la langue française pour la période en question. Notre étude nous permet de confirmer, en ce qui concerne les FVC, certaines tendances déjà reconnues dans la langue française et d’en identifier d’autres. Également, nous avons pu repérer, voire circonscrire des facteurs qui ont eu une influence sur le choix, tels les verbes plus sensibles à l’alternance, les grammairiens dont l’autorité s’est imposé plus que d’autres ou avant les autres dans l’établissement de la norme sur ce point, les contextes sociaux dans lesquels le débat a eu lieu et la période pendant laquelle les préoccupations sur ce choix était les plus intenses.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Travail d'intégration présenté à la Faculté de médecine en vue de l’obtention du grade de maîtrise professionnelle en physiothérapie
Resumo:
La sélection fréquence-dépendante est un mécanisme d’évolution selon lequel l’aptitude d'un type varie en fonction de sa fréquence dans la population. Ce mécanisme joue un rôle important dans de nombreuses interactions autant interspécifiques (parasitisme, prédation, compétition), qu'intra-spécifiques entre les différents phénotypes d'une même espèce. La sélection fréquence-dépendante peut être positive ou négative et favoriser alors les phénotypes communs ou rares, respectivement. Elle a été mise en évidence dans le contexte du choix de partenaire chez plusieurs espèces, notamment chez certaines espèces d'insectes (ex.: demoiselles, drosophiles, cantharide de Pennsylvanie) et de poissons (ex.: guppys, xiphos), mais elle a été aussi récemment découverte chez l’humain. L'importance de la sélection fréquence-dépendante dans le choix de partenaire chez les espèces monogames reste tout de même peu explorée et cette étude vise à combler cette lacune en utilisant le diamant mandarin, un passereau monogame, comme modèle biologique. Nous avons étudié l'importance de ce mécanisme lorsqu'un trait est neutre et lorsque celui-ci constitue un indicateur de qualité. De plus, nous avons tenté de déterminer si la présence de rivales peut modifier la préférence initiale des femelles pour les phénotypes rares ou communs.
Resumo:
L’étude présentée dans ce mémoire concerne ce qui amène les jeunes adultes (18-25 ans) à afficher certains éléments et pas d’autres, sur Facebook, en relation avec leur conception personnelle de la vie privée. J’aborde ce processus en mobilisant les notions de présentation de soi, de relations en public et, plus particulièrement, de territoires du moi élaborées par le sociologue Erving Goffman (1973). Les territoires du moi sont ici perçus comme ce qui appartient à l’individu de manière privée et qu’il souhaite protéger. Ces notions de la pensée de Goffman sont pour moi interdépendantes puisque les territoires du moi d’une personne sont influencés à la fois par le rôle que la personne tient ainsi que par les normes et les règles encadrant l'interaction. Cette étude a été réalisée auprès de huit jeunes adultes âgés entre 18 et 25 ans. Une entrevue individuelle a été faite avec chacun d’entre eux. Lors de celle-ci, les participants avaient à présenter leur compte Facebook. Je les invitais, par exemple, à me raconter ce qui les motivait à afficher certaines choses, qui sont les personnes qui peuvent voir ces choses et, à l’inverse, ce qui n’a pas sa place sur la page Facebook et qui sont les personnes qui ne peuvent pas voir certaines publications. Suite à ce terrain, les analyses mettent en lumière sept dimensions s’inscrivant dans la pensée de Goffman qui dessinent la protection de ce que l’on pourrait nommer la vie privée. Il y a Se voir à travers le regard de l’autre et s’en inquiéter, Projeter une image de soi positive, Les amis Facebook : jamais nous n’avons eu autant d’amis, Flirt, relation de couple et cœur brisé : les relations amoureuses et Facebook, Avoir plusieurs rôles sur une même plateforme : la famille n’a souvent pas sa place, Gérer les paramètres de Facebook n’est pas si simple et Évolution de l’usage de Facebook : une question d’âge et un apprentissage. La plupart d’entre elles ont, pour ligne directrice, le regard de l’autre puisque l’inquiétude vis-à-vis celui-ci vient très souvent nuancer le choix de publications des usagés.
Resumo:
En l’espace d’une décennie, Montréal s’est durablement transformée. Du milieu des années 1950, où elle représente une ville développée certes, mais dépourvue d'autoroutes, à 1967, année de l’Exposition universelle, la métropole du Québec confirme son choix du tout-à-l’automobile. Le développement autoroutier qu’elle réalise à cette époque doit alors être en mesure de répondre aux besoins de la société à court comme à long terme. Ce réseau perdure toujours de nos jours. Nous souhaitons décomposer la trame de cette période mouvementée afin de comprendre comment Montréal a pu adopter cette orientation aussi rapidement. Il est question d’aborder les éléments ayant permis de centraliser le thème de la circulation à Montréal. La réponse des autorités et la volonté de planifier la ville à long terme nous conduisent ensuite à une réalisation accélérée d’un réseau autoroutier métropolitain d’envergure dont l’échangeur Turcot représente l’aboutissement en 1967. Cette étude permet de mieux examiner l’histoire de ce projet autoroutier majeur qui a constitué un des symboles forts de la modernisation de Montréal et du Québec. L’échangeur Turcot construit dans les années 1960 est le fruit d’une conjoncture particulière, correspondant à des besoins et des attentes tout autre que ceux qui prévalent actuellement. Nous concluons ainsi en nous questionnant sur la construction actuelle du nouvel échangeur Turcot, et en affirmant qu’elle ne correspond peut-être pas aux besoins d’une métropole du XXIe siècle.
Resumo:
À travers l’étude de cas des femmes dans les ateliers de misère, cet article met en relief deux approches morales fondamentalement divergentes à l’égard d’un choix fait sous de fortes contraintes sociales et économiques. La première met l’accent sur la nécessité de respecter le choix de ces femmes puisque celui-ci relève malgré tout de l’expression de leur autonomie et de leur préférence. Il convient dans cet article de mettre en lumière les limites de cette approche grâce aux analyses féministes de Ann Cudd, Carol Hay, Martha Nussbaum et Iris Marion Young. Ainsi pourrons-nous mieux distinguer la nature particulière de ce choix et entrevoir notre responsabilité morale face à l’injustice que subissent ces femmes.