83 resultados para Éditeurs Indépendants
Resumo:
L’utilisation des mesures d’isolement et de contentions en milieu psychiatrique intrahospitalier se produit fréquemment en réponse à des comportements agressifs et continue de soulever la controverse. À cet égard, de plus en plus d’études tendent à démontrer que le personnel soignant travaillant sur ces unités est influencé par plusieurs facteurs de nature différente, notamment la perception de l’agressivité, quand vient le temps de prendre une décision quant à l’utilisation (ou non) de ces mesures coercitives. Méthodologie : Plus de trois cents membres du personnel soignant travaillant en milieu psychiatrique intrahospitalier ont été recrutés dans huit établissements psychiatriques du Québec. Dans un premier temps, un questionnaire leur a été distribué afin de mettre en relief les différents facteurs (individuels et organisationnels) ayant un impact sur l’utilisation des mesures coercitives. Simultanément, l’analyse factorielle de la version française de deux échelles permettant de mesurer la perception de l’agressivité en milieu hospitalier (le MOAS et le POAS) a été faite. Résultats : Un modèle final multivarié a démontré que le type d’unité psychiatrique, l’expression de la colère et de l’agressivité parmi les membres de l’équipe de soins, la perception de la fréquence de gestes autoagressifs et la perception de mesures de sécurité insuffisantes dans le milieu de travail étaient des prédicteurs indépendants de l’utilisation de procédures d’isolement et de contentions. L’analyse factorielle a pour sa part mis en évidence une structure à 4 facteurs pour le MOAS et à 3 facteurs pour le POAS, conformément à ce que l’on retrouvait dans la littérature scientifique. Conclusion : Ces résultats soulignent l’importance des facteurs organisationnels par rapport aux facteurs individuels dans l’utilisation des mesures coercitives en psychiatrie et la nécessité d’évaluer les perceptions quant à l’agressivité et à la sécurité chez le personnel soignant. En comprenant mieux les phénomènes qui amènent leur utilisation, il sera possible de trouver des alternatives aux mesures d’isolement et de contentions et ainsi réduire le recours à ces dernières.
Resumo:
José Antonio de Alzate y Ramírez (1737-1799) est reconnu aujourd’hui, entre autres choses, comme un des premiers journalistes, scientifiques, critiques littéraires et patriotes mexicains. Ce mémoire présente, dans un premier temps, une introduction à la vie et l’œuvre du personnage et rend compte de la réception globale de celle-ci, de 1831 à nos jours. Nous y montrons que les différents journaux d’Alzate, ses Diario literario de México (1768), Asuntos Varios sobre Ciencia y Arte (1772-1773), Observaciones sobre la física (1787-1788), et Gaceta de literatura (1788-1795), ont été étudiés principalement dans le contexte historique de la création de la nation mexicaine et que les intentions patriotiques ou proto-nationales qui lui ont été prêtées méritent d’être nuancées. Effectivement, bien qu’il ait publié plusieurs textes susceptibles de contribuer à améliorer certains domaines de l’économie américaine, tels que les activités minières, l’agriculture et les arts manuels, l’auteur révèle à travers son discours un désir de participer, au moyen de ses journaux, au mouvement scientifique européen. En ce sens, nous défendons l’hypothèse qu’Alzate ait choisi de pratiquer un type de journalisme spécifique, inspiré notamment du Journal des Sçavans (1665) et du Journal de Physique (1771-1773), qui lui permettrait de s’adresser autant à ses compatriotes, qu’aux membres de la République des Lettres. Nous présentons une étude comparative des similarités qui existent entre les publications d’Alzate et les deux journaux français ci-haut mentionnés, notamment en ce qui concerne les buts énoncés par leurs éditeurs ainsi que les modalités discursives et les thèmes qui les caractérisent. Dans le même ordre d’idée, nous soutenons que les publications d’Alzate présentent plusieurs des éléments clés qui définissent les journaux savants produits en Europe durant le dix-huitième siècle selon les études réalisées par Jean-Pierre Vittu. Enfin, nous expliquons comment le modèle du «journal savant» a été adapté par Alzate aux particularités de la Nouvelle-Espagne. Nous abordons, entre autres, les questions de la censure, de la critique et du manque de ressources financières dont il a souffert, facteurs qui, selon nos études, ont façonné l’entreprise du personnage. D’autre part, nous analysons les attitudes scientifiques adoptées par Alzate en tant que membre de la République des Lettres. Nous examinons aussi les principales sources de savoir qu’il a préconisées en tant qu’auteur afin d’accomplir certains devoirs propres aux membres de cette communauté.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Des études de liaison et d’association génétiques ont permis d’identifier certains des facteurs de risque génétiques aux maladies inflammatoires de l’intestin (MII) dans la région chromosomique 3p21. Dans cette région, le polymorphisme nucléotidique simple (SNP) codant non-synonyme du gène MST1, rs3197999, encodant pour la mutation R689C, a été associé et répliqué à la fois à la colite ulcéreuse (CU) et à la maladie de Crohn (MC). Un autre SNP, corrélé à des SNP codants non-synonymes du gène MST1R, a également été associé à la MC. Afin de déterminer si d’autres variantes des gènes MST1 et MST1R sont associés à la CU, nous avons testé pour association des SNP de ces gènes. Seul un proxy de R689C a montré un signal d’association significatif aux MII, ce qui suggère que R689C est la variante causale aux MII dans le gène MST1. En cherchant à déterminer si la région 3p21 contenait plusieurs signaux d’association mutuellement indépendants, trois SNP ont été identifiés comme possible facteurs de risque indépendants, et ont été génotypés dans des cas de CU et de MC et des témoins, puis nos résultats d’association ont été combinés à ceux provenant de trois autres cohortes indépendantes. Les trois SNP, R689C (MST1), rs6802890 et rs7629936 (CDHR4), sont associés aux MII, mais une étude d’association conditionnelle suggère qu’il existe en fait deux signaux d’association mutuellement indépendants dans la région 3p21. Le signal principal provient de R689C, une mutation de la protéine MSP. Cette protéine a un rôle dans l’inflammation chez les macrophages murins, et la migration, la cicatrisation et la survie chez les cellules épithéliales. Dans cette étude, le rôle de la MSP a été investigué dans des modèles de macrophages humains et de cellules épithéliales de côlon, et seule la phosphorylation d’AKT, un acteur dans la voie de signalisation de la survie cellulaire, a été modulée par la MSP dans nos modèles. Ce projet a donc permis d’apporter des connaissances sur les facteurs de risques génétiques aux MII dans la région 3p21, en identifiant 2 signaux d’association indépendants, et en nous informant sur le rôle de MST1, duquel provient le signal d’association principal, chez les cellules humaines.
Resumo:
La récidive sexuelle est un sujet d’intérêt pour plusieurs chercheurs et intervenants qui travaillent auprès des délinquants sexuels. Afin de mieux prévenir la récidive sexuelle, il importe de bien connaître les causes sous-jacentes à cette problématique. De cette manière, il sera possible d’élaborer des programmes de traitement efficaces et spécifiques à la problématique. Au cours des dernières années, les études sur les prédicteurs de la récidive sexuelle ont mis l’accent essentiellement sur les prédicteurs statiques, mais aussi et de plus en plus sur les prédicteurs dynamiques. Cependant, il ressort de ces études que les caractéristiques inhérentes à l’implication du délinquant à l’intérieur de son programme de traitement ont été peu étudiées. Conséquemment, le but de cette étude est d’analyser les prédicteurs dynamiques de la récidive, l’alliance thérapeutique, la motivation en cours de traitement et le support social en lien à la récidive sexuelle. Pour ce faire, un échantillon de 299 agresseurs sexuels adultes de sexe masculin est pris en considération. Les données pour mener à terme les analyses statistiques sont recueillies avant le début du traitement et en cours de traitement. Trois types de récidive sont considérés : 1) sexuelle, 2) violente, 3) générale. Les variables indépendantes portent sur des outils psychométriques et sont de deux ordres : 1) pré-traitement, 2) en cours de traitement. Deux variables contrôles sont utilisées : 1) traitement complété ou non, 2) type de traitement; cognitivo-comportemental ou mixte. Ainsi, des analyses préliminaires (test T pour groupes indépendants) sont effectuées afin de sélectionner les variables utilisées pour la réalisation des analyses de survie. En raison de la faible prévalence de récidive sexuelle (5,4%), seules les récidives violentes (10,5%) et générales (18,7%) sont considérées. L’étude nous apprend que les résultats aux analyses de survie pour les récidives violentes et générales tendent à être en continuité à celles retrouvées dans les études existantes sur le sujet. Effectivement, l’étude actuelle informe de la pertinence de compléter un programme de traitement comme facteur de protection contribuant à réduire le risque probable de récidive. Le fait de présenter des croyances pédophiliques ou encore, de ne pas présenter de traits de personnalité compulsive sont des facteurs qui contribuent à augmenter les risques relatifs de récidive criminelle.
Resumo:
La pollution microbienne des eaux récréatives peut engendrer un risque pour la santé des populations exposées. La contamination fécale de ces eaux représente une composante importante de ce risque, notamment par la présence possible d’agents pathogènes et par l’exposition à des micro-organismes résistants aux antimicrobiens. Les sources de pollution fécale sont multiples et incluent entre autres les activités agricoles et les productions animales. Ce projet visait donc à mieux comprendre les facteurs influençant la qualité microbiologique des eaux récréatives du Québec méridional, en ciblant le rôle possible des activités agricoles, ainsi qu`à proposer et évaluer de nouvelles sources de données pouvant contribuer à l’identification de ces facteurs. Dans un premier temps, une évaluation de la présence d’Escherichia coli résistants aux antimicrobiens dans les eaux récréatives à l’étude a été effectuée. À la lumière des résultats de cette première étude, ces eaux représenteraient une source de micro-organismes résistants aux antimicrobiens pour les personnes pratiquant des activités aquatiques, mais l’impact en santé publique d’une telle exposition demeure à déterminer. Les déterminants agroenvironnementaux associés à la présence de micro-organismes résistants aux antimicrobiens ont par la suite été explorés. Les résultats de ce chapitre suggèrent que les activités agricoles, et plus spécifiquement l’épandage de fumier liquide, seraient reliées à la contamination des eaux récréatives par des bactéries résistantes aux antimicrobiens. Le chapitre suivant visait à identifier des déterminants agroenvironnementaux temps-indépendants d’importance associés à la contamination fécale des eaux à l’étude. Différentes variables, regroupées en trois classes (activités agricoles, humaines et caractéristiques géohydrologiques), ont été explorées à travers un modèle de régression logistique multivarié. Il en est ressorti que les eaux récréatives ayant des sites de productions de ruminants à proximité, et en particulier à l’intérieur d’un rayon de 2 km, possédaient un risque plus élevé de contamination fécale. Une association positive a également été notée entre le niveau de contamination fécale et le fait que les plages soient situées à l’intérieur d’une zone urbaine. Cette composante nous permet donc de conclure qu’en regard à la santé publique, les eaux récréatives pourraient être contaminées par des sources de pollution fécale tant animales qu’humaines, et que celles-ci pourraient représenter un risque pour la santé des utilisateurs. Pour terminer, un modèle de régression logistique construit à l’aide de données issues de la télédétection et mettant en association un groupe de déterminants agroenvironnementaux et la contamination fécale des eaux récréatives a été mis au point. Ce chapitre visait à évaluer l’utilité de telles données dans l’identification de ces déterminants, de même qu`à discuter des avantages et contraintes associées à leur emploi dans le contexte de la surveillance de la qualité microbiologique des eaux récréatives. À travers cette étude, des associations positives ont été mises en évidence entre le niveau de contamination fécale des eaux et la superficie des terres agricoles adjacentes, de même qu’avec la présence de surfaces imperméables. Les données issues des images d’observation de la Terre pourraient donc constituer une valeur ajoutée pour les programmes de suivi de la qualité microbiologique de ces eaux en permettant une surveillance des déterminants y étant associés.
Resumo:
Les incorporations des mémoires épisodiques dans les rêves apparaissent en formes fragmentées et suivent un modèle temporel distinct qui suit une courbe sinusoïdale. Ce modèle est caractérisé par les incorporations immédiates, qui apparaissent 1-2 jours après l’événement (effet de résidus diurnes), et les incorporations tardives, qui apparaissent 5-7 jours après l’événement (effet de délai). Ces deux effets sont considérés comme des liens entre les processus de consolidation de la mémoire et la formation du rêve. Cette courbe temporelle a été observée pour une variété de stimuli expérimentaux. Cependant, aucune étude à date n’a démontré que le contenu des rêves réagit aux événements diurnes d’une manière plus générale et non-spécifique. Le but de notre étude était d’examiner si deux événements qualitativement distincts, un séjour nocturne au laboratoire (LAB), considéré comme un événement interpersonnel, et une tâche de réalité virtuelle (RV), considérée comme un événement non-interpersonnel, sont intégrés de façon différente dans le contenu onirique. Selon nos hypothèses, 1) les éléments spécifiques liés au LAB et à RV seraient incorporés dans les rêves avec des patrons tendances temporels différents, et 2) les incorporations spécifiques seraient associées à des changements plus généraux dans le locus de contrôle (LoC) du rêve. Vingt-six participants ont passé une nuit dans le laboratoire, ont été exposé à une tâche de RV, et ont rempli un journal de rêve pendant 10 jours. Les rapports de rêve ont été cotés pour les éléments spécifiques portant sur LAB et sur RV, et pour l'évolution générale de LoC du rêve. Nos deux hypothèses ont été confirmées: 1) les incorporations de LAB et RV sont négativement corrélées et apparaissent dans le rêve selon des modèles temporels différents. Les incorporations du LAB ont suivi une courbe sinusoïdale en forme de U, avec un effet de résidu diurne et un effet de délai. Les incorporations de RV ont suivi un patron différent, et ont eu un maximum d’incorporations au jour 4. 2) les scores du LoC du rêve étaient plus externes pour le jour 1 (max incorporations du LAB) et plus internes pour le jour 4 (max incorporations de RV). Ces modèles d'incorporation distincts peuvent refléter des différences dans la façon dont les deux événements ont été traités par les processus de consolidation de la mémoire. Dans ce cas, une expérience interpersonnelle (LAB) était incorporée plus tôt dans le temps. Les résultats suggèrent que LoC du rêve reflète les processus de mémoire plus généraux, qui affectent le contenu du rêve entier, et qui sont partiellement indépendants des incorporations spécifiques.
Resumo:
Le risque cardiométabolique (RCM) représente l’ensemble de tous les facteurs de risque pour les maladies cardiovasculaires et le diabète de type 2, incluant les facteurs de risque traditionnels et ceux émergents. Les évidences indiquent que la résistance à l’insuline, l’inflammation et le stress oxydant jouent un rôle clé dans le RCM, bien que l’acteur initiateur des altérations métaboliques caractéristiques du RCM reste encore à définir. Les femmes post-ménopausées constituent un sous-groupe important de la population puisque le risque de complications cardiométaboliques augmente après la ménopause. Les facteurs de RCM peuvent être modulés par l’alimentation, l’activité physique et la perte de poids. Alors que l’étude de nutriments / aliments spécifiques a permis de mieux comprendre l’implication de l’alimentation dans le RCM, celle de la qualité de l’alimentation est prometteuse. L’activité physique a des effets bénéfiques sur le RCM bien démontrés chez des personnes actives. Cependant, la relation entre la dépense énergétique et le RCM chez des individus sédentaires a été moins investiguée. De même, peu ou pas de données existent quant à une interaction synergique possible entre l’alimentation et l’activité physique sur le RCM. L’objectif de la présente thèse est d’investiguer les relations entre l’alimentation, l’activité physique, le stress oxydant et le RCM chez des femmes post-ménopausées en surpoids ou obèses, sédentaires et sans autres complications métaboliques. Les résultats montrent que d’une part, chez ces femmes sédentaires, une dépense énergétique active (DÉAP) élevée est associée à un meilleur profil inflammatoire, indépendamment de l’adiposité. D’autre part, il existe une relation synergique entre la qualité alimentaire et la DÉAP associée à un meilleur RCM. Une qualité alimentaire élevée combinée à une DÉAP élevée est associée à un meilleur profil lipidique et lipoprotéique et à une inflammation sub-clinique moindre, indépendamment de l’adiposité. Par ailleurs, dans une étude pilote, seuls des effets indépendants des changements de la qualité alimentaire et de la DÉAP sur les changements dans les facteurs de RCM ont été observés suite à cette diète hypocalorique de 6 mois, indépendamment du changement de l’adiposité encouru. En effet, au-delà de la réduction de l’adiposité et de l’amélioration du profil lipoprotéique induites par l’intervention, l’amélioration de la qualité alimentaire et de la DÉAP est associée, indépendamment l’une de l’autre, à une meilleure pression artérielle et un meilleur profil lipidique. Par ailleurs, une modification du système glutathion, un des systèmes antioxydants les plus communs de l’organisme, est associée à un RCM élevé. Une activité élevée de la glutathion peroxydase est associée à une résistance à l’insuline et à une épaisseur plus importante de l’intima-media de la carotide. Ces relations pourraient être médiées par un stress réducteur. En conclusion, l’adoption d’une saine alimentation et la pratique d’activités physiques doivent être encouragées dans les interventions visant à contrer l’obésité et ses complications, même en absence d’un changement d’adiposité. D’autre part, l’activité de la glutathion peroxydase pourrait être un paramètre impliqué dans le développement de désordres cardiométaboliques sub-cliniques et asymptomatiques chez des femmes obèses. D’autres investigations sont requises pour confirmer ces observations et élucider les mécanismes d’action impliqués.
Resumo:
L’estime de soi joue un rôle central lorsqu’il est question de prédire les réactions des individus au feedback. En dépit de son influence indéniable sur les réactions des individus au feedback en contexte d’évaluation de potentiel, peu d’études se sont attardées aux facteurs pouvant en atténuer l’effet dans le cadre d’une telle démarche. Cette thèse vise à combler ce manque à travers deux articles empiriques répondant chacun à plusieurs objectifs de recherche. Dans cette optique, des données ont été amassées auprès de deux échantillons indépendants de candidats (étude 1, N = 111; étude 2, N = 153) ayant réalisé une évaluation de potentiel dans une firme-conseil spécialisée en psychologie industrielle. Le premier article vise à tester deux théories relatives à l’estime de soi s’affrontant lorsqu’il est question de prédire les réactions cognitives au feedback, la théorie de l’auto-valorisation et de l’auto-vérification. Pour mieux comprendre ce phénomène, l’influence de l’estime de soi et de la valence décisionnelle du feedback sur les deux composantes de l’appropriation cognitive du feedback en contexte d’évaluation, l’acceptation et la conscientisation, a été testé. Les résultats soutiennent les postulats de la théorie d’auto-valorisation lorsqu’il est question de prédire l’acceptation du feedback. En contrepartie, les résultats offrent peu de soutien à la théorie de l’auto-vérification dans la prédiction de la conscientisation à l’égard du feedback. Le second article vise à identifier des leviers modulables pour influencer favorablement les réactions des individus ayant une plus faible estime d’eux-mêmes. Pour ce faire, deux variables relatives à l’influence de la source ont été ciblées, la crédibilité perçue et les pratiques de confrontation constructive. Cet article comprend deux études, soit une première ayant pour objectif de valider un instrument mesurant la crédibilité perçue de la source et une seconde examinant les relations entre trois déterminants, soit l’estime de soi du candidat, la crédibilité perçue de la source et les pratiques de confrontation constructive, et deux réactions cognitives au feedback, l’acceptation et la conscientisation. Les analyses de la première étude font ressortir que l’échelle de crédibilité perçue présente des qualités psychométriques satisfaisantes et les résultats corroborent une structure unifactorielle. Les résultats de la seconde étude indiquent que les trois déterminants étudiés sont positivement reliés à l’acceptation et à la conscientisation. Les effets d’interaction significatifs font ressortir des conditions favorisant l’acceptation et la conscientisation chez les individus ayant une plus faible estime d’eux-mêmes. La crédibilité perçue atténue la relation entre l’estime de soi et l’acceptation alors que la confrontation constructive modère les relations entre l’estime de soi et, tant l’acceptation que la conscientisation. Enfin, la crédibilité perçue et la confrontation constructive interagissent dans la prédiction de la conscientisation, faisant ainsi ressortir l’importance d’établir sa crédibilité pour augmenter l’effet positif de la confrontation constructive. Les apports théorique et conceptuel de chacun des articles ainsi que les pistes d’intervention pratiques en découlant sont discutés séparément et repris dans une conclusion globale. Les retombées de cette thèse, tant sur le plan de la recherche que de l'intervention, sont également abordées dans cette dernière section.
Resumo:
HYAL-1 (hyaluronidase-1) appartient à la famille des hyaluronidases connues pour leur rôle dans la dégradation de l’acide hyaluronique. L’expression de HYAL-1 est élevée dans de nombreux type de cancers, notamment dans le cancer de la prostate, de la vessie, des reins et du sein où il est impliqué dans la croissance tumorale et les métastases. Récemment notre laboratoire a aussi démontré une expression élevée de HYAL-1 dans le cancer épithélial de l’ovaire (CEO) de type mucineux et à cellules claires, expression qui est inversement corrélée à celle du récepteur de l’oestrogène alpha (REα). Cependant, malgré le fait que le rôle de HYAL-1 dans le cancer soit bien établit, le mécanisme de sa régulation reste encore inconnu. Le REα est un facteur de transcription qui suite à sa liaison avec son ligand va réguler l’expression de plusieurs gènes. Le REα ainsi stimulé par l’hormone va activer la transcription de ces gènes cibles mais il est connu maintenant qu’une grande partie des gènes régulés par le REα sont en réalité réprimés par ce récepteur. Dans ce travail nous proposons d’étudier le mécanisme de la régulation du gène HYAL-1 par le REα dans le CEO à cellules claires et dans le cancer du sein. L’expression ectopique du REα dans la lignée TOV21G (RE-) de même que le traitement de la lignée MCF-7 (RE+) avec de l’oestrogène a induit une diminution du niveau d’expression de l’ARN m de HYAL-1. Ces résultats nous ont permis de confirmer que HYAL-1 est un gène cible du REα. Il est aussi connu que le REα peut exercer son action par différents mécanismes d’action, entre autres en interagissant avec une séquence d’ADN appelée élément de réponse à l’oestrogène (ERE), retrouvé sur le promoteur des gènes cibles ou bien indirectement par des interactions protéine-protéine en se liant à d’autres facteur de transcription tels que Sp1. Après avoir identifiés de telles séquences sur le promoteur proximal de HYAL-1, (1 ERE proximal à -900 pb, 3 distaux à -32350 pb, 48430, -50130 pb du site d’initiation de la transcription) en plus des 2 Sp1 connus (-60 et – 1020pb), nous avons démontrés par immunoprécipitation de la chromatine que le REα est recruté sur le promoteur de HYAL-1 au niveau de l’ERE proximal -900 pb et du distal -32350 pb de même que sur le site Sp1 -1020 pb. De plus, l’activité biologique de l’ERE -900 pb et du ii Sp1-1020pb à été confirmée par des essais de gènes rapporteurs à la luciférase. Avec son rôle connu dans la tumorigenèse, l’identification de HYAL-1 comme gène cible du REα pourrait être une avenue intéressante pour le traitement des cancers hormono-indépendants.
Resumo:
Objectif : Récemment, un nouvel appareil issu de la technologie du Forsus™ et visant à corriger les malocclusions de classe III a été mis sur le marché et se popularise dans la pratique orthodontique : le Tandem Forsus Maxillary Corrector (TFMC). L’objectif de la présente étude est de mesurer les effets squelettiques, l’influence réelle sur la croissance, et les effets dento-alvéolaires du port du TFMC. Matériel et méthodes : 14 patients présentant une malocclusion de classe III (âge moyen de 9 ans 6 mois) traités par le même orthodontiste ont participé à cette étude prospective. Le groupe consiste en 10 garçons et 4 filles. Le Tandem Forsus Maxillary Corrector est porté de 12 à 14 heures par jour jusqu’à l’obtention d’une surcorrection du surplomb horizontal et une relation dentaire de classe I. Le traitement est généralement d’une durée de 8 à 9 mois. Des radiographies céphalométriques latérales prises avant (T1) et après (T2) le traitement ont été analysées afin de déterminer les changements dentaires et squelettiques. Les résultats ont été comparés à un groupe contrôle composé de 42 enfants provenant du Centre de croissance de l’Université de Montréal. Les radiographies ont été tracées et analysées de manière aveugle à l’aide du logiciel Dolphin Imaging (ver 11.0, Patterson Dental, Chatsworth, California). L’erreur sur la méthode a été évaluée avec la formule de Dahlberg, le coefficient de corrélation intra-classe et l’indice de Bland-Altman. L’effet du traitement a été évalué à l’aide du test t pour échantillons appariés. L’effet de la croissance pour le groupe contrôle a été calculé à l’aide d’un test t pour échantillons indépendants. Résultats : L’utilisation du TFMC produit un mouvement antérieur et une rotation antihoraire du maxillaire. De plus, il procline les incisives supérieures et rétrocline les incisives inférieures. Une rotation antihoraire du plan occlusal contribue aussi à la correction de la malocclusion de classe III. Par contre, le TFMC ne semble pas avoir pour effet de restreindre la croissance mandibulaire. Conclusion : La présente étude tend à démontrer que le port de l’appareil TFMC a un effet orthopédique et dento-alvéolaire significatif lors du traitement correctif des malocclusions modérées de classe III.
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Au Mali, une loi hospitalière a été adoptée en 2002 pour définir le cadre institutionnel d’une réforme majeure. Cette loi a décrété des transformations substantielles de la structure interne, tant administrative que clinique des établissements publics hospitaliers notamment l’implication des populations locales dans la prise de décision de l’établissement, l’autonomie administrative et financière à travers la délégation budgétaire et l’implication des professionnels de santé à la gestion, l’intégration des services de spécialité et la participation du secteur privé au service public hospitalier. Cependant, la capacité des hôpitaux à réussir les transformations prévues a été remise en question par la majorité des acteurs internes et externes. L’objectif de cette thèse a été d’étudier de quelle manière l’hôpital malien se transforme sous la pression de la décentralisation des pouvoirs de l’État et d’étudier comment les groupes d’acteurs réagissent face à ces changements à partir de deux cadres d’analyse. Le premier cadre intègre les caractéristiques essentielles des transformations hospitalières en termes de différents types de décentralisation et le second cadre inspiré des travaux de Crozier et coll. (1977) analyse les jeux de pouvoir entre les groupes d’acteurs hospitaliers selon deux niveaux à savoir un niveau stratégique et systémique. Pour cela, nous avons conduit une étude multiple de deux cas et utilisé trois modes de collecte des données à savoir les entrevues semi-structurées auprès des informateurs clés, l’analyse documentaire, et l’observation lors de réunions. Dans un premier temps, les analyses ont révélé pour les changements intervenus dans la structure, selon l’importance des responsabilités attribuées à l’hôpital public, (1) plusieurs variantes de la décentralisation. Globalement, l’intention politique était focalisée sur une délégation puis une déconcentration et une dévolution; les mécanismes mis en place ont penché plus vers une déconcentration puis une délégation et une dévolution tandis que les transformations réellement effectuées dans les établissements publics hospitaliers ont plutôt confirmé une déconcentration en plus d’une délégation particulièrement dans le cas de l’implication des populations locales dans la gestion hospitalière. Tandis que l’hôpital public pouvait faire des recettes à partir du recouvrement partiel des coûts des soins auprès des usagers, l’État gardait une main forte sur la gestion financière et la gestion du personnel, et définissait les directives et les objectifs à poursuivre. (2) Les analyses apportent une compréhension des liens existant entre les différents éléments du processus de réforme, le type de mécanisme mis en place dans le cadre de la réforme semble déterminer le type de transformation effectué selon les fonctions que peut assurer l’hôpital public. La logique traduit le passage de la délégation vers une déconcentration qui est jugée comme étant la forme la moins poussée d’une décentralisation. Dans un deuxième temps, les résultats confirment la présence de conflit entre les normes professionnelles établies et reconnues par les professionnels de santé et les normes organisationnelles et institutionnelles mises en avant par la réforme. Elles sont défendues par la majorité des gestionnaires qui sont imputables face aux autorités alors que les normes professionnelles dominent dans les services cliniques. Les deux cas ont mis en évidence le soutien de leur direction générale, il existait une tension dans les réactions des médecins, qui a été variable selon le type de changement structurel visé, tandis que les infirmiers se sont montrés plutôt accessibles face aux nouvelles mesures introduites par la réforme. L’une des originalités de cette thèse tient au fait que très peu de travaux sur les pays en développement ont tenté d’opérationnaliser de façon multidimensionnelle les concepts de décentralisation avant d’analyser les variantes susceptibles d’exister entre eux et les stratégies développées par les groupes d’acteurs de l’hôpital. En outre, alors que la pertinence de la prise en compte des caractéristiques du contexte organisationnel dans la mise en place des réformes des systèmes de soins est au cœur des préoccupations, ce travail est l’un des premiers à analyser l’influence de l’interaction entre le processus de réforme hospitalière et les prises de position des acteurs. Les résultats de cette thèse fournissent des recommandations aux décideurs politiques et aux gestionnaires quant aux modes de changement structurel à privilégier ou en éviter dans la planification, l’exécution et la mise en œuvre du processus de réforme hospitalière en fonction des caractéristiques du contexte organisationnel sanitaire. La planification de la réforme est essentielle : Élaborer un projet d’établissement discuté et validé par l’ensemble des acteurs de l’hôpital. Ce projet doit être compatible avec les objectifs du schéma d’organisation sanitaire nationale et déterminer les moyens en personnel et en équipements, dont l’hôpital doit disposer pour réaliser ses objectifs. Concevoir un cadre budgétaire et financier hospitalier flexible (qui va alléger la chaine de prise de décision), sur lequel reposera le nouveau système de gestion des hôpitaux. La capacité de mobilisation et d’exécution des ressources hospitalières devrait renforcer l’autonomie de gestion. Enfin, promouvoir une culture de l’évaluation et faciliter les évaluations périodiques de la mise en œuvre de la réforme hospitalière par des organismes d’évaluation externes et indépendants.
Resumo:
Grâce aux nanotechnologies, l’être humain peut maîtriser la matière à l’échelle du nanomètre — soit au niveau des atomes et des molécules. Les matériaux obtenus suite à ces manipulations présentent des propriétés nouvelles qui les rendent très intéressants pour nombre d’applications techniques, et ce dans tous les domaines technoscientifiques. Ainsi, les nanotechnologies sont souvent considérées comme les prémisses d’une profonde révolution technologique et sociale. Toutefois, si les nanotechnologies intéressent investisseurs, gouvernement, entreprises et universités, elles soulèvent aussi des questions éthiques, notamment au sujet de leur toxicité, de leurs retombées et de la modification de l’être humain. À ces questions s’ajoutent plusieurs interrogations sur la gouvernance des nanotechnologies : comment, en effet, encadrer en amont le développement de celles-ci pour éviter d’éventuelles conséquences néfastes en aval? Parmi ces interrogations, le rôle des médias dans les relations entre les développeurs de nanotechnologies et le public est souvent mentionné. Certains voient dans les médias un acteur auquel les chercheurs pourraient recourir pour établir un dialogue avec le public afin d’assurer un développement harmonieux des nanotechnologies. Si cette recommandation semble très pertinente, il n’existe, à notre connaissance, aucune étude empirique pour en vérifier la faisabilité auprès des acteurs concernés (chercheurs, médias, etc.). Dans le cadre de cette thèse, nous avons donc voulu examiner et analyser les perceptions des chercheurs et des journalistes québécois envers des initiatives médiatiques pour baliser le développement des nanotechnologies. Pour ce faire, nous avons procédé à une étude qualitative auprès de vingt (20) chercheurs en nanobiotechnologies/nanomédecine et dix (10) journalistes spécialisés en vulgarisation scientifique. L’analyse des entretiens avec les répondants a révélé que si les acteurs rencontrés sont favorables envers de telles initiatives, il existe plusieurs contraintes pouvant gêner une telle entreprise. Suite à l’examen de ces contraintes, nous avons suggéré des initiatives concrètes que les chercheurs québécois pourraient mettre en place pour mieux baliser le développement des nanotechnologies à l’aide d’un dialogue avec le public. Ces suggestions consistent notamment à créer des médias privés pour les chercheurs, à recourir aux médias indépendants et à investir le web. De telles initiatives, cependant, ne peuvent s’obtenir qu’au prix d’un remaniement des priorités des chercheurs.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.