998 resultados para Partage de coûts
Resumo:
Parmi l’ensemble des désordres métaboliques retrouvés en insuffisance rénale chronique (IRC), la résistance à l’insuline demeure l’un des plus importantes à considérer en raison des risques de morbidité et de mortalité qu’elle engendre via les complications cardiovasculaires. Peu d’études ont considéré la modulation de transporteurs de glucose comme mécanisme sous-jacent à l’apparition et à la progression de la résistance à l’insuline en IRC. Nous avons exploré cette hypothèse en étudiant l’expression de transporteurs de glucose issus d’organes impliqués dans son homéostasie (muscles, tissus adipeux, foie et reins) via l’utilisation d’un modèle animal d’IRC (néphrectomie 5/6e). La sensibilité à l’insuline a été déterminée par un test de tolérance au glucose (GTT), où les résultats reflètent une intolérance au glucose et une hyperinsulinémie, et par les études de transport au niveau musculaire qui témoignent d’une diminution du métabolisme du glucose en IRC (~31%; p<0,05). La diminution significative du GLUT4 dans les tissus périphériques (~40%; p<0,001) peut être à l’origine de la résistance à l’insuline en IRC. De plus, l’augmentation de l’expression protéique de la majorité des transporteurs de glucose (SGLT1, SGLT2, GLUT1; p<0,05) au niveau rénal en IRC engendre une plus grande réabsorption de glucose dont l’hyperglycémie subséquente favorise une diminution du GLUT4 exacerbant ainsi la résistance à l’insuline. L’élévation des niveaux protéiques de GLUT1 et GLUT2 au niveau hépatique témoigne d’un défaut homéostatique du glucose en IRC. Les résultats jusqu’ici démontrent que la modulation de l’expression des transporteurs de glucose peut être à l’origine de la résistance à l’insuline en IRC. L’impact de la parathyroïdectomie (PTX) sur l’expression du GLUT4 a été étudié étant donné que la PTX pourrait corriger l’intolérance au glucose en IRC. Nos résultats démontrent une amélioration de l’intolérance au glucose pouvant être attribuable à la moins grande réduction de l’expression protéique du GLUT4 dans les tissus périphériques et ce malgré la présence d’IRC. L’excès de PTH, secondaire à l’hyperparathyroïdie, pourrait alors être à l’origine de la résistance à l’insuline en IRC en affectant l’expression du GLUT4. L’IRC partage de nombreuses similitudes avec le prédiabète quant aux défaillances du métabolisme du glucose tout comme l’hyperinsulinémie et l’intolérance au glucose. Aucune étude n’a tenté d’évaluer si l’IRC pouvait ultimement mener au diabète. Nos résultats ont par ailleurs démontré que l’induction d’une IRC sur un modèle animal prédisposé (rats Zucker) engendrait une accentuation de leur intolérance au glucose tel que constaté par les plus hautes glycémies atteintes lors du GTT. De plus, certains d’entre eux avaient des glycémies à jeun dont les valeurs surpassent les 25 mmol/L. Il est alors possible que l’IRC puisse mener au diabète via l’évolution de la résistance à l’insuline par l’aggravation de l’intolérance au glucose.
Resumo:
Dans le cadre de la Western Climate Iniative, le Québec a déployé en 2012, un système de plafonnement et d’échange de droits d’émission de gaz à effet de serre (SPEDE). Il s’agit de l’un des premiers régimes de ce type en Amérique du Nord et celui-ci pourrait à terme, constituer l'un des maillons d’un marché commun du carbone à l’échelle du continent. Toutefois, le SPEDE appartient à une catégorie d’instruments économiques de protection de l’environnement encore peu connue des juristes. Il s’inscrit en effet dans la régulation économique de l’environnement et repose sur des notions tirées de la théorie économique, dont la rareté, la propriété et le marché. La thèse s’insère donc dans le dialogue entre juristes et économistes autour de la conception et de la mise en œuvre de ce type d’instrument. Afin d’explorer son architecture et de révéler les enjeux juridiques qui le traversent, nous avons eu recours à la méthode de l’analyse économique du droit. Celle-ci permet notamment de montrer les dynamiques d'incitation et d’efficacité qui sont à l'œuvre dans les règles qui encadrent le SPEDE. Elle permet également à donner un aperçu du rôle décisif joué par la formulation des règles de droit dans l’opérationnalisation des hypothèses économiques sous-jacentes à cette catégorie d’instrument. L’exploration est menée par l’entremise d’une modélisation progressive de l’échange de droits d’émission qui prend en compte les coûts de transaction. Le modèle proposé dans la thèse met ainsi en lumière, de manière générale, les points de friction qui sont susceptibles de survenir aux différentes étapes de l'échange de droits d'émission et qui peuvent faire obstacle à son efficacité économique. L’application du modèle aux règles du SPEDE a permis de contribuer à l’avancement des connaissances en donnant aux juristes un outil permettant de donner une cohérence et une intelligibilité à l’analyse des règles de l’échange. Elle a ainsi fourni une nomenclature des règles encadrant l’échange de droits d’émission. Cette nomenclature fait ressortir les stratégies de diversification de l’échange, d’institutionnalisation de ses modalités ainsi que les enjeux de la surveillance des marchés, dont celui des instruments dérivés adossés aux droits d’émission, dans un contexte de fragmentation des autorités de tutelle.
Resumo:
alexandre.chadi@umontreal.ca
Resumo:
Travail réalisé à l'EBSI, Université de Montréal, sous la direction de M. Yvon Lemay dans le cadre du cours SCI6111 - Politique de gestion des archives, à l'automne 2013.
Resumo:
Les ataxies forment un groupe de maladies neurodégénératives qui sont caractérisées par un manque de coordination des mouvements volontaires. Mes travaux ont porté sur une forme d'ataxie à début tardif (LOCA), après l’âge de 50 ans. Les principales caractéristiques cliniques sont: atrophie cérébelleuse à l’IRM (88%), dysarthrie (81%), atrophie du lobe frontal (50%) et nystagmus (52%). La ségrégation dans les familles de cette ataxie est en faveur d’une transmission récessive. Afin d'identifier le gène responsable de LOCA, nous avons recruté 38 patients affectés d'une forme tardive d'ataxie, issus du SLSJ, des Cantons de l’Est ou d’autres régions du Québec. Un premier criblage du génome a été effectué avec des marqueurs microsatellites sur une famille clé. Une analyse de liaison paramétrique nous a suggéré une liaison au chromosome 13 (4.4Mb). Une recherche d’un haplotype partagé entre 17 familles LOCA a diminué la taille de l'intervalle candidat à 1.6Mb, mais l’haplotype s’est avéré fréquent dans la population canadienne-française. Un second criblage du génome avec des marqueurs SNP nous a permis d’évaluer par cartographie d’homozygotie la possibilité qu’une mutation fondatrice partagée dans des sous-groupes de malades. Plusieurs stratégies d'analyse ont été effectuées, entre autre par regroupement régional. Aucun loci candidats ne fut identifié avec confiance. Nous avons donc combiné les données de génotypage avec le séquençage exomique afin d'identifier le gène responsable. L'analyse de six individus atteints nous a permis d'obtenir une liste de variants rare contenant quatre gènes potentiels. Cette analyse doit se poursuivre pour identifier le gène responsable de LOCA.
Resumo:
Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).
Resumo:
Objectifs: Les patients hospitalisés aux soins intensifs (SI) sont souvent victimes d’erreurs médicales. La nature interprofessionnelle des équipes de SI les rend vulnérables aux erreurs de communication. L’objectif primaire du projet est d’améliorer la communication dans une équipe interprofessionnelle de soins intensifs par une formation en simulation à haute fidélité. Méthodologie Une étude prospective randomisée contrôlée à double insu a été réalisée. Dix équipes de six professionnels de SI ont complété trois scénarios de simulations de réanimation. Le groupe intervention était débreffé sur des aspects de communication alors que le groupe contrôle était débreffé sur des aspects techniques de réanimation. Trois mois plus tard, les équipes réalisaient une quatrième simulation sans débreffage. Les simulations étaient toutes évaluées pour la qualité, l’efficacité de la communication et le partage des informations critiques par quatre évaluateurs. Résultats Pour l’issue primaire, il n’y a pas eu d’amélioration plus grande de la communication dans le groupe intervention en comparaison avec le groupe contrôle. Une amélioration de 16% de l’efficacité des communications a été notée dans les équipes de soins intensifs indépendamment du groupe étudié. Les infirmiers et les inhalothérapeutes ont amélioré significativement l’efficacité de la communication après trois sessions. L’effet observé ne s’est pas maintenu à trois mois. Conclusion Une formation sur simulateur à haute fidélité couplée à un débreffage peut améliorer à court terme l’efficacité des communications dans une équipe interprofessionnelle de SI.
Resumo:
Au Vietnam, les informations sur la contamination de la viande de volaille par les salmonelles sont presque limitées. L’étude cherche à comparer la prévalence des salmonelles entre les marchés traditionnels et les supermarchés ainsi qu’entre les carcasses fraîches et congelées en plus de mesurer la température interne au moment de l’achat. Deux cent quarante-cinq carcasses de poulets entiers ont été achetées des marchés et des supermarchés dans sept arrondissements de la ville de Hanoi au Vietnam de juin à juillet 2011. L’échantillonnage a inclu 110 carcasses fraîches de marchés traditionnels (F/M), 109 carcasses fraîches des supermarchés (F/SM) et 26 carcasses congelées des supermarchés (FZ/SM). La température intérieure des carcasses a été évalué au moment de l’achat des carcasses. Salmonella a été isolé à partir de rinçage de carcasses et les isolats ont été sérotypés. La prévalence de carcasses positives pour Salmonella était de 66,5% (163/245) et variait entre les trois catégories : 84,55% (93/110) de F/M, 59,63% (65/109) de F/SM et 19,23% (5/26) de FZ/SM (P<0.05). Pour un total de 25 sérovars détectés, le sérovar principal fut Agona (24,78%) suivi de Albany (20,43%) et enfin Corvallis (10%). Deux des sérovars repérés se retrouvaient sur les mêmes carcasses pour 66 échantillons (26,9%). La température interne des carcasses des marchés traditionnels et des supermarchés était associé une différence significative (P < 0.05) avec une température moyenne de 27,3°C et 15,8°C respectivement. Cette étude dévoile une prévalence élevée de Salmonellaspp.des carcasses de poulets à Hanoi et démontre une difficulté partagée par tous les types de marchés à maintenir une température adéquate des carcasses.
Resumo:
Les services écosystémiques (SE) réfèrent aux bénéfices que produisent et soutiennent la biodiversité et les écosystèmes et qui profitent à l’être humain. Dans beaucoup de cas, ils ne sont pas pris en compte dans le système économique. Cette externalisation des SE engendre des décisions sur l’utilisation du territoire et des ressources naturelles qui ignorent leur contribution à la qualité de vie des communautés. Afin notamment de sensibiliser l’opinion publique à l’importance des SE et de mieux les intégrer dans les processus décisionnels, ont été développées des démarches d’évaluation économique des SE. Dans cette thèse, nous avons cherché à comprendre à la fois comment l’utilisation passée et actuelle des sols dans la région de Montréal affecte la valeur des SE et comment ces aménités naturelles sont perçues et valorisées par la population, dans une perspective d’aménagement futur du territoire. Pour ce faire, nous avons utilisé deux approches : l’analyse spatiale recourant aux systèmes d’information géographique et l’analyse des préférences exprimées par des techniques d’enquête. Pour l’analyse spatiale, nous avons combiné des analyses cartographiques à des valeurs monétaires associées aux SE publiées dans la littérature. Nous avons alors estimé la valeur des écosystèmes d’un territoire par le transfert de bénéfices, de prix de marchés directs et de coûts évités. Cette démarche nous a permis de comprendre la relation entre l’utilisation actuelle du territoire du Grand Montréal écologique et la valeur des services fournis par les écosystèmes, que nous avons estimée à 2,2 milliards de dollars par année. Elle nous a permis aussi de mesurer les effets sur la valeur des SE du changement d’utilisation des sols entre les années 1960 et 2010. Nous avons montré que malgré différentes politiques de contrôle et d’encadrement de l’étalement urbain au cours de cette période, les pertes économiques non marchandes liées aux SE s’élèvent à 236 millions de dollars par année. Pour l’analyse des préférences exprimées, nous avons utlilisé deux méthodes, l’évaluation contingente et le choix multi-attributs, avec l’objectif de mesurer le consentement à payer de répondants pour des variations dans l’aménagement du territoire. Nous avons montré d’une part que les répondants valorisent significativement l’incidence des pratiques agro-environnementales sur la qualité de l’environnement et des paysages en consentant à payer entre 159 et 333 dollars par ménage par année pour une amélioration de la diversité du paysage agricole. D’autre part, leur volonté à payer pour l’amélioration de l’état des milieux humides du Québec est estimée entre 389 et 455 dollars par ménage par année. L’utilisation conjointe des deux méthodes nous a permis d’en comparer les résultats. Nous avons en outre démontré que le choix du format de question de valorisation de l’évaluation contingente affecte la convergence des résultats. Enfin, nous avons proposé des pistes de recherches futures portant sur l’intégration des démarches d’analyse biophysique, économique et politique dans des outils de prise de décision mieux adaptés à la dynamique des écosystèmes, de la biodiversité et des communautés humaines.
Resumo:
Le manuscrit constituant l'annexe 1 a été publié en décembre 2013 sous la référence : Vaccine. 2013 Dec 9;31(51):6087-91.
Resumo:
L’auteur s’intéresse à la question de savoir si le droit du travail américain est plus favorable à l’investissement direct étranger (IDE) que le droit du travail québécois dans le contexte de l’ALENA. Pour ce faire, il fait une revue de littérature sur les déterminants de la localisation de l’IDE afin de clarifier l’importance du droit du travail national dans les décisions d’investissement des entreprises multinationales. Celle-ci révèle que la localisation de l’IDE est un processus complexe et multidimensionnel impliquant un grand nombre de facteurs, dont certains sont associés à la demande, d’autres aux coûts, d’autres aux caractéristiques des pays-hôtes, et d’autres, enfin, au risque. Le droit du travail national, bien que revêtant une certaine importance, n’est qu’un facteur parmi d’autres. Elle révèle également que l’importance relative des déterminants de la localisation de l’IDE, incluant le droit du travail national, varie elle-même en fonction d’autres facteurs, comme le secteur d’activité de l’entreprise, sa stratégie, sa taille et la motivation de l’IDE. Ensuite, il fait une étude de droit comparé entre le Québec et le Massachusetts afin d’identifier les principales différences qui existent entre les deux régimes de droit du travail. Cette étude a permis d’identifier des différences importantes entre les deux systèmes étudiés. Ainsi, dans l’ensemble, le droit du travail applicable au Massachusetts se fonde davantage sur les principes de la liberté contractuelle et du laisser-faire que le droit du travail québécois, qui est beaucoup plus interventionniste. Enfin, l’auteur analyse les différences observées dans le cadre de l’étude de droit comparé à la lumière des conclusions de sa revue de littérature sur les déterminants de la localisation de l’IDE. Il en vient à la conclusion que bien qu’à de nombreux égards le droits du travail québécois s’avère plus avantageux que le droit du travail applicable au Massachusetts aux fins de la localisation de l’IDE, c’est plutôt ce dernier qui, de façon générale, s’avère le plus avantageux à ce chapitre. En effet, dans l’ensemble, le droit du travail québécois est susceptible d’imposer des coûts de main-d’œuvre supérieurs et de réduire la flexibilité du marché du travail davantage que le droit du travail applicable au Massachusetts. Or, considérant que le droit du travail national n’est qu’un facteur parmi d’autres dans la décision de localisation de l’IDE, le Québec n’est pas sans moyens. En effet, il possède d’autres avantages comparatifs qu’il peut faire valoir auprès des entreprises qui œuvrent dans des secteurs d’activités où ces avantages concurrentiels sont valorisés et susceptibles d’être exploités. De plus, considérant que le droit du travail national a un importance relative qui varie elle-même en fonction d’autres facteurs, le droit du travail québécois n’a pas nécessairement le même effet sur tous les investisseurs. Enfin, considérant que le droit du travail remplit des fonctions sociales autant que des fonctions économiques, c’est un faux débat que de mettre l’accent uniquement sur les conséquences « négatives » du droit du travail national sur l’IDE. En effet, c’est faire complètement abstraction de la question des coûts sociaux que le droit du travail permet de prévenir au sein d’une société.
Resumo:
La présente recherche a pour objectif principal d’étudier l’effet que peuvent exercer les normes d’équipe sur le leadership partagé au sein des équipes de travail. Nous voulions vérifier les relations entre trois normes proposées par Day (2007) comme influençant de façon significative le partage du leadership dans les équipes. Il s’agit de la distance hiérarchique, de la sécurité psychologique et de l’orientation vers l’apprentissage. Cette recherche vise également à vérifier l’effet modérateur, d’une part, de l’interdépendance au travail et, d’autre part, celui de la complexité de la tâche sur les relations entre les normes d’équipe et le leadership partagé. Cette recherche se base sur des données secondaires qui ont été recueillies par Vincent Rousseau (professeur à l’Université de Montréal) et Caroline Aubé (professeure à HEC Montréal) auprès de 394 membres appartenant à 77 équipes et auprès de 77 supérieurs immédiats de ces mêmes équipes. L’ensemble de ces participants travaille dans une organisation de sécurité publique canadienne. Les données ont été collectées en utilisant la méthode du questionnaire. Des analyses de régressions ont été utilisées pour vérifier les hypothèses de cette étude. Les résultats montrent que la distance hiérarchique, la sécurité psychologique et l’orientation vers l’apprentissage sont significativement liées au leadership partagé. Ces normes d’équipe sont également fortement reliées entre elles. Les résultats n’ont, cependant, pas permis de confirmer l’effet modérateur de l’interdépendance au travail et de la complexité de la tâche sur les relations entre les normes d’équipe et le leadership partagé. Globalement, les résultats montrent que les gestionnaires tireront avantage à encourager les normes d’équipe associées à une faible distance hiérarchique, à une forte sécurité psychologique et à une orientation davantage axée sur l’apprentissage afin de faciliter l’exercice du leadership partagé et ce, en vue d’améliorer la performance des équipes et de l’organisation.
Resumo:
Full Text / Article complet
Resumo:
Ce mémoire illustre l'évolution de la stratégie du syndicat des TCA-Québec, unité locale 728 représentant les employés de l'usine Kenworth de Sainte-Thérèse, de la fermeture de l'usine en 1996 jusqu'à sa réouverture en 1999. La littérature démontre que la mondialisation des marchés économiques oblige les syndicats à revoir leur stratégie lors de négociations collectives. Parfois, leur survie en dépend. Les résultats de notre étude de cas permettent de déterminer cinq événements clés où le syndicat local revoit sa stratégie pendant ce conflit de travail médiatisé : la négociation collective, l'échec de la négociation menant à une grève générale, la fermeture de l'usine, l'annonce de la réouverture de l'usine ainsi que sa réouverture. L'ensemble des résultats présentés en corrélation avec le modèle d’analyse de David Weil (1994) présente la planification stratégique de ces cinq événements à partir d’un processus intégré qui peut être décomposé en trois principales étapes : la formulation de la stratégie, sa mise en œuvre et son évaluation. Les faits sont colligés chronologiquement en exposant les transformations de la stratégie du syndicat local par l'identification d'indicateurs conçus à partir des facteurs externes évoqués dans le modèle de Weil (1994), à savoir l'analyse de l'environnement technologique, législatif et social, les priorités dictées par les membres, l'allocation des ressources du syndicat, ainsi que l'analyse de l'évaluation avantage coûts versus bénéfices.
Resumo:
En Amérique du Nord, les militants et les juristes ont longtemps cru que les avocats progressistes pourraient offrir des avantages tactiques importants aux mouvements sociaux. Cette perspective optimiste a cédé la place pendant les années 1970 à une attitude critique à l'égard des avocats et des litiges. Les chercheurs se sont interrogés sur l’efficacité d’assimiler les revendications politiques à des atteintes aux droits individuels, pour être ensuite présentées devant les tribunaux. Le litige était perçu comme source d’une influence négative qui favorise l’isolement et l’individualisme. De plus, les chercheurs ont remarqué qu’il y avait le potentiel pour les avocats militants – bien qu’ils soient bien intentionnés – d’exercer leur profession d’une manière qui pourrait donner un sentiment d’impuissance aux autres participants du mouvement social. Les premières versions de cette critique vont souvent assimiler la « stratégie juridique » avec le litige présenté devant les tribunaux judiciaires et géré par les avocats. Une réponse inspirante à cette critique a développée au début des années 2000, avec l'émergence d’un modèle de pratique que les chercheurs aux États-Unis ont nommé « law and organizing ». Des études normatives sur ce modèle offrent des arguments nuancés en faveur d’une pratique militante interdisciplinaire, partagée entre les avocats et les organisateurs. Ces études continuent à attribuer les risques d’individualisation et d’impuissance aux avocats et aux litiges. Selon ce modèle, au lieu de diriger la stratégie, les avocats travaillent en collaboration avec les travailleurs sociaux, les organisateurs et les citoyens pour planifier la stratégie du mouvement social, tout en favorisant l'autonomisation et la mobilisation de la collectivité. La présente thèse offre un examen critique de ce modèle, à travers l'une de ses tactiques bien connues: le traitement des problèmes juridiques individuels par les organisations militantes. La thèse examine les hypothèses fondatrices du modèle « law and organizing », en réinterprétant les problèmes d’individualisation et d’impuissance comme étant des enjeux reconnus dans de multiples disciplines, partout où les acteurs font de l’intervention sur une base individuelle afin de provoquer un changement systémique. La thèse soutient qu’un modèle de la pratique engagée du droit qui associe l'individualisation et l'impuissance exclusivement à la profession d'avocat risque de répondre de façon inadéquate aux deux problèmes. La recherche propose un modèle modifié qui met l'accent sur les options juridiques accessibles aux militants, tout en reconnaissant que la mobilisation et l'autonomisation sont des priorités qui sont partagées entre plusieurs disciplines, même si elles peuvent être traitées de façon particulière à l’intérieur de la profession juridique.