989 resultados para Key exchange protocols
Resumo:
Près d’un quart de siècle que la Securities and Exchange Commission (SEC) ne s’était pas penchée sur le cas de l’information environnementale. C’est chose faite depuis le 8 février 2010. En effet, dans des lignes directrices rendues publiques au premier trimestre 2010, la SEC est venue offrir aux entreprises un outil pour appréhender les exigences qui pèsent sur elles en matière de divulgation concernant le changement climatique. Loin de constituer un nouveau cadre législatif ou de modifier celui existant, ce guide offre l’opportunité d’apporter de la clarté sur la manière dont le changement climatique s’intègre dans le dispositif réglementaire s’imposant aux entreprises nord-américaines. Après avoir présenté le dispositif juridique existant assurant une transparence des données relatives au changement climatique, la position de la SEC quant aux éléments à prendre en compte dans la divulgation des entreprises sera détaillée.
Resumo:
À l’heure où nous écrivons, l’ONU enregistre 33 million de personnes touchées par le VIH/Sida. Dans les perspectives actuelles de lutte contre la propagation de la pandémie, plusieurs moyens peuvent être mis en place : utilisation du condom, dépistage, échange de seringues, abstinence… Mais une question se pose : quels éléments nous influencent dans l’utilisation d’une telle ou telle pratique? Faisant usage des stratégies de marketing social, les campagnes de prévention contre le VIH/Sida mettent l’emphase sur l’empowerment des individus face à leur prise de risque. Par ce biais, on tente de changer certains comportements et d’en adopter de nouveaux plus sécuritaires pour la santé. Nous avons évalué ici trois (3) campagnes de prévention contre le VIH/Sida à Montréal. Le but de cette recherche a été de distinguer les éléments pouvant faciliter la planification des campagnes dans une perspective de diminution de l’incidence du VIH/Sida. Lors de la prise de décisions concernant l'évaluation d'une campagne de prévention de lutte contre le VIH/Sida, plusieurs points fondamentaux sont à considérer : la source de l’information, le message, le canal utilisé, les caractéristiques du récepteur et l’effet désiré par la campagne. Ces aspects sont primordiaux dans la prise de conscience de la campagne. Mais attention, ce type d'évaluation n'est pas conçu pour en démontrer son efficacité. Notre étude nous confirme l’importance de l’évaluation des campagnes de prévention aux différents stades de leurs conceptions. Cette recherche nous pousse à connaître les détails du programme de prévention et ainsi avoir une bonne compréhension du déroulement de l'intervention dans une perspective future d’en expliquer l’efficacité
Resumo:
L’approche d’apprentissage par problèmes (APP) a vu le jour, dans sa forme contemporaine, à la Faculté de médecine de l’Université MacMaster en Ontario (Canada) à la fin des années 1960. Très rapidement cette nouvelle approche pédagogique active, centrée sur l’étudiant et basée sur les problèmes biomédicaux, va être adoptée par de nombreuses facultés de médecine de par le monde et gagner d’autres disciplines. Cependant, malgré ce succès apparent, l’APP est aussi une approche controversée, notamment en éducation médicale, où elle a été accusée de favoriser un apprentissage superficiel. Par ailleurs, les étudiants formés par cette approche réussiraient moins bien que les autres aux tests évaluant l’acquisition des concepts scientifiques de base, et il n’a jamais été prouvé que les médecins formés par l’APP seraient meilleurs que les autres. Pour mieux comprendre ces résultats, la présente recherche a voulu explorer l’apprentissage de ces concepts scientifiques, en tant que processus de construction, chez des étudiants formés par l’APP, à la Faculté de médecine de l’Université de Montréal, en nous appuyant sur le cadre théorique socioconstructivisme de Vygotski. Pour cet auteur, la formation des concepts est un processus complexe de construction de sens, en plusieurs étapes, qui ne peut se concevoir que dans le cadre d’une résolution de problèmes. Nous avons réalisé une étude de cas, multicas, intrasite, les cas étant deux groupes de neuf étudiants en médecine avec leur tuteur, que nous avons suivi pendant une session complète de la mi-novembre à la mi-décembre 2007. Deux grands objectifs étaient poursuivis: premièrement, fournir des analyses détaillées et des matériaux réflectifs et théoriques susceptibles de rendre compte du phénomène de construction des concepts scientifiques de base par des étudiants en médecine dans le contexte de l’APP. Deuxièmement, explorer, les approches de travail personnel des étudiants, lors de la phase de travail individuel, afin de répondre à la question de recherche suivante : Comment la dynamique pédagogique de l’APP en médecine permet-elle de rendre compte de l’apprentissage des concepts scientifiques de base? Il s’agissait d’une étude qualitative et les données ont été recueillies par différents moyens : observation non participante et enregistrement vidéo des tutoriaux d’APP, interview semi-structuré des étudiants, discussion avec les tuteurs et consultation de leurs manuels, puis traitées par diverses opérations: transcription des enregistrements, regroupement, classification. L’analyse a porté sur des collections de verbatim issus des transcriptions, sur le suivi de la construction des concepts à travers le temps et les sessions, sur le role du tuteur pour aider au développement de ces concepts Les analyses suggèrent que l’approche d’APP est, en général, bien accueillie, et les débats sont soutenus, avec en moyenne entre trois et quatre échanges par minute. Par rapport au premier objectif, nous avons effectivement fourni des explications détaillées sur la dynamique de construction des concepts qui s'étend lors des trois phases de l'APP, à savoir la phase aller, la phase de recherche individuelle et la phase retour. Pour chaque cas étudié, nous avons mis en évidence les représentations conceptuelles initiales à la phase aller, co-constructions des étudiants, sous la guidance du tuteur et nous avons suivi la transformation de ces concepts spontanés naïfs, lors des discussions de la phase retour. Le choix du cadre théorique socio constructiviste de Vygotski nous a permis de réfléchir sur le rôle de médiation joué par les composantes du système interactif de l'APP, que nous avons considéré comme une zone proximale de développement (ZPD) au sens élargi, qui sont le problème, le tuteur, l'étudiant et ses pairs, les ressources, notamment l'artefact graphique carte conceptuelle utilisée de façon intensive lors des tutoriaux aller et retour, pour arriver à la construction des concepts scientifiques. Notre recherche a montré qu'en revenant de leurs recherches, les étudiants avaient trois genres de représentations conceptuelles: des concepts corrects, des concepts incomplets et des concepts erronés. Il faut donc que les concepts scientifiques théoriques soient à leur tour confrontés au problème concret, dans l'interaction sociale pour une validation des attributs qui les caractérisent. Dans cette interaction, le tuteur joue un rôle clé complexe de facilitateur, de médiateur, essentiellement par le langage. L'analyse thématique de ses interventions a permis d'en distinguer cinq types: la gestion du groupe, l'argumentation, les questions de différents types, le modelling et les conclusions. Nous avons montré le lien entre les questions du tuteur et le type de réponses des étudiants, pour recommander un meilleur équilibre entre les différents types de questions. Les étudiants, également par les échanges verbaux, mais aussi par la construction collective des cartes conceptuelles initiales et définitives, participent à une co-construction de ces concepts. L'analyse de leurs interactions nous a permis de relever différentes fonctions du langage, pour souligner l'intérêt des interactions argumentatives, marqueurs d'un travail collaboratif en profondeur pour la co-construction des concepts Nous avons aussi montré l'intérêt des cartes conceptuelles non seulement pour visualiser les concepts, mais aussi en tant qu'artefact, outil de médiation psychique à double fonction communicative et sémiotique. Concernant le second objectif, l’exploration du travail personnel des étudiants, on constate que les étudiants de première année font un travail plus approfondi de recherche, et utilisent plus souvent des stratégies de lecture plus efficaces que leurs collègues de deuxième année. Ceux-ci se contentent, en général, des ouvrages de référence, font de simples lectures et s’appuient beaucoup sur les résumés faits par leurs prédécesseurs. Le recours aux ouvrages de référence essentiellement comme source d'information apporte une certaine pauvreté au débat à la phase retour avec peu d'échanges de type argumentatif, témoins d'un travail profond. Ainsi donc, par tout ce soutien qu'elle permet d'apporter aux étudiants pour la construction de leurs connaissances, pour le type d'apprentissage qu'elle offre, l’APP reste une approche unique, digne d’intérêt. Cependant, elle nécessite d'être améliorée par des interventions au niveau du tuteur et des étudiants.
Resumo:
La santé publique n’échappe pas au courant actuel qui valorise le développement d’une culture de décision et d’action axée sur l’utilisation des données probantes. Des études qui portent sur les services de santé et les politiques publiques en lien avec les services de santé proposent diverses stratégies interactives entre les producteurs et les utilisateurs de connaissances pour favoriser le passage de la théorie vers la pratique. Dans ce contexte, une place importante est accordée aux activités de partage et d’utilisation des connaissances (PUC) au sein des organisations de santé. Or, la mise en œuvre de ces stratégies est peu documentée dans le cadre particulier de la pratique de la santé publique. Pour dégager les processus qui œuvrent au cœur du phénomène dans la pratique de la santé publique sur le territoire montréalais, des cadres au niveau de la direction régionale ont été interrogés sur leurs expériences et leurs perceptions relatives aux activités de PUC. L’analyse du corpus par théorisation ancrée a permis l’émergence de certains concepts clés qui ont été intégrés de manière à formuler une théorie substantive du partage et de l’utilisation des connaissances. La synergie entre le savoir, le savoir-faire et le savoir être se traduit par un savoir agir complexe des acteurs et des organisations qui implique avant tout un climat propice à la collaboration. L’importance accordée à la dimension relationnelle au cœur des activités de PUC témoigne de la volonté de mettre en place des structures collaboratives et de s’éloigner graduellement d’une gestion hiérarchique des savoirs dans la pratique de la santé publique à Montréal. Cette analyse démontre que les défis relatifs à la mise en œuvre d’activités de PUC dépassent les préoccupations reliées aux étapes du processus de transfert des connaissances tel que présenté par la plupart des modèles conceptuels traditionnels.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
La formation à distance (FAD) est de plus en plus utilisée dans le cadre de la formation des enseignants aux technologies de l’information et de la communication (TIC). Dans les pays en voie de développement, elle permet non seulement de réduire les coûts par rapport à une formation traditionnelle, mais aussi de modéliser des pratiques pédagogiques exemplaires qui permettent de maximiser le recours aux TIC. En ce sens, la formation continue des enseignants aux TIC par des cours à distance qui intègrent des forums de discussion offre plusieurs avantages pour ces pays. L’évaluation des apprentissages réalisés dans les forums reste cependant un problème complexe. Différents modèles et différentes procédures d’évaluation ont été proposés par la littérature, mais aucun n’a encore abordé spécifiquement la culture e-learning des participants telle qu’elle est définie par le modèle IntersTICES (Viens, 2007 ; Viens et Peraya, 2005). L’objectif de notre recherche est l’élaboration d’une grille opérationnelle pour l’analyse de la culture e-learning à partir des contenus de différents forums de discussion utilisés comme activité de formation dans un cours à distance. Pour développer cette grille, nous utiliserons une combinaison de modèles recensés dans la revue de littérature afin de circonscrire les principaux concepts et indicateurs à prendre en compte pour ensuite suivre les procédures relatives à l’analyse de la valeur, une méthodologie qui appelle la production d’un cahier des charges fonctionnel, la production de l’outil, puis sa mise à l’essai auprès d’experts. Cette procédure nous a permis de mettre sur pied une grille optimale, opérationnelle et appuyée par une base théorique et méthodologique solide.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Statistical evidence is reported that even outside disaster periods, agents face negative consumption skewness, as well as positive inflation skewness. Quantitative implications of skewness risk for nominal loan contracts in a pure exchange economy are derived. Key modeling assumptions are Epstein-Zin preferences for traders and asymmetric distributions for consumption and inflation innovations. The model is solved using a third-order perturbation and estimated by the simulated method of moments. Results show that skewness risk accounts for 6 to 7 percent of the risk premia depending on the bond maturity.
Resumo:
La connexine 43 (Cx43) est l’unité protéique de base dans la formation des canaux des jonctions gap (JG) responsables des échanges intercellulaires. Toutefois, elle forme aussi des canaux non-jonctionnels à large conductance, nommés hémicanaux (Hc), qui fournissent un accès entre l’intérieure des cellules et le milieu extracellulaire. Bien qu’ils soient beaucoup moins étudiés que les JG, on estime que les Hc restent normalement à l’état fermé, et ce, grâce à la phosphorylation des connexines qui les forment. Suite à un stress ischémique, les Cx43 se déphosphorylent et entraînent ainsi l’ouverture des Hc de Cx43 (HcCx43), un effet qui compromet la survie des cellules. La protéine kinase C (PKC) est l’enzyme de phosphorylation qui possède le plus grand nombre de sites de phosphorylation sur la Cx43 en comparaison avec les autres kinases. Ses fonctions dépendent de la mise en jeu d’un répertoire d’au moins 12 isoformes distinctes. Dans les cardiomyocytes, les isoformes de PKC participent au développement des réponses adaptées ou mésadaptées au stress ischémique. Malgré que la régulation des canaux de Cx43 par la PKC lors d’une ischémie soit bien documentée, il n’existe pas à l’heure actuelle de connaissances sur les effets fonctionnels spécifiques qu’exercent des différentes isoformes de PKC sur les HcCx43, ni sur la valeur thérapeutique de la modulation de ses derniers. Dans ce contexte, nous avons proposé que les HcCx43 sont régulés sélectivement et différentiellement par les différentes isoformes de PKC et que l’inhibition spécifique de ces hémicanaux peut protéger le coeur lors d’un événement ischémique. Le présent travail comporte trois études qui ont été entreprises spécialement dans le but de valider ces hypothèses. Dans la première étude, nous avons profité de l’expertise du laboratoire du Dr Baroudi dans la dissection des isoformes de PKC pour étudier le rôle fonctionnel de chacune d’elles dans la régulation des HcCx43 en utilisant une gamme unique de peptides synthétiques inhibiteurs et activateurs spécifiques des isoformes de PKC, en combinaison avec la technique du patch-clamp. Nous avons démontré, entre autre, que les HcCx43 sont particulièrement inhibés par l’isoforme PKC epsilon, connue pour son effet cardioprotecteur contre les dommages ischémiques lors d’un préconditionnement ischémique. Dans la deuxième étude, nous avons caractérisé l’effet d’un peptide synthétique mimétique structural de la Cx43 sur la fonction des HcCx43. En plus d’avoir élucidé ces effets sur les propriétés fonctionnelles du canal, nous avons démontré d’une manière directe et indéniable que le peptide Gap26 inhibe et spécifiquement les HcCx43 et que son administration in vitro (cardiomyocytes isolés) et ex vivo (coeur intact) confère à ces modèles expérimentaux une résistance importante contre le stress ischémique. Dans la troisième étude, nous avons investigué pour la première fois in vivo le potentiel de deux peptides uniques mimétiques structuraux de la Cx43, Gap26 et Gap27, dans la cardioprotection contre les lésions ischémiques lorsqu’ils sont administrés à basse dose sous forme d’un bolus intraveineux unique. Nous avons démontré que l’injection de ces peptides avant ou après la survenue de l’ischémie réduit significativement la taille de l’infarctus qui en résulte.En conclusion, l’ensemble de ces résultats révèlent le rôle bénéfique de l’inhibition des HcCx43 lors d’une ischémie et dévoilent un potentiel thérapeutique prometteux des mimétiques structuraux de Cx43 dans la prévention et le traitement de l’infarctus du myocarde.
Resumo:
A large part of the work done by women is not counted in the gross national product (GDP) of nations. Which type of work are we referring to? Unpaid work; also commonly called domestic work. Because all the services produced by households for their own consumption are not subject to monetary exchange, they are excluded from de production boundary defined by the United Nations System of National Accounts (SNA). In doing so, this key statistics, inspired by the Keynesian school of thoughts, shows an accepted iniquity in the quantification of the product since women’s productive contribution within the households is not taken into account. In other words, national accounts are not gender neutral. In fact, this breach of a fundamental ethical rule which is equity towards gender inequalities is just the reflection of a social conception that prevails within the SNA since its creation, namely that domestic work is not considered as work. It is therefore essential to quantify women’s unpaid work, a concern that has long been the preserve of feminist activists even though; this should go beyond feminists considerations. This article shows how the issue of measuring unpaid work on a broader prospective is relevant on both ethical and economic fronts. The recognition of this production factor as a macroeconomic variable is indeed fundamental to get a more complete understanding and assessment of the economy. Valorization of unpaid work would also allow women to claim better retribution, or at least, to expect an effective social recognition of their actions and efforts and in the end would contribute to the establishment of greater social justice.
Resumo:
L’objectif de ce mémoire est d’étudier l’impact différencié de la satisfaction envers les bonis individuels et les bonis collectifs sur l’intention de rester (au sein d’une entreprise donnée) des travailleurs du secteur des technologies de l’information et des communications. Afin d’étudier cette question, trois hypothèses de recherche ont été émises à l’aide des théories suivantes : 1- la théorie de l’agence, 2- la théorie des attentes et 3- la théorie de l’échange social de Blau (1964). Selon la première hypothèse, la satisfaction envers les bonis individuels contribue à accroître l’intention de rester des travailleurs du secteur des TIC. La seconde hypothèse avance que la satisfaction envers les bonis collectifs contribue à accroître l’intention de rester des travailleurs du secteur des TIC. Enfin, la dernière hypothèse soutient que la satisfaction envers les bonis individuels a un impact plus important sur l’intention de rester des travailleurs du secteur des TIC que la satisfaction envers les bonis collectifs. Les données utilisées pour valider nos hypothèses ont été recueillies dans le cadre d'une enquête portant sur « les relations entre la rémunération, la formation et le développement des compétences avec l’attraction et la rétention des employés clés ». Ces données de nature longitudinale, proviennent d'une entreprise canadienne du secteur des TIC. La population étudiée regroupe les nouveaux employés embauchés entre le 1er avril 2009 et le 30 septembre 2010. Nos résultats confirment l’Hypothèse 1 voulant que la satisfaction envers les bonis individuels contribue à accroître l’intention de rester des travailleurs du secteur des TIC. À l’inverse, ces résultats infirment l’Hypothèse 2. La satisfaction envers les bonis collectifs n’a donc pas d’impact significatif sur l’intention de rester. Malgré un problème de colinéarité, nos résultats suggèrent de confirmer l’Hypothèse 3 voulant que la satisfaction envers les bonis individuels ait un impact plus important sur l’intention de rester des travailleurs du secteur des TIC que la satisfaction envers les bonis collectifs. Les résultats indiquent également que le niveau de scolarité et l’engagement organisationnel ont un impact positif sur l’intention de rester des travailleurs. Les analyses longitudinales révèlent que les différences entre les caractéristiques des travailleurs expliquent davantage l’intention de rester, que les différences à travers les temps chez un même travailleur.
Resumo:
Ce mémoire a pour objectif de comprendre l’impact des avantages sociaux novateurs et des avantages sociaux traditionnels sur l’intention de rester des travailleurs via l’effet médiateur de l’engagement organisationnel. Pour étudier cette question, nous avons émis trois hypothèses basées sur notre revue de littérature ainsi que sur les théories de l’échange social de Blau (1964) et de la dépendance à l’égard des ressources de Balkin et Bannister (1993). La première hypothèse stipule que les avantages sociaux novateurs ont un impact positif et indirect sur l’intention de rester via l’engagement organisationnel. La deuxième hypothèse indique que les avantages sociaux traditionnels ont un impact positif et indirect sur l’intention de rester via l’engagement organisationnel. La dernière hypothèse suggère que les avantages sociaux novateurs ont un impact plus important sur l’intention de rester que les avantages sociaux traditionnels via l’engagement organisationnel. Les données utilisées, de nature longitudinale, proviennent d’une enquête plus large portant sur « les liens entre la rémunération, la formation et le développement de compétences avec l’attraction et la rétention des employés clés ». L’échantillon est composé de 235 nouveaux travailleurs embauchés entre le 1er avril 2009 et le 30 septembre 2010 d’une entreprise multinationale du secteur des technologies de l’information et des communications (TIC) localisée à Montréal. Nos résultats confirment nos deux premières hypothèses. En effet, nos résultats indiquent que les avantages sociaux traditionnels et les avantages sociaux novateurs ont un impact positif sur l’intention de rester des travailleurs via l’effet médiateur de l’engagement organisationnel. Nos résultats indiquent également que les avantages sociaux traditionnels ont un impact plus significatif que les avantages sociaux novateurs sur l’intention de rester via l’effet médiateur de l’engagement organisationnel. Le soutien organisationnel perçu et le travail sous supervision ont également un impact important sur l’intention de rester des travailleurs. Finalement, nous indiquons en conclusion les implications pratiques de ce mémoire pour les gestionnaires du secteur des TIC en matière de fidélisation des travailleurs. Nous présentons également les limites de notre étude et des pistes de recherches futures.
Resumo:
Le tri et le transport efficace des hydrolases acides vers le lysosome jouent un rôle critique pour la fonction des cellules. Plus de 50 maladies humaines sont dues à des mutations des enzymes lysosomales, des protéines régulant des processus-clés du transport vers le lysosome ou des enzymes effectuant des modifications posttraductionnelles importantes pour la fonction du lysosome. L’objectif de cette thèse est d’identifier des protéines et des mécanismes permettant à la cellule de réguler le transport des enzymes vers le lysosome. Nous avons formulé l’hypothèse que des protéines mutées dans des maladies lysosomales et dont les fonctions étaient inconnues pouvaient jouer un rôle dans le transport vers le lysosome. Les céroïdes-lipofuscinoses neuronales forment une famille de maladies lysosomales rares mais sont aussi les maladies neurodégénératives infantiles les plus fréquentes. Plusieurs gènes impliqués dans les NCL encodent des protéines aux fonctions inconnues. Les travaux présentés dans cette thèse ont identifié la protéine « ceroid lipofuscinosis neuronal-5 » (CLN5) qui est localisée à l’endosome et au lysosome comme élément nécessaire au recrutement et à l’activation de rab7. Rab7 est une protéine Rab-clé qui contrôle le trafic à l’endosome tardif. Cette petite GTPase est impliquée dans le recrutement de retromer, un complexe protéique qui régule le trafic de l’endosome vers l’appareil de Golgi des récepteurs de tri lysosomal comme sortilin et le récepteur du mannose-6-phosphate. Dans les cellules où CLN5 est déplété, les récepteurs de tri lysosomal sont moins recyclés plus rapidement dégradés. En utilisant des expériences de photomarquage nous avons aussi pu démontrer que Rab7 est moins activées en l’absence de CLN5. Pour exécuter leur fonction les protéines rabs doivent être recrutée à la membrane et activées par l’échange d’une molécule de GDP pour une molécule de GTP. Le recrutement des Rabs à la membrane nécessite une modification posttraductionnelle lipidique pour être facilités. En utilisant un modèle de levures nous avons démontré que l’homologue de Rab7, Ypt7 est palmitoylée. Nous avons aussi démontré que la palmitoyltransférase Swif1 est nécessaire au recrutement de Ypt7 à la membrane. Nous avons aussi remarqué que les sous- unités de retromer chez la levure sont moins recrutées lorsque les palmitoyltransférases sont déplétées. Dans les cellules de mammifères nous avons démontré que Rab7 est également palmitoylé et que cette palmitoylation est possiblement effectuée par les palmitoyltransférases DHHC1 et DHHC8. La palmitoylation de Rab7 a lieu sur les cystéines en C-terminal qui sont nécessaires au recrutement membranaire et qui auparavant étaient uniquement décrites comme prénylées. En utilisant la méthode de « click chemistry » nous avons découvert que lorsque la prénylation de Rab7 est bloquée le niveau de palmitoylation augmente. Pour caractériser l’interaction entre CLN5 et Rab7 nous avons performé des expériences afin d’établir définitivement la topologie de cette protéine. Nous avons ainsi démontré que CLN5 est une protéine hautement glycosylée qui est initialement traduite en protéine transmembranaire et subséquemment clivée par un membre de la famille des peptidase de peptide signal (SPP). Cette protéine soluble peut alors possiblement interagir avec CLN3 qui est aussi palmitoylée pour recruter et activer Rab7. Nos études suggèrent pour la première fois que CLN5 pourrait être un recruteur et un activateur de Rab7 qui agirait avec la protéine CLN3 pour séquestrer Rab7 avec les autres récepteurs palmitoylés et permettre leur recyclage vers l’appareil de Golgi.
Resumo:
Le trafic vésiculaire permet un échange coordonné de molécules entre les différents organites de la cellule et dépend largement des petites GTPases de la famille des Rabs dont le nombre varie entre 27 chez la Drosophile et 70 chez l’Homme. Un des prochains défis consiste donc à élucider les mécanismes cellulaires qui coordonnent l’activité de ces Rabs, laquelle garantit un transport vésiculaire ordonné au sein de la cellule. Les Rabs agissent comme des interrupteurs moléculaires grâce à leur capacité à cycler entre un état actif et inactif. L’activité des Rabs est contrôlée par des protéines régulatrices puis des effecteurs en aval coordonnent leurs différentes fonctions. La petite GTPase Rab11 est essentielle au développement de plusieurs organismes incluant la Drosophile, C. elegans et la souris puisqu’elle se retrouve au cœur de différentes voies de transport. D’ailleurs, le trafic de molécules dépendant de Rab11 est perturbé dans plusieurs pathologies. Malgré son rôle central dans le trafic vésiculaire, la régulation de Rab11 reste peu comprise in vivo. Cette thèse se penche sur les mécanismes moléculaires contrôlant les fonctions de Rab11 et de ses effecteurs lors de la migration cellulaire collective et lors de la cytocinèse. Nous avons identifié Evi5 comme un nouvel acteur clé de la migration cellulaire collective, et nous montrons qu’elle possède une activité Rab11-GAP essentielle pour maintenir les récepteurs de guidance actifs de façon polarisée au front de migration. Nous avons ensuite déterminé que Rab11 régule la communication cellulaire lors de la migration collective par l’entremise de son interaction avec la Moésine. Une question reste toutefois en suspens : sachant que Rab11 compte plus de 13 effecteurs, quels sont les mécanismes assurant la spécificité de l’interaction entre cette GTPase et un effecteur particulier? Une partie de la réponse provient peut-être de nos observations que les membres des Rab11-FIPs de classe I, une famille d’effecteurs de Rab11, interagissent avec les protéines d’échafaudage 14-3-3. Chez la Drosophile, Rip11 est le seul représentant des Rab11-FIPs de classe I et nous montrons que Rip11 aurait des fonctions inattendues durant la cytocinèse qui seraient coordonnées par 14-3-3. Nos recherches permettent de dresser un portrait plus authentique des mécanismes moléculaires régulant les différentes fonctions de Rab11 et de ses effecteurs in vivo.
Resumo:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.