463 resultados para Modèle de prévision de qualité de logiciel
Resumo:
De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.
Resumo:
Au Canada, la proportion de la population âgée de 65 ans et plus a augmenté depuis 1980. Bien que la dénutrition ne soit pas inévitable avec le vieillissement, certains changements et facteurs physiopathologiques, environnementaux et psycho socio-économiques peuvent entraîner une détérioration des choix alimentaires et donc, de la qualité de vie des aînés [1]. Plusieurs études font le lien entre l’état nutritionnel et la morbidité ainsi qu’avec les capacités fonctionnelles [2]. Ces observations expliquent l'intérêt de la prévention et du traitement de la dénutrition afin d’optimiser la prise alimentaire et un meilleur état de santé de cette population. Objectifs :1) Explorer les barrières individuelles et socio-environnementales, réelles et perçues, qui peuvent mener à la détérioration des choix et de la qualité alimentaires et entraîner une dénutrition chez les personnes âgées vivant à domicile. 2) Examiner la distribution de ces facteurs dans la population à l’étude. 3) Étudier la relation entre ces facteurs afin de dresser un portrait plus éclairé des déterminants négatifs de l’alimentation chez les adultes âgés pour mieux comprendre les barrières à la prise alimentaire saine. Méthodologie : Il s'agit d'une analyse secondaire réalisée à partir des données recueillies auprès des participants (n=1 602), âgés entre 67 et 84 ans,de l’Étude longitudinale québécoise sur la nutrition et le vieillissement réussi (NuAge) débutée en 2003 et dont le suivi était prévu sur cinq ans [3]. Le but principal de NuAge était de déterminer le rôle de la nutrition dans l’accomplissement d’un vieillissement réussi. Les données comprennent des mesures socio-démographiques, nutritionnelles, fonctionnelles, sociales de même que biologiques et médicales. À partir d'un modèle théorique des déterminants de la prise alimentaire chez la population âgée, ces données ont été mises en lien avec la qualité alimentaire. Cette dernière a été déterminée selon l’adaptation canadienne de l’indice d’alimentation saine (C-HEI), calculé à partir des données alimentaires et nutritionnelles obtenues par le questionnaire de fréquence alimentaire administré aux participants au T1, soit à leur entrée dans l'étude. Résultats : Les barrières qui pourraient freiner la qualité alimentaire des femmes incluent un statut affectif fragile et un fonctionnement social limité. Ce qui ressort, comme étant des barrières au C-HEI chez les hommes, est un revenu perçu comme étant insuffisant pour satisfaire les besoins, le port de prothèses dentaires et le fait de manger souvent au restaurant. Étonnamment, le nombre d’attitudes positives relatives à l’alimentation et un score plus élevé de la composante mentale du SF-36 prédisent un C-HEI plus faible. La nature des réponses auto rapportées pourrait expliquer ces résultats. Conclusion : Les résultats de cette recherche permettent de mieux comprendre les barrières d’une saine alimentation au sein d’une population bien-portante. Il est souhaité que les résultats contribueront au développement d’interventions efficaces ciblant les personnes âgées pour favoriser un apport nutritionnel et un état de santé optimal.
Resumo:
Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.
Resumo:
Le développement du logiciel actuel doit faire face de plus en plus à la complexité de programmes gigantesques, élaborés et maintenus par de grandes équipes réparties dans divers lieux. Dans ses tâches régulières, chaque intervenant peut avoir à répondre à des questions variées en tirant des informations de sources diverses. Pour améliorer le rendement global du développement, nous proposons d'intégrer dans un IDE populaire (Eclipse) notre nouvel outil de visualisation (VERSO) qui calcule, organise, affiche et permet de naviguer dans les informations de façon cohérente, efficace et intuitive, afin de bénéficier du système visuel humain dans l'exploration de données variées. Nous proposons une structuration des informations selon trois axes : (1) le contexte (qualité, contrôle de version, bogues, etc.) détermine le type des informations ; (2) le niveau de granularité (ligne de code, méthode, classe, paquetage) dérive les informations au niveau de détails adéquat ; et (3) l'évolution extrait les informations de la version du logiciel désirée. Chaque vue du logiciel correspond à une coordonnée discrète selon ces trois axes, et nous portons une attention toute particulière à la cohérence en naviguant entre des vues adjacentes seulement, et ce, afin de diminuer la charge cognitive de recherches pour répondre aux questions des utilisateurs. Deux expériences valident l'intérêt de notre approche intégrée dans des tâches représentatives. Elles permettent de croire qu'un accès à diverses informations présentées de façon graphique et cohérente devrait grandement aider le développement du logiciel contemporain.
Resumo:
Cette thèse a pour but de documenter la réorganisation des services effectuée au programme Enfants et adolescents (PEA) du Centre de réadaptation Estrie, Sherbrooke. Une démarche de recherche-action participative (RAP) est utilisée afin de collaborer au développement, à l’implantation et à l’évaluation d’un nouveau modèle de services visant à accroître l’accessibilité et la qualité des services de réadaptation offerts aux enfants ayant une déficience physique. Spécifiquement, les objectifs sont : 1) de documenter les retombées de la réorganisation des services; 2) de réaliser une analyse critique du processus de changement. Des méthodes quantitatives et qualitatives sont utilisées afin d’atteindre ces objectifs. Tout d’abord, la Mesure des processus de soins (MPOC) documente la perception de la qualité avant (2007), pendant (2008) et après (2009) l’implantation du nouveau modèle de services. Au total, cet outil est employé auprès de 222 familles et 129 intervenants. À quatre reprises, les intervenants et les gestionnaires répondent également à un questionnaire sur leurs perceptions des forces, des faiblesses, des opportunités et des menaces au PEA. En 2008 et en 2009, des focus groups et des entrevues téléphoniques sont réalisées auprès des familles (n=5), des intervenants (n=19) et des gestionnaires (n=13) afin de documenter leurs perceptions sur le processus de changement et sur les retombées de la réorganisation des services. Quant à l’observation participante, elle permet de recueillir de l’information sur le processus de réorganisation des services tout au long de ces trois années. Enfin, les informations recueillies sont analysées à l’aide de différentes approches, dont des tests statistiques et des analyses de contenu utilisant une grille de codification inspirée de la théorie des systèmes d’actions organisées. Les résultats indiquent que davantage d’enfants reçoivent des services en 2009 en comparaison à 2007. De plus, la qualité des services s’est maintenue selon les perceptions évaluées par la MPOC (article 1). L’utilisation d’interventions de groupe contribue fort probablement à augmenter le nombre d’enfants qui reçoivent des services, mais plusieurs défis doivent être adressés afin que cette modalité d’intervention soit réellement efficiente (article 2). Les résultats font ressortir que le processus de réorganisation des services est complexe. L’évaluation des forces, des faiblesses, des opportunités et des menaces d’un programme, de même que l’implication des acteurs dans le processus de développement d’un nouveau modèle de services, favorisent l’amélioration continue de la qualité (article 3). Or, les facilitateurs et les obstacles à l’implantation du nouveau modèle de services évoluent durant la réorganisation des services. Considérant cela, il est important de poser les actions nécessaires afin de soutenir le changement tout au long du processus (article 4). En résumé, cette thèse contribue à l’avancement des connaissances en réadaptation en comblant une lacune dans les écrits scientifiques. En effet, peu de projets visant le développement et l’implantation de nouveaux modèles de services sont évalués et documentés. Pourtant, des modèles tels que celui développé par le PEA semblent prometteurs afin d’améliorer l’accessibilité, et éventuellement, la qualité des services de réadaptation chez l’enfant.
Resumo:
L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.
Resumo:
Ce mémoire s’inscrit dans le cadre d’une recherche de développement pédagogique d’objet, destinée à des enseignants du secondaire. L’objectif porte sur la conception, et la validation auprès d’un groupe d’experts, d’une grille visant l’analyse de la qualité de situations d’apprentissage et d’évaluation en lecture (GASAEL) conçues pour des élèves de niveau secondaire en difficulté d’apprentissage, notamment ceux du parcours de formation axée sur l’emploi (PFAE). La problématique expose la nécessité chez les enseignants de trouver des réponses ajustées aux besoins d’apprentissage des élèves ciblés, dans un contexte de programmes élaborés par compétences. La situation d’apprentissage et d’évaluation (SAE) est une instrumentation pertinente, mais demeure sous-utilisée. Le cadre conceptuel, guidé par le modèle de la situation pédagogique de Legendre (2005), assure l’analyse du contexte de la SAE et permet d’identifier ses caractéristiques. Ce cadre est suivi par la méthodologie de l’Analyse de la valeur pédagogique de Roque, Langevin et Riopel (1998) exposant la procédure d’analyse des fonctions du produit, au regard des besoins des utilisateurs. L’innovation de ce produit pédagogique tient en son caractère pragmatique; il propose à la fois l’analyse de la qualité des SAE, et une référence rapide à propos des concepts porteurs d’une SAE, fournis par des exemples ou des explications.
Resumo:
Cette étude de cas vise à comparer le modèle de soins implanté sur le territoire d’un centre de santé et des services sociaux (CSSS) de la région de Montréal aux modèles de soins en étapes et à examiner l’influence de facteurs contextuels sur l’implantation de ce modèle. Au total, 13 cliniciens et gestionnaires travaillant à l’interface entre la première et la deuxième ligne ont participé à une entrevue semi-structurée. Les résultats montrent que le modèle de soins hiérarchisés implanté se compare en plusieurs points aux modèles de soins en étapes. Cependant, certains éléments de ces derniers sont à intégrer afin d’améliorer l’efficience et la qualité des soins, notamment l’introduction de critères d’évaluation objectifs et la spécification des interventions démontrées efficaces à privilégier. Aussi, plusieurs facteurs influençant l’implantation d’un modèle de soins hiérarchisés sont dégagés. Parmi ceux-ci, la présence de concertation et de lieux d’apprentissage représente un élément clé. Néanmoins, certains éléments sont à considérer pour favoriser sa réussite dont l’uniformisation des critères et des mécanismes de référence, la clarification des rôles du guichet d’accès en santé mentale et l’adhésion des omnipraticiens au modèle de soins hiérarchisés. En somme, l’utilisation des cadres de référence et d’analyse peut guider les gestionnaires sur les enjeux à considérer pour favoriser l’implantation d’un modèle de soins basé sur les données probantes, ce qui, à long terme, devrait améliorer l’efficience des services offerts et leur adéquation avec les besoins populationnels.
Resumo:
Le lien entre qualité de vie et santé est complexe et représente un concept parapluie dont la définition est influencée par des éléments symboliques. Sur ce plan, si le statut socioéconomique sert de référence à un modèle de qualité de vie c’est parce que les paramètres et les critères de satisfaction de la vie sont souvent définis à partir des valeurs matérielles d’une culture située dans un contexte géopolitique et économique particulier. Dans cette recherche les données du terrain rural et les habitudes de vie des familles et de leur communauté sont mises en lien avec l’environnement et servent d’indicateurs s’opposant à certains résultats des statistiques épidémiologiques sur la santé. Ainsi, afin d’accéder à une analyse des fondements théoriques des liens entre une vie de qualité et la santé, les données empiriques récoltées dans le cadre d’une enquête heuristique ont été alliées aux concepts de satisfaction des besoins fondamentaux dans leurs rapports avec le milieu écologique et le contexte créé par l’actualisation des capitaux sociaux, culturels et économiques. Cette perspective d’analyse permit donc de brosser un tableau plus large et nuancé sur des déterminants de la santé jusqu’ici demeurés silencieux au sein des enquêtes épidémiologiques.
Resumo:
La pollution microbienne des eaux récréatives peut engendrer un risque pour la santé des populations exposées. La contamination fécale de ces eaux représente une composante importante de ce risque, notamment par la présence possible d’agents pathogènes et par l’exposition à des micro-organismes résistants aux antimicrobiens. Les sources de pollution fécale sont multiples et incluent entre autres les activités agricoles et les productions animales. Ce projet visait donc à mieux comprendre les facteurs influençant la qualité microbiologique des eaux récréatives du Québec méridional, en ciblant le rôle possible des activités agricoles, ainsi qu`à proposer et évaluer de nouvelles sources de données pouvant contribuer à l’identification de ces facteurs. Dans un premier temps, une évaluation de la présence d’Escherichia coli résistants aux antimicrobiens dans les eaux récréatives à l’étude a été effectuée. À la lumière des résultats de cette première étude, ces eaux représenteraient une source de micro-organismes résistants aux antimicrobiens pour les personnes pratiquant des activités aquatiques, mais l’impact en santé publique d’une telle exposition demeure à déterminer. Les déterminants agroenvironnementaux associés à la présence de micro-organismes résistants aux antimicrobiens ont par la suite été explorés. Les résultats de ce chapitre suggèrent que les activités agricoles, et plus spécifiquement l’épandage de fumier liquide, seraient reliées à la contamination des eaux récréatives par des bactéries résistantes aux antimicrobiens. Le chapitre suivant visait à identifier des déterminants agroenvironnementaux temps-indépendants d’importance associés à la contamination fécale des eaux à l’étude. Différentes variables, regroupées en trois classes (activités agricoles, humaines et caractéristiques géohydrologiques), ont été explorées à travers un modèle de régression logistique multivarié. Il en est ressorti que les eaux récréatives ayant des sites de productions de ruminants à proximité, et en particulier à l’intérieur d’un rayon de 2 km, possédaient un risque plus élevé de contamination fécale. Une association positive a également été notée entre le niveau de contamination fécale et le fait que les plages soient situées à l’intérieur d’une zone urbaine. Cette composante nous permet donc de conclure qu’en regard à la santé publique, les eaux récréatives pourraient être contaminées par des sources de pollution fécale tant animales qu’humaines, et que celles-ci pourraient représenter un risque pour la santé des utilisateurs. Pour terminer, un modèle de régression logistique construit à l’aide de données issues de la télédétection et mettant en association un groupe de déterminants agroenvironnementaux et la contamination fécale des eaux récréatives a été mis au point. Ce chapitre visait à évaluer l’utilité de telles données dans l’identification de ces déterminants, de même qu`à discuter des avantages et contraintes associées à leur emploi dans le contexte de la surveillance de la qualité microbiologique des eaux récréatives. À travers cette étude, des associations positives ont été mises en évidence entre le niveau de contamination fécale des eaux et la superficie des terres agricoles adjacentes, de même qu’avec la présence de surfaces imperméables. Les données issues des images d’observation de la Terre pourraient donc constituer une valeur ajoutée pour les programmes de suivi de la qualité microbiologique de ces eaux en permettant une surveillance des déterminants y étant associés.
Resumo:
This thesis examines the microeconomic consequences of the arrival of open source in the software market. Specifically, it analyzes three features of open source software by using specific models of industrial organization. Open source software is free, and may be modified or duplicated by anyone. The first paper studies the entry of an open source software in a closed source software market. Using a model of horizontal differentiation, the analysis considers a closed source firm's investment in the quality of its software. The introduction of open source on the market reduces the firm's investment in quality and increases the price of its software. Moreover, the entry of open source software may reduce consumer welfare. Post-entry by an open source software, the reduction in market share lowers the firm's incentive to invest in quality. The second paper features vertical differentiation to study a monopolist selling supporting product to its software. The study begins by contrasting the supply of support by an open source provider and a closed source vendor. The model shows that in both cases the levels of support offered are the same. In addition, consumer welfare is higher and profit lower under an open source software. Then, the paper considers the competition in the provision of support. Here, the supply of high level support is greater than under a monopolist. Finally, the monopolist adopts a dual licensing strategy to extract more surplus from developers interested in modifying open source software and redistributing the resulting product. This technique, when the developers place high value on the source code, generates more profit if the monopolist chooses to publish as open source rather than closed source. The last paper studies how a closed source firm is affected by the introduction of an open source benefiting from contributions by users. A vertical differentiation model is used, and reveals that, when contribution of users is present, the closed source vendor may lower its price to a level where it forces the open source out of the market. The firm's lower price not only increases demand for its software, but also induces consumers into switching from open to closed source software therefore reducing the contribution of users.
Resumo:
Le prix efficient est latent, il est contaminé par les frictions microstructurelles ou bruit. On explore la mesure et la prévision de la volatilité fondamentale en utilisant les données à haute fréquence. Dans le premier papier, en maintenant le cadre standard du modèle additif du bruit et le prix efficient, on montre qu’en utilisant le volume de transaction, les volumes d’achat et de vente, l’indicateur de la direction de transaction et la différence entre prix d’achat et prix de vente pour absorber le bruit, on améliore la précision des estimateurs de volatilité. Si le bruit n’est que partiellement absorbé, le bruit résiduel est plus proche d’un bruit blanc que le bruit original, ce qui diminue la misspécification des caractéristiques du bruit. Dans le deuxième papier, on part d’un fait empirique qu’on modélise par une forme linéaire de la variance du bruit microstructure en la volatilité fondamentale. Grâce à la représentation de la classe générale des modèles de volatilité stochastique, on explore la performance de prévision de différentes mesures de volatilité sous les hypothèses de notre modèle. Dans le troisième papier, on dérive de nouvelles mesures réalizées en utilisant les prix et les volumes d’achat et de vente. Comme alternative au modèle additif standard pour les prix contaminés avec le bruit microstructure, on fait des hypothèses sur la distribution du prix sans frictions qui est supposé borné par les prix de vente et d’achat.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès sciences (M. Sc.) en sciences infirmières option administration des services infirmiers
Resumo:
Ce mémoire vise à vérifier l’effet modérateur de la relation d’encadrement LMX sur la relation entre les demandes du travail et l’épuisement émotionnel. Nous avons d’abord étudié la relation d’encadrement LMX et ses effets multiples, particulièrement sur le stress. Nous avons envisagé le LMX comme une ressource qui peut atténuer les effets des demandes du travail (conflit, surcharge et l’ambiguïté de rôle) sur l’épuisement émotionnel, et ce, avec comme fondement théorique le modèle des tensions du travail de Karasek (1979). Pour vérifier notre modèle, nous avons procédé à une analyse secondaire de données recueillies dans le cadre provenant d’une étude précédente réalisée à l’Institut de gériatrie de l’Université de Sherbrooke en 1996. Des analyses descriptives nous ont permis de valider deux de nos trois principales hypothèses à l’effet que le LMX agit comme modérateur sur la relation entre les demandes du travail et l’épuisement émotionnel. En effet, les résultats montrent que plus le LMX est de qualité, moins les relations entre le conflit de rôle et l’épuisement émotionnel ainsi qu’entre la surcharge de rôle et l’épuisement émotionnel sont significatives. Toutefois, nos résultats indiquent que plus le LMX est de qualité, plus l’effet de l’ambiguïté de rôle est relié à l’épuisement émotionnel.