395 resultados para Optimale Versuchsplanung
Resumo:
Des variations importantes du surenroulement de l’ADN peuvent être générées durant la phase d’élongation de la transcription selon le modèle du « twin supercoiled domain ». Selon ce modèle, le déplacement du complexe de transcription génère du surenroulement positif à l’avant, et du surenroulement négatif à l’arrière de l’ARN polymérase. Le rôle essentiel de la topoisomérase I chez Escherichia coli est de prévenir l’accumulation de ce surenroulement négatif générée durant la transcription. En absence de topoisomérase I, l’accumulation de ce surenroulement négatif favorise la formation de R-loops qui ont pour conséquence d’inhiber la croissance bactérienne. Les R-loops sont des hybrides ARN-ADN qui se forment entre l’ARN nouvellement synthétisé et le simple brin d’ADN complémentaire. Dans les cellules déficientes en topoisomérase I, des mutations compensatoires s’accumulent dans les gènes qui codent pour la gyrase, réduisant le niveau de surenroulement négatif du chromosome et favorisant la croissance. Une des ces mutations est une gyrase thermosensible qui s’exprime à 37 °C. La RNase HI, une enzyme qui dégrade la partie ARN d’un R-loop, peut aussi restaurer la croissance en absence de topoisomérase I lorsqu’elle est produite en très grande quantité par rapport à sa concentration physiologique. En présence de topoisomérase I, des R-loops peuvent aussi se former lorsque la RNase HI est inactive. Dans ces souches mutantes, les R-loops induisent la réponse SOS et la réplication constitutive de l’ADN (cSDR). Dans notre étude, nous montrons comment les R-loops formés en absence de topoisomérase I ou RNase HI peuvent affecter négativement la croissance des cellules. Lorsque la topoisomérase I est inactivée, l’accumulation d’hypersurenroulement négatif conduit à la formation de nombreux R-loops, ce qui déclenche la dégradation de l’ARN synthétisé. Issus de la dégradation de l’ARNm de pleine longueur, des ARNm incomplets et traductibles s’accumulent et causent l’inhibition de la synthèse protéique et de la croissance. Le processus par lequel l’ARN est dégradé n’est pas encore complètement élucidé, mais nos résultats soutiennent fortement que la RNase HI présente en concentration physiologique est responsable de ce phénotype. Chose importante, la RNase E qui est l’endoribonuclease majeure de la cellule n’est pas impliquée dans ce processus, et la dégradation de l’ARN survient avant son action. Nous montrons aussi qu’une corrélation parfaite existe entre la concentration de RNase HI, l’accumulation d’hypersurenroulement négatif et l’inhibition de la croissance bactérienne. Lorsque la RNase HI est en excès, l’accumulation de surenroulement négatif est inhibée et la croissance n’est pas affectée. L’inverse se produit Lorsque la RNase HI est en concentration physiologique. En limitant l’accumulation d’hypersurenroulement négatif, la surproduction de la RNase HI prévient alors la dégradation de l’ARN et permet la croissance. Quand la RNase HI est inactivée en présence de topoisomérase I, les R-loops réduisent le niveau d’expression de nombreux gènes, incluant des gènes de résistance aux stress comme rpoH et grpE. Cette inhibition de l’expression génique n’est pas accompagnée de la dégradation de l’ARN contrairement à ce qui se produit en absence de topoisomérase I. Dans le mutant déficient en RNase HI, la diminution de l’expression génique réduit la concentration cellulaire de différentes protéines, ce qui altère négativement le taux de croissance et affecte dramatiquement la survie des cellules exposées aux stress de hautes températures et oxydatifs. Une inactivation de RecA, le facteur essentiel qui déclenche la réponse SOS et le cSDR, ne restaure pas l’expression génique. Ceci démontre que la réponse SOS et le cSDR ne sont pas impliqués dans l’inhibition de l’expression génique en absence de RNase HI. La croissance bactérienne qui est inhibée en absence de topoisomérase I, reprend lorsque l’excès de surenroulement négatif est éliminé. En absence de RNase HI et de topoisomérase I, le surenroulement négatif est très relaxé. Il semble que la réponse cellulaire suite à la formation de R-loops, soit la relaxation du surenroulement négatif. Selon le même principe, des mutations compensatoires dans la gyrase apparaissent en absence de topoisomérase I et réduisent l’accumulation de surenroulement négatif. Ceci supporte fortement l’idée que le surenroulement négatif joue un rôle primordial dans la formation de R-loop. La régulation du surenroulement négatif de l’ADN est donc une tâche essentielle pour la cellule. Elle favorise notamment l’expression génique optimale durant la croissance et l’exposition aux stress, en limitant la formation de R-loops. La topoisomérase I et la RNase HI jouent un rôle important et complémentaire dans ce processus.
Resumo:
Les patients atteints de mono-traumatisme à un membre doivent consulter un médecin de première ligne qui assurera la prise en charge initiale et référera au besoin le patient vers un orthopédiste. L‟objectif principal de cette étude est de décrire ce mécanisme de référence envers un Service d‟orthopédie affilié à un Centre de traumatologie Niveau 1. La collecte de données concernant l‟accès aux soins spécialisés et la qualité des soins primaires a été faite lors de la visite en orthopédie. Nous avons étudié 166 patients consécutifs référés en orthopédie sur une période de 4 mois. Avant leur référence en orthopédie, 23 % des patients ont dû consulter 2 médecins de première ligne ou plus pour leur blessure. Le temps entre la consultation en première ligne et la visite en orthopédie (68 heures) dépasse le temps compris entre le traumatisme et l‟accès au généraliste (21 heures). Parmi les cas jugés urgents, 36 % n‟ont pas été vus dans les temps recommandés. La qualité des soins de première ligne fut sous-optimale chez 49 % des patients concernant l‟analgésie, l‟immobilisation et/ou l‟aide à la marche. Les facteurs associés à une diminution d‟accès en orthopédie et/ou une qualité de soins inférieure sont : tabagisme, jeune âge, habiter loin de l‟hôpital, consulter initialement une clinique privée, avoir une blessure au membre inférieur ou des tissus mous et une faible sévérité de la blessure selon le patient. Ces résultats démontrent qu‟il faut mieux cibler l‟enseignement relié aux mono-traumatismes envers les médecins de première ligne afin d‟améliorer le système de référence.
Resumo:
Les molécules classiques du CMH de classe II présentent des peptides antigéniques aux lymphocytes T CD4+. Cette présentation est régulée par deux molécules non classiques : HLA-DM catalyse la relâche de CLIP et le chargement de peptides et HLA-DO module l’activité de DM. Une expression insuffisante en cellules d’insectes empêche les expériences de cristallisation de DO, probablement en raison de sa conformation, rendant DO instable et inapte à sortir du réticulum endoplasmique (RE). DM corrige la conformation de DO et permet sa sortie du RE. Aussi, par ses ponts disulfures uniques, DM adopte une conformation stable et peut sortir du RE sans lier d’autre molécule. Nous avons tenté de corriger la conformation de DO en introduisant des cystéines pour établir des ponts homologues à ceux de DM. La conformation de DO ne fut pas corrigée. Par ailleurs, nous avons augmenté l’expression de DO en introduisant une séquence partielle de Kozak. Nous avons aussi étudié l’effet de DM sur l’expression de DO. DM a favorisé l’expression de DO, probablement en diminuant sa dégradation. Chaque chaîne du dimère DMαβ est impliquée dans l’oxydation de sa chaîne partenaire. La conformation non-optimale de DO pourrait traduire une incapacité des chaînes α ou β à favoriser l’oxydation de sa partenaire; DM corrigerait ce problème. Notre analyse d’immunobuvardage de type Western a toutefois démontré que DM ne modifie pas l’état d’oxydation de DOα et DOβ. Finalement, nous avons étudié l’interaction DO-DM. L’acide aminé DOαE41 est impliqué dans cette liaison. Certains des acides aminés entre α80 et α84 pourraient être impliqués. Nous avons muté des acides aminés de cette région de DOα. Les résidus testés ne semblent pas impliqués dans la liaison DO-DM. L’obtention de la structure tridimensionnelle de DO et la caractérisation de son état oxydatif et de sa liaison à DM permettront de mieux comprendre son rôle.
Resumo:
Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins
Resumo:
La stéatohépatite non alcoolique (NASH) est une pathologie du foie dont l’amplitude et les répercussions sont de plus en plus préoccupantes dans le monde médical ou biomédical. Elle est associée à l’obésité, au syndrome métabolique et au diabète sucré de type II. La recherche de la thérapie optimale pour le NASH est un domaine en plein essor puisqu’aucun traitement n’est suffisamment efficace à ce jour. La présente étude fait le point sur de nouvelles possibilités de traitements qui se sont avérés efficaces pour contrer les différentes lésions métaboliques et cellulaires rencontrées dans un modèle in vivo chez le rat où le NASH est induit par l’ingestion d’une diète riche en gras. Cette étude démontre, tout d’abord, que les traitements durant six semaines avec l’acide ursodéoxycholique (UDCA) et son dérivé le NCX 1000, possédant des propriétés donatrices de monoxyde d’azote, à doses équimolaires, protègent de manière équivalente le foie contre le stress oxydatif, l’hyperinsulinémie, l’inflammation et la fibrose causés par la stéatohépatite. De plus, la combinaison d’une plus faible dose de NCX 1000 avec un antioxydant lipophile tel que la vitamine E offre une protection similaire, particulièrement au niveau des paramètres du stress oxydatif. Par ailleurs, l’étude illustre aussi que la silibinine, composé polyphénolique actif du chardon marie (Silybum marianum) et utilisé en traitement pendant 5 semaines, possède un pouvoir hépatoprotecteur, des propriétés antioxydantes et un effet hypoinsulinémique dans ce modèle de stéatohépatite d’origine nutritionnelle. Le potentiel thérapeutique de ces composés en fait des candidats de choix pour le traitement du NASH qui méritent de faire l’objet d’études cliniques poussées.
Resumo:
La thérapie de resynchronisation cardiaque (CRT) est un traitement qui diminue la mortalité et améliore la qualité de vie des patients atteints d’insuffisance cardiaque et présentant un dyssynchronisme de la contraction ventriculaire gauche. Malgré le succès de cette thérapie, plus de 30% des patients ne présentent pas l’amélioration désirée. Plusieurs études portant sur le synchronisme électrique ou mécanique de la contraction ont été effectuées mais peu d’entres elles se sont attardées sur le couplage électromécanique à l'échelle macroscopique. Ce projet a comme objectif d’observer le comportement électromécanique des ventricules canins en présence d’un resynchronisateur cardiaque. Un logiciel a été développé pour permettre l’analyse des informations provenant de la cartographie endocardique sans contact et de la ventriculographie isotopique tomographique chez 12 sujets canins insuffisants. Pour observer la réponse mécanique suite à l’activation électrique, nous avons premièrement recalé les surfaces issues des 2 modalités. Ensuite, nous avons défini les limites du cycle cardiaque, analysé les signaux électriques et les courbes de déplacement de la paroi endocardique. Le début de la contraction est défini par un déplacement radial de 10% vers le centre du ventricule. Les résultats démontrent que la durée d’activation du ventricule gauche et la largeur du QRS augmentent en présence d’une stimulation externe et que les délais électromécaniques sont indépendants dans les modes de stimulation étudiés (sinusal, LVbasal, RVapex ou BIV) avec une moyenne de 84,56±7,19 ms. Finalement, nous avons noté que la stimulation basolatérale procure une fonction cardiaque optimale malgré une durée prolongée du QRS.
Resumo:
La dépression est une maladie chronique, récurrente et potentiellement mortelle qui affecte plus de 20 % de la population à travers le monde. Les mécanismes sous-jacents de la dépression demeurent incompris et la pharmacothérapie actuelle, largement basée sur l’hypothèse monoaminergique, fait preuve d’une efficacité sous optimale et d’une latence thérapeutique élevée. Par conséquent, la recherche est amenée à élaborer de nouveaux traitements pharmacologiques. Pour détecter leur action, il est avant tout nécessaire de développer des outils expérimentaux adéquats. Dans cette optique, notre but a été de mesurer l’anhédonie, un symptôme cardinal de la dépression, chez le rat de laboratoire. L’anhédonie a été définie comme une réduction de la récompense et a été mesurée avec le test de consommation de sucrose et la technique d’autostimulation intracérébrale. En vue d’induire l’anhédonie, nous avons effectué une bulbectomie olfactive, une procédure qui entraîne divers changements biochimiques, cellulaires et comportementaux similaires à ceux de l’état dépressif et qui peuvent être renversés par un traitement antidépresseur chronique. Nos résultats montrent que la bulbectomie olfactive produit également l’anhédonie, reflétée par une réduction durable de la consommation de sucrose et par une réduction de l’efficacité de l’amphétamine dans le test d’autostimulation intracérébrale. Ces effets ont été présents jusqu’à trois à quatre semaines suivant la chirurgie. La bulbectomie olfactive a aussi été associée à une augmentation de l’élément de réponse liant l’AMPc dans le striatum, un index moléculaire associé à l’anhédonie. Ces découvertes suggèrent que l’anhédonie peut être produite et étudiée de façon fiable dans le modèle de bulbectomie olfactive et que le circuit de récompense pourrait constituer une cible cohérente pour de nouvelles drogues en vue du traitement de la dépression.
Resumo:
La récupération optimale des amplitudes articulaires (AAs) et de la force musculaire est un objectif crucial de la réadaptation fonctionnelle intensive (RFI) à la suite d’une lésion médullaire (LM). Le but de la présente étude était de documenter les changements d’AAs des membres supérieurs durant la RFI chez des individus (n = 197) ayant subi une LM et d’établir le lien avec l’autonomie fonctionnelle. Les données (AA, force musculaire, spasticité, déficiences secondaires, autonomie fonctionnelle) ont été collectées à l’admission et au congé de la RFI. Des analyses descriptives, des tests d’association entre les changements d’AAs et des variables indépendantes (douleur, spasticité, déficiences secondaires, force) et des analyses multivariées ont été utilisées. Les individus ayant une paraplégie présentent peu de déficit d’AAs à l’épaule comparés à ceux ayant une tétraplégie. Parmi ces derniers, une majorité présente des AAs sous les valeurs de normalité en fin de RFI. Le groupe D, établi selon l’évaluation de l’American Spinal Injury Association (ASIA D) présente des pertes d’AAs plus importante qu’attendue. La douleur au niveau articulaire est un facteur influençant les changements d’AAs, particulièrement dans ce groupe. La force musculaire chez les personnes ayant une tétraplégie sévère (ASIA ABC) est plus faible que celle du groupe ayant une lésion moins sévère (ASIA D). Généralement, le gain de force corrèle avec le gain d’AA. La force musculaire, les AAs et le nombre de déficiences secondaires sont les principaux éléments influençant l’autonomie fonctionnelle. En conclusion, la perte d’AA est plus importante à l’articulation de l’épaule et, pour plusieurs individus, malgré un gain significatif, les AAs n’atteignent pas les valeurs de référence au congé de la RFI. La force musculaire et certaines déficiences secondaires sont des éléments à considérer pour expliquer les pertes d’AAs et d’autonomie fonctionnelle. Les études futures devront clarifier certains aspects dont l’atteinte de la rotation médiale qui semble montrer un patron différent de récupération en comparaison des autres mouvements de l’épaule. De plus, les études devront montrer si ces changements et résultats sont maintenus après le congé de la RFI.
Resumo:
Cette thèse porte sur l’étude de l’anatomie de la cornée après 3 techniques de greffe soient, la greffe totale traditionnelle (GTT) et des techniques de greffe lamellaire postérieur (GLP) telles que la greffe lamellaire endothéliale profonde (DLEK) et la greffe endothélium/membrane de Descemet (EDMG) pour le traitement des maladies de l’endothélium, telles que la dystrophie de Fuchs et de la kératopathie de l’aphaque et du pseudophaque. Dans ce contexte, cette thèse contribue également à démontrer l’utilité de la tomographie de cohérence optique (OCT) pour l’étude de l’anatomie des plaies chirurgicales la cornée post transplantation. Au cours de ce travail nous avons étudié l'anatomie de la DLEK, avant et 1, 6, 12 et 24 mois après la chirurgie. Nous avons utilisé le Stratus OCT (Version 3, Carl Zeiss, Meditec Inc.) pour documenter l’anatomie de la plaie. L'acquisition et la manipulation des images du Stratus OCT, instrument qui à été conçu originalement pour l’étude de la rétine et du nerf optique, ont été adaptées pour l'analyse du segment antérieur de l’oeil. Des images cornéennes centrales verticales et horizontales, ainsi que 4 mesures radiaires perpendiculaires à la plaie à 12, 3, 6 et 9 heures ont été obtenues. Les paramètres suivants ont été étudiés: (1) Les espaces (gap) entre les rebords du disque donneur et ceux du receveur, (2) les dénivelés de surface postérieure (step) entre le les rebords du disque donneur et ceux du receveur, (3) la compression tissulaire, (4) le décollement du greffon, 6) les élévations de la surface antérieure de la cornée et 7) la pachymétrie centrale de la cornée. Les mesures d’épaisseur totale de la cornée ont été comparées et corrélées avec celles obtenues avec un pachymètre à ultra-sons. Des mesures d’acuité visuelle, de réfraction manifeste et de topographie ont aussi été acquises afin d’évaluer les résultats fonctionnels. Enfin, nous avons comparé les données de DLEK à celles obtenues de l’EDMG et de la GTT, afin de caractériser les plaies et de cerner les avantages et inconvénients relatifs à chaque technique chirurgicale. Nos résultats anatomiques ont montré des différences importantes entre les trois techniques chirurgicales. Certains des paramètres étudiés, comme le sep et le gap, ont été plus prononcés dans la GTT que dans la DLEK et complètement absents dans l’EDMG. D’autres, comme la compression tissulaire et le décollement du greffon n’ont été observés que dans la DLEK. Ceci laisse entrevoir que la distorsion de la plaie varie proportionnellement à la profondeur de la découpe stromale du receveur, à partir de la face postérieure de la cornée. Moins la découpe s’avance vers la face antérieure (comme dans l’EDMG), moins elle affecte l’intégrité anatomique de la cornée, le pire cas étant la découpe totale comme dans la GTT. Cependant, tous les paramètres d’apposition postérieure sous-optimale et d’élévation de la surface antérieure (ce dernier observé uniquement dans la GTT) finissent par diminuer avec le temps, évoluant à des degrés variables vers un profil topographique plus semblable à celui d’une cornée normale. Ce processus paraît plus long et plus incomplet dans les cas de GTT à cause du type de plaie, de la présence de sutures et de la durée de la cicatrisation. Les valeurs moyennes d’épaisseur centrale se sont normalisées après la chirurgie. De plus, ces valeurs moyennes obtenues par OCT étaient fortement corrélées à celles obtenues par la pachymétrie à ultra-sons et nous n’avons remarqué aucune différence significative entre les valeurs moyennes des deux techniques de mesure. L’OCT s’est avéré un outil utile pour l’étude de l’anatomie microscopique des plaies chirurgicales. Les résultats d’acuité visuelle, de réfraction et de topographie des techniques de GLP ont montré qu’il existe une récupération visuelle rapide et sans changements significatifs de l’astigmatisme, contrairement à la GTT avec et sans suture. La GLP a permis une meilleure conservation de la morphologie de la cornée, et par conséquence des meilleurs résultats fonctionnels que la greffe de pleine épaisseur. Ceci nous permet d’avancer que la GLP pourrait être la technique chirurgicale à adopter comme traitement pour les maladies de l’endothélium cornéen.
Resumo:
Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.
Resumo:
Problématique : Plusieurs expositions résidentielles ont été associées à la prévalence de l’asthme. Toutefois, peu d’études populationnelles ont examiné la relation entre ces facteurs et un asthme mal maîtrisé chez l’enfant. Objectif : Évaluer les facteurs environnementaux résidentiels associés à un asthme mal maîtrisé chez les enfants montréalais âgés de 6 mois à 12 ans. Méthodes : Les données sont tirées d’une enquête transversale menée en 2006 sur la santé respiratoire d’enfants montréalais âgés de 6 mois à 12 ans (n=7980). La maîtrise de l’asthme a été évaluée chez les enfants avec un asthme actif au cours de l’année précédent l’enquête (n=980) selon des critères recommandés par les lignes directrices canadiennes sur l’asthme. Les rapports de prévalence (RP) et les intervalles de confiance (IC) à 95 % caractérisant l’association entre les facteurs environnementaux, incluant la présence d’allergènes, d’irritants, d’humidité et de moisissures, et le risque d’un asthme mal maîtrisé ont été estimés à l’aide de modèles de régression log-binomiale. Les sujets avec une maîtrise acceptable de l’asthme ont été comparés à ceux dont la maladie était mal maîtrisée. Résultats : Des 980 enfants avec un asthme actif au cours de l’année précédant l’enquête, 36 % ont rencontré au moins un des critères des lignes directrices canadiennes suggérant un asthme mal maîtrisé. Les caractéristiques de la population associées à un asthme mal maîtrisé sont : un plus jeune âge, des antécédents d’atopie parentale, une faible scolarisation de la mère, une mère d’origine étrangère et le statut de locataire. Après ajustement pour l’âge de l’enfant, l’atopie parentale et l’exposition à la fumée de tabac au domicile, une intensité de trafic élevée à proximité du domicile (RP, 1,35; IC 95 %, 1,00-1,81) et la localisation au sous-sol de la chambre de l’enfant ou de sa résidence (RP 1,30; IC 95 %, 1,01-1,66) étaient associées à un risque accru d’asthme mal maîtrisé. Conclusions : Une maîtrise sous-optimale de l’asthme semble être associée à l’exposition au trafic routier et à des conditions d’humidité excessive et probablement de moisissures. Cette dernière exposition étant plus fréquente, elle a probablement un plus grand impact en matière de santé publique.
Resumo:
L’épidémie du VIH-1 dure maintenant depuis plus de 25 ans. La grande diversité génétique de ce virus est un obstacle majeur en vue de l’éradication de cette pandémie. Au cours des années, le VIH-1 a évolué en plus de cinquante sous-types ou formes recombinantes. Cette diversité génétique est influencée par diverses pressions de sélection, incluant les pressions du système immunitaire de l’hôte et les agents antirétroviraux (ARV). En effet, bien que les ARV aient considérablement réduit les taux de morbidité et de mortalité, en plus d’améliorer la qualité et l’espérance de vie des personnes atteintes du VIH-1, ces traitements sont complexes, dispendieux et amènent leur lot de toxicité pouvant mener à des concentrations plasmatiques sous-optimales pour contrôler la réplication virale. Ceci va permettre l’émergence de variantes virales portant des mutations de résistance aux ARV. Ce phénomène est encore plus complexe lorsque l’on prend en considération l’immense diversité génétique des différents sous-types. De plus, le virus du VIH est capable de persister sous forme latente dans diverses populations cellulaires, rendant ainsi son éradication extrêmement difficile. Des stratégies pouvant restreindre la diversité virale ont donc été préconisées dans le but de favoriser les réponses immunes de l’hôte pour le contrôle de l’infection et d’identifier des variantes virales offrant une meilleure cible pour des stratégies vaccinales ou immunothérapeutiques. Dans cet esprit, nous avons donc étudié, chez des sujets infectés récemment par le VIH-1, l’effet du traitement ARV précoce sur la diversité virale de la région C2V5 du gène enveloppe ainsi que sur la taille des réservoirs. En deuxième lieu, nous avons caractérisé la pression de sélection des ARV sur des souches virales de sous types variés non-B, chez des patients du Mali et du Burkina Faso afin d’évaluer les voies d’échappement viral dans un fond génétique différent du sous-type B largement prévalent en Amérique du Nord. Notre étude a démontré la présence d’une population virale très homogène et peu diversifiée dans les premières semaines suivant l’infection, qui évolue pour atteindre une diversification de +0,23% à la fin de la première année. Cette diversification est plus importante chez les sujets n’ayant pas initié de traitement. De plus, ceci s’accompagne d’un plus grand nombre de particules virales infectieuses dans les réservoirs viraux des cellules mononucléées du sang périphérique (PBMC) chez ces sujets. Ces résultats suggèrent que l’initiation précoce du traitement pourrait avoir un effet bénéfique en retardant l’évolution virale ainsi que la taille des réservoirs, ce qui pourrait supporter une réponse immune mieux ciblée et potentiellement des stratégies immunothérapeutiques permettant d’éradiquer le virus. Nous avons également suivi 801 sujets infectés par des sous-types non-B sur le point de débuter un traitement antirétroviral. Bien que la majorité des sujets ait été à un stade avancé de la maladie, plus de 75% des individus ont obtenu une charge virale indétectable après 6 mois d’ARV, témoignant de l’efficacité comparable des ARV sur les sous-types non-B et B. Toutefois, contrairement aux virus de sous-type B, nous avons observé différentes voies moléculaires de résistance chez les sous type non-B, particulièrement chez les sous-types AGK/AK/K pour lesquels les voies de résistances étaient associées de façon prédominante aux TAM2. De plus, bien que la divergence entre les virus retrouvés chez les patients d’une même région soit faible, nos analyses phylogénétiques ont permis de conclure que ces mutations de résistance se sont produites de novo et non à partir d’un ancêtre commun porteur de résistance. Cependant, notre dernière étude au Mali nous a permis d’évaluer la résistance primaire à près de 10% et des études phylogénétiques seront effectuées afin d’évaluer la circulation de ces souches résistantes dans la population. Ces études suggèrent qu’un contrôle de la réplication virale par les ARV peut freiner la diversité du VIH et ainsi ouvrir la voie à un contrôle immunologique ciblé, utilisant de nouvelles stratégies vaccinales ou immunothérapeutiques. Toutefois, une thérapie antirétrovirale sous-optimale (adhérence, toxicité) peut conduire à l’échappement virologique en favorisant l’émergence et la dissémination de souches résistantes.
Resumo:
Réalisé en cotutelle avec l'Université Bordeaux 1 (France)
Resumo:
Le vieillissement démographique augmente rapidement la représentation des personnes âgées de plus de 50 ans parmi les utilisateurs d’aides à la mobilité motorisées (AMMs), telles que le fauteuil roulant motorisé et le quadriporteur. Le but général de la thèse est de rendre compte d’une démarche d’analyse des effets des AMMs au cours des premiers 18 mois d’utilisation chez les adultes d’âge moyen et les aînés. Notre question de recherche concerne la nature et l'importance des effets sur le fonctionnement, la pertinence sociale et le bien-être subjectif, ainsi que les liens entre les divers facteurs impliqués dans leur impact optimal. La thèse s’articule en trois volets, synthétique, méthodologique et analytique, dont les principaux résultats sont présentés dans quatre articles scientifiques. Le volet synthétique comprend une recension systématique qui révèle la représentation marginale des personnes âgées de plus de 50 ans dans les publications scientifiques sur les effets des AMMs et le faible niveau de preuve dans ce champ d’études. Les travaux liés à ce volet proposent également un cadre d’analyse reliant l’intention d’utiliser l’AMM, les habitudes de déplacements, les dimensions d’effets des AMMs sur le fonctionnement, la pertinence sociale et le bien-être subjectif, ainsi que quatre catégories de cofacteurs associés à l’utilisation (personne, aide technique, intervention, environnement). Le volet méthodologique assemble un dispositif de mesure comprenant 5 questionnaires et 18 indicateurs arrimés au cadre d’analyse et démontre l’applicabilité de l’ensemble des questionnaires pour une administration téléphonique. La validation transculturelle de deux questionnaires implique deux études réalisées auprès d’utilisateurs d’AMMs âgés de 50 à 84 ans (n=45). Ces travaux confirment la fidélité test-retest et l’équivalence des questionnaires traduits avec la version d’origine. Finalement, le volet analytique se concentre sur l’étude des habitudes de déplacements chez 3 cohortes (n=116) de personnes âgées de 50 à 89 ans, recrutées en fonction du stade d’utilisation de l’AMM. Les résultats suggèrent une amélioration de l’aire de mobilité après l’utilisation initiale ou long terme de l’AMM en comparaison avec une cohorte en attente de l’AMM, ainsi qu’une augmentation significative de la fréquence des déplacements autour du domicile et dans le voisinage. Trois facteurs associés à une aire de mobilité optimale, à savoir le genre, la nature des objectifs de participation de l’utilisateur et le type d’appareil utilisé, sont identifiés par des analyses de régression linéaires contrôlant pour l’âge. La thèse soutient l’importance de tenir compte de l’environnement et d’une combinaison de facteurs reliés à la personne et à l’aide technique pour saisir les effets des AMMs au cours des premiers mois d’utilisation. Ces résultats ouvrent la voie au suivi systématique des utilisateurs d’AMMs par les professionels de réadaptation, puisqu’ils confirment l’utilité du dispositif pour en mesurer les effets et ciblent les déterminants de la mobilité des utilisateurs d’AMMs âgés de plus de 50 ans.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.