265 resultados para Premières occurrences


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aujourd’hui, la satisfaction des utilisateurs des services de santé est reconnue comme une mesure de la qualité des soins. Au Québec, le congé précoce en obstétrique constitue la norme pour les mères ayant donné naissance à un bébé en santé. Selon la littérature, cette pratique n’entraîne pas de répercussions négatives pour la santé des mères et de leur nouveau-né à condition qu’un suivi adéquat soit assuré. D’autre part, bien qu’il semble que la diminution de la durée du séjour hospitalier soit appréciée par les mères, peu de données sont disponibles relativement aux caractéristiques menant à l’appréciation du suivi postnatal. Objectifs : Cette étude s’intéresse principalement à la première visite à domicile effectuée par une infirmière suite au congé précoce en obstétrique. Dans un premier temps, elle vise à tracer un portrait des mères en fonction du délai de la première visite à domicile et, dans un second temps, à connaître les facteurs associés à l’appréciation, par les mères, du délai de cette visite. Méthode : Les données de cette étude ont été recueillies au Québec, entre janvier 2002 et janvier 2003, lors d’une enquête téléphonique effectuée auprès de mères de bébés nés en santé, un mois suivant leur accouchement vaginal sans complication (n=1548). Pour nos analyses, nous avons retranché les mères ayant eu une durée de séjour de plus de 60 heures, une grossesse de moins de 37semaines et un bébé pesant moins de 2500 g à la naissance. Notre échantillon se compose donc de 1351 mères. Résultats : 86,2 % des mères ont reçu une offre de visite à domicile. La majorité (80.2 %) des mères ont reçu la visite dans les trois premiers jours suivant leur retour à la maison, dont près du tiers (28,1 %), dans les 24 premières heures. Comparativement aux mères visitées au deuxième ou troisième jour suivant le congé, celles visitées dans les 24 premières heures ont jugé la durée de séjour hospitalier trop courte (p=0,018) et reçu un appel de l’infirmière qui a duré plus longtemps (p=0, 009). De plus, au moment du congé, elles perçoivent leur bébé en moins bonne santé (p=0,029). Elles ont aussi accouché d’un bébé plus petit (p=0,052) qui a tendance à avoir présenté des signes d’ictères pendant le séjour hospitalier (p=0,100). D’autre part, la majorité des mères (86,4 %) disent que le délai de la première visite à domicile est adéquat alors que 11,6 % le jugent trop court et 2,3 % trop long. Pour les mères visitées au premier jour, l’analyse multivariée révèle que certaines caractéristiques et certains besoins sont associés à la perception que le délai de la visite est trop court : une seule visite postnatale, un revenu familial de plus de 40 000 $, la perception que la durée de séjour est trop longue et le fait de ne pas allaiter. Pour les mères qui reçoivent la visite au deuxième et troisième jour, ce sont, seulement, le fait d’avoir été au rendez-vous médical et le fait d’avoir reçu une seule visite qui sont associés à la perception que le délai de la visite est trop court. Pour conclure, au Québec, le programme de suivi postnatal universel semble en mesure d’offrir une visite à domicile dans les délais prescrits à une majorité de mères. Les résultats de cette étude suggèrent que le délai de la première visite à domicile n’est pas optimal pour toutes les mères et permettent d’envisager que certaines mères auraient souhaité recevoir une seconde visite plus tardivement au cours de la période postnatale. D’autres recherches devront être effectuées afin de parfaire nos connaissances relativement au moment idéal pour réaliser les interventions postnatales.Mots clefs : Satisfaction, appréciation des utilisateurs, qualité des soins, programme universel, suivi postnatal, congé précoce en obstétrique, visite à domicile, délai de la visite, provision des services.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans une époque de changements des moyens de représentation et communication en architecture, cette recherche porte sur l’enseignement de la conception architecturale et plus spécifiquement sur l’apport que l’informatique pourrait avoir dans ce processus. En nous basant sur une méthodologie qualitative, exploratoire et participative, nous y procédons par enchainement de questions, celle de départ étant la suivante: Comment l’enseignement de la conception architecturale pourrait tirer avantage des moyens numériques? Notre objectif est de proposer des méthodes et des outils d’apprentissage aux étudiants en architecture pour enrichir leurs démarches de conception grâce à l’ordinateur. Après une revue de la littérature dans le domaine, et un approfondissement de l’étude sur le rôle des référents architecturaux et sur la conception intégrée, nous avons procédé à une observation exploratoire du travail des étudiants en atelier d’architecture. Ces premières étapes de la recherche ont permis de dégager des discordances entre les positions théoriques et la pratique en l’atelier, pour concrétiser ultérieurement la question de recherche. Dans le but de discerner des méthodes efficaces et innovatrices pour répondre aux discordances identifiées, nous avons engagé une étude de la littérature sur les théories cognitives par rapport aux connaissances, l’apprentissage et la conception. Certaines stratégies ont pu être définies, notamment la nécessité de représentation multimodale des référents architecturaux, l’importance de représenter le processus et non seulement le résultat, ainsi que l’avantage d’inciter les étudiants à travailler dans leur ‘zone proximale’ de développement. Suite à ces recherches, une méthode d’enseignement complémentaire a été définie. Elle propose aux étudiants des explorations de l’objet en conception basées sur la manipulation des savoir-faire architecturaux. Cette méthode a été opérationnalisée d’un point de vue pédagogique ainsi que didactique et mise à l’épreuve auprès des étudiants en atelier. Un prototype de librairie de référents architecturaux interactifs (LibReArchI) a été créé dans ce but. Elle a été conçue en tant qu’environnement de conception et espace de partage de savoir-faire entre étudiants et enseignants. Les principaux résultats de cette recherche démontrent le rôle positif de la méthode proposée pour le transfert des savoir-faire architecturaux lors de l’apprentissage en atelier. Son potentiel d’assister la conception intégrée et de stimuler l’émergence d’idées a été constaté. Au niveau théorique, un modèle d’un cycle du processus de design avec le numérique a été esquissé. En conclusion, des avenues de développements futurs de cette recherche sont proposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We provide a systematic treatment of the notion of economic insecurity, assuming that an individual’s sentiment of insecurity depends on the current wealth level and its variations experienced in the past. We think of wealth as a comprehensive variable encompassing anything that may help in coping with adverse occurrences. The current wealth level could also be interpreted as incorporating the individual’s evaluation of future prospects. Variations in wealth experienced in the recent past are given higher weight than experiences that occurred in the more distant past. Two classes of measures are characterized with sets of plausible and intuitive axioms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La première augmentation de la longévité en laboratoire fût observée à la suite d’une intervention nutritionnelle consistant en une réduction de l’apport alimentaire chez le rat. Plus tard, ce phénomène a été reproduit dans de très nombreuses espèces et référé en tant que restriction calorique. Le développement des techniques de biologie moléculaire moderne a permis de montrer dans des organismes modèles simples que cette flexibilité du processus de vieillissement était régulée par des facteurs génétiques. De fait, plusieurs mécanismes cellulaires ont alors pu être identifiés comme responsables de ce contrôle du vieillissement. Ces voies de régulation ont révélées être conservées entre les espèces, depuis les levures jusqu’aux organismes multicellulaires tels que le nématode, la mouche ou la souris, suggérant l’existence d’un programme universel de vieillissement dans le vivant. La levure s’est avéré à plusieurs reprises être un modèle puissant et fiable pour la découverte de gènes impliqués dans ce phénomène. Mon étude a consisté au développement d’un nouveau modèle unicellulaire d’étude du vieillissement à travers l’espèce Schizosaccharomyces pombe appelée aussi levure à fission. La première étape de mon travail a montré que les voies de détection des nutriments gouvernées par la sérine/thréonine protéine kinase A (Pka1) et la sérine/thréonine kinase Sck2 contrôlent le vieillissement chronologique de ces cellules comme il était connu dans la levure Saccharomyces cerevisiae. Ceci permit de valider l’utilisation de la levure à fission pour l’étude du vieillissement. Ensuite, nous avons analysé plus en détail l’effet pro-vieillissement du glucose en étudiant le rôle de sa détection par le récepteur membranaire Git3 couplé à la protéine G (Gpa2) en amont de la kinase Pka1. La perte du signal du glucose par la délétion de Git3 imite partiellement l’effet d’augmentation de longévité obtenu par baisse de la concentration en glucose dans le milieu. De plus, l’effet néfaste du signal du glucose est maintenu en absence de tout métabolisme du glucose suite à la mutation des hexokinases, premières enzymes de la glycolyse. L’ensemble de ces résultats suggèrent que la signalisation du glucose est prédominante sur son métabolisme pour son effet pro-vieillissement. D’autre part, à la fois la suppression de cette signalisation et la baisse de niveau de glucose disponible allongent la durée de vie en corrélation avec une augmentation de la résistance au stress, une hausse d’activité mitochondriale et une baisse de production de radicaux libres. Finalement, le criblage d’une banque de surexpression d’ADNc a permis d’identifier plusieurs gènes candidats responsables de ces effets en aval de la voie de signalisation Git3/PKA. La recherche sur les mécanismes moléculaires du vieillissement propose une nouvelle approche, un nouvel angle de vue, pour la compréhension des fonctions cellulaires et promet d’apporter de précieuses clefs pour mieux comprendre certaines maladies. En effet, le vieillissement est la première cause d’apparition de nombreuses affections comme les cancers, les maladies cardiovasculaires et métaboliques ou les maladies neurodégénératives tels que les syndromes d’Alzheimer et de Parkinson.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré les avancées médicales, la prédiction précoce du devenir développemental des enfants nés prématurément demeure un défi. Ces enfants sont à risque de séquelles plus ou moins sévères telles l'infirmité motrice d'origine cérébrale, les déficiences intellectuelles et sensorielles ainsi que les difficultés d'apprentissage. Afin de diminuer l’impact fonctionnel de ces séquelles, l’identification de marqueurs précoces devient un enjeu important. Dans le contexte actuel de ressources financières et humaines limitées, seuls les enfants nés avant 29 semaines de gestation ou avec un poids de naissance (PN) <1250g sont systématiquement suivis, laissant pour compte 95% des enfants prématurés. L’identification de marqueurs précoces permettrait de cibler les enfants nés après 28 semaines de gestation porteurs de séquelles. Le principal objectif des présents travaux visait à évaluer l’utilité de l’Évaluation neurologique d’Amiel-Tison (ENAT) dans l’identification et le suivi des enfants nés entre 29 et 37 semaines de gestation et qui présenteront des problèmes neurodéveloppementaux à l’âge corrigé (AC) de 24 mois. Plus précisément, la fidélité inter-examinateurs, la stabilité ainsi que la validité prédictive de l’ENAT ont été évaluées. La cohorte était composée initialement de 173 enfants nés entre 290/7 et 370/7 semaines de gestation, avec un PN<2500g et ayant passé au moins 24 heures à l’unité de soins néonatals du CHU Sainte-Justine. Les enfants étaient évalués avec l’ENAT à terme et aux AC de 4, 8, 12 et 24 mois. À l’AC de 24 mois, leur développement était évalué à l’aide du Bayley Scales of Infant Development–II. Les principaux résultats révèlent une excellente fidélité inter-examinateurs ainsi qu’une bonne stabilité au cours des deux premières années de vie du statut et des signes neurologiques. Des différences significatives à l’AC de deux ans ont été relevées aux performances développementales en fonction du statut neurologique à terme, qui constitue l’un des meilleurs facteurs prédictifs de ces performances. Les résultats encouragent l’intégration du statut neurologique tel que mesuré par l’ENAT comme marqueur précoce dans le cours d’une surveillance neurodéveloppementale des enfants les plus à risque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les agences de notation de crédit ont permis la banalisation des véhicules de titrisation. Elles ont sous-estimé la probabilité que les émetteurs de certains instruments financiers complexes ne puissent pas honorer leurs dettes. Elles ont tardé à refléter la détérioration du marché de leurs notes. Les agences de notation ont donc été en partie responsables de la tempête que traversent les places financières mondiales et ont exposé les entreprises à un risque sérieux de défiance. Alors que les entreprises doivent à l’heure actuelle maîtriser de multiples risques, celles-ci ont été les premières victimes des professionnels de la notation. Pour apporter une réponse au risque de la notation, les régulateurs tentent de réagir. Par l’intermédiaire de leur autorité boursière, les Etats-Unis ont été les premiers à modifier le cadre règlementaire de l’activité de la notation. C’est ce cadre règlementaire, adopté au premier trimestre 2009, qui fait l’objet du présent papier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

OBJECTIF: Chez les Autochtones, la relation entre le degré d'éloignement et les issues de naissance est inconnue. L’objectif de cette étude est d’évaluer cet impact parmi les Premières Nations du Québec. MÉTHODE : Nous avons utilisé les données vitales de Statistique Canada pour la province du Québec pour la période 1991-2000. L’ensemble des naissances géocodées parmi les communautés des Premières Nations groupées en quatre zones en se basant sur le degré d'éloignement a été analysé. Nous avons utilisé la régression logistique multi-niveaux pour obtenir des rapports de cotes ajustés pour les caractéristiques maternelles. RESULTATS : Le taux de naissances prématurées varie en fonction de l’éloignement de la zone d’habitation (8,2% dans la zone la moins éloignée et 5,2% dans la Zone la plus éloignée, P<0,01). En revanche, plus la zone est éloignée, plus le taux de mortalité infantile est élevé (6,9 pour 1000 pour la Zone 1 et 16,8 pour 1000 pour la Zone 4, P<0,01). Le taux élevé de mortalité infantile dans la zone la plus éloignée pourrait être partiellement expliqué par le fort taux de mortalité post-natale. Le taux de mort subite du nourrisson est 3 fois plus élevé dans la zone 4 par rapport à la zone 1. Cependant la mortalité prénatale ne présente pas de différences significatives en fonction de la zone malgré une fréquence élevée dans la zone 4. La morbidité périnatale était semblable en fonction de la zone après avoir ajusté pour l’âge, l’éducation, la parité et le statut civil. CONCLUSIONS : Malgré de plus faibles taux d’enfants à haut risque (accouchements prématurés), les Premières Nations vivant dans les communautés les plus éloignées ont un risque plus élevé de mortalité infantile et plus spécialement de mortalité post-néonatale par rapport aux Premières Nations vivant dans des communautés moins éloignées. Il y existe un grand besoin d’investissement en services de santé et en promotion de la santé dans les communautés les plus éloignées afin de réduire le taux de mortalité infantile et surtout post-néonatale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’épidémie du VIH-1 dure maintenant depuis plus de 25 ans. La grande diversité génétique de ce virus est un obstacle majeur en vue de l’éradication de cette pandémie. Au cours des années, le VIH-1 a évolué en plus de cinquante sous-types ou formes recombinantes. Cette diversité génétique est influencée par diverses pressions de sélection, incluant les pressions du système immunitaire de l’hôte et les agents antirétroviraux (ARV). En effet, bien que les ARV aient considérablement réduit les taux de morbidité et de mortalité, en plus d’améliorer la qualité et l’espérance de vie des personnes atteintes du VIH-1, ces traitements sont complexes, dispendieux et amènent leur lot de toxicité pouvant mener à des concentrations plasmatiques sous-optimales pour contrôler la réplication virale. Ceci va permettre l’émergence de variantes virales portant des mutations de résistance aux ARV. Ce phénomène est encore plus complexe lorsque l’on prend en considération l’immense diversité génétique des différents sous-types. De plus, le virus du VIH est capable de persister sous forme latente dans diverses populations cellulaires, rendant ainsi son éradication extrêmement difficile. Des stratégies pouvant restreindre la diversité virale ont donc été préconisées dans le but de favoriser les réponses immunes de l’hôte pour le contrôle de l’infection et d’identifier des variantes virales offrant une meilleure cible pour des stratégies vaccinales ou immunothérapeutiques. Dans cet esprit, nous avons donc étudié, chez des sujets infectés récemment par le VIH-1, l’effet du traitement ARV précoce sur la diversité virale de la région C2V5 du gène enveloppe ainsi que sur la taille des réservoirs. En deuxième lieu, nous avons caractérisé la pression de sélection des ARV sur des souches virales de sous types variés non-B, chez des patients du Mali et du Burkina Faso afin d’évaluer les voies d’échappement viral dans un fond génétique différent du sous-type B largement prévalent en Amérique du Nord. Notre étude a démontré la présence d’une population virale très homogène et peu diversifiée dans les premières semaines suivant l’infection, qui évolue pour atteindre une diversification de +0,23% à la fin de la première année. Cette diversification est plus importante chez les sujets n’ayant pas initié de traitement. De plus, ceci s’accompagne d’un plus grand nombre de particules virales infectieuses dans les réservoirs viraux des cellules mononucléées du sang périphérique (PBMC) chez ces sujets. Ces résultats suggèrent que l’initiation précoce du traitement pourrait avoir un effet bénéfique en retardant l’évolution virale ainsi que la taille des réservoirs, ce qui pourrait supporter une réponse immune mieux ciblée et potentiellement des stratégies immunothérapeutiques permettant d’éradiquer le virus. Nous avons également suivi 801 sujets infectés par des sous-types non-B sur le point de débuter un traitement antirétroviral. Bien que la majorité des sujets ait été à un stade avancé de la maladie, plus de 75% des individus ont obtenu une charge virale indétectable après 6 mois d’ARV, témoignant de l’efficacité comparable des ARV sur les sous-types non-B et B. Toutefois, contrairement aux virus de sous-type B, nous avons observé différentes voies moléculaires de résistance chez les sous type non-B, particulièrement chez les sous-types AGK/AK/K pour lesquels les voies de résistances étaient associées de façon prédominante aux TAM2. De plus, bien que la divergence entre les virus retrouvés chez les patients d’une même région soit faible, nos analyses phylogénétiques ont permis de conclure que ces mutations de résistance se sont produites de novo et non à partir d’un ancêtre commun porteur de résistance. Cependant, notre dernière étude au Mali nous a permis d’évaluer la résistance primaire à près de 10% et des études phylogénétiques seront effectuées afin d’évaluer la circulation de ces souches résistantes dans la population. Ces études suggèrent qu’un contrôle de la réplication virale par les ARV peut freiner la diversité du VIH et ainsi ouvrir la voie à un contrôle immunologique ciblé, utilisant de nouvelles stratégies vaccinales ou immunothérapeutiques. Toutefois, une thérapie antirétrovirale sous-optimale (adhérence, toxicité) peut conduire à l’échappement virologique en favorisant l’émergence et la dissémination de souches résistantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au niveau clinique, il a été observé que de 15 à 30 % des patients qui ont subi un infarctus du myocarde développent une dépression majeure. De plus, la population atteinte de dépression post-infarctus présente un risque de mortalité de trois à quatre fois plus élevé, et ce, en comparaison avec la population non dépressive post-infarctus. Dans un modèle de rat développé pour étudier la dépression post-infarctus, des cellules apoptotiques ont été retrouvées au niveau du système limbique. Il apparaît que les cytokines seraient en partie responsables de cette mort cellulaire qui relie le cœur en ischémie et le système nerveux central. Donc, les objectifs de cette thèse sont : 1) de caractériser spatialement et temporellement la survenue de la mort cellulaire par apoptose dans les structures du système limbique du rat, à la suite d’un infarctus du myocarde ; 2) de déterminer l’effet de l’anti-inflammatoire celecoxib sur cette apoptose observée au niveau de l’amygdale et de déterminer l’implication de l’enzyme COX-2 ; 3) de déterminer l’implication de la cytokine pro-inflammatoire TNF-α dans l’apoptose observée au niveau des structures du système limbique du rat, à la suite d’un infarctus du myocarde. Afin d’atteindre ces objectifs, les rats ont subi une ischémie de 40 minutes, suivi d’une période de reperfusion qui varie d’un protocole à l’autre (15 minutes, 24, 48, 72 heures ou 7 jours). De plus, en fonction du protocole, ces rats ont été traités avec soit du célécoxib (inhibiteur sélectif de la COX-2), soit avec du PEG sTNF-R1 (inhibiteur du TNF-α). À la suite de ces protocoles, les rats ont été sacrifiés, la taille de l’infarctus a été déterminée et les différentes structures cérébrales du système limbique prélevées. Des tests biochimiques propres à chaque protocole ont été réalisés afin de documenter l'apoptose. Il a alors été observé qu’aucun des deux traitements ne présentait d’effet sur la taille de l’infarctus. L’étude de l’apoptose dans le système limbique a révélé que : 1) le processus apoptotique se mettait en place dans l’hippocampe dès les 15 premières minutes de reperfusion suivant l’infarctus du myocarde et que ce processus était spatialement dynamique dans le système limbique jusqu’au septième jour postreperfusion ; 2) il est apparu que la COX-2 était impliquée dans l'apoptose du système limbique ; 3) il a été observé que le TNF-α périphérique était impliqué dans ce processus apoptotique après 72 heures de reperfusion en activant la voie extrinsèque de l'apoptose. Ces résultats ont permis de caractériser la survenue de l’apoptose au niveau du système limbique chez le rat à la suite d’un infarctus du myocarde et de documenter l'implication de la COX-2 et du TNF-α dans ce processus. Bien que ces résultats n’apportent pas de schémas thérapeutiques clairs ou de mécanismes physiopathologiques globaux ces derniers permettent une meilleure compréhension de la relation existante entre le cœur et le système nerveux central dans le cadre de l’infarctus du myocarde. De manière moins spécifique ils précisent la relation entre le système inflammatoire et le système nerveux central.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maitrise porte sur la représentation de l’ailleurs véhiculée aux lecteurs d’images, au Québec, par les gravures du journal illustré L’Opinion publique. Effectivement, si l’Histoire commence avec les premières traces écrites, elle pose le problème de l’étude historique de ceux qui n’ont pas laissé de tels témoignages, les personnes qui ne sont pas ou peu alphabétisées. Nous proposons d’étudier ces personnes par le biais de l’image, médium auquel elles ont pu avoir accès. Nous avons ainsi cherché à savoir quelle connaissance de l’ailleurs a pu être véhiculée aux lecteurs d’images à travers les gravures du journal. Nous considérons que les gravures sont comprises par tous. Celles-ci représentent la moitié des pages du périodique, nous pensons que ce journal a pu être accessible à chacun, à ceux que nous appelons les lecteurs d’images. Nos conclusions montrent que ces illustrations ont pu étendre la connaissance de l’espace des Québécois, à travers la représentation de l’actualité. Il est à noter que ces gravures proviennent en partie de journaux français et montrent la France et ses colonies. La population montréalaise se trouve donc au contact d’une certaine influence française, dont les élites se font les vecteurs. Une comparaison avec le Canadian Illustrated News révèle de profondes différences. Ainsi, ce journal du même propriétaire indique un intérêt marqué pour l’Empire britannique. Ce journal qui vise un public plus cultivé que celui de son homologue francophone donne à voir un espace plus large à ses lecteurs. Ainsi, chaque ligne éditoriale se fait l’écho de représentations différentes, transmises à ses lecteurs, populaires ou moins, francophones ou anglophones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ FRANÇAIS Ce mémoire fait l’étude du régime de prévention et de sanction des conflits possibles entre les intérêts de la municipalité d’une part et de ceux de ses élus de l’autre. L’objet de recherche est abordé selon une approche historique et éthique basée sur le régime juridique actuel. Le mémoire est divisé en 3 chapitres : (1) la notion de conflit d’intérêts ; (2) le cadre juridique à la base du régime de sanction des conflits d’intérêts et (3) celui sur le régime de prévention des conflits d’intérêts dans le domaine municipal. Le chapitre préliminaire situe l’objet de recherche à l’intérieur des grandes tendances de la recherche juridique sur la question et présente un cadre de réflexion sur la notion de conflit d’intérêts. L’examen des conflits d’intérêts repose avant tout sur un questionnement et sur un jugement de nature subjective : ce qui a été considéré comme un conflit d’intérêts autrefois ne l’est pas nécessairement de nos jours et ce, en dépit du fait que le cadre juridique évolue aussi dans le temps. On ne peut donc pas dégager avec exactitude et pour toujours ce qui constitue un conflit d’intérêts de ce qui n’en constitue pas un. Le chapitre premier est divisé en 4 sections. On y traite notamment de la règle relative à l’interdiction pour un élu municipal de contracter avec la municipalité. On y démontre que l’origine de cette règle remonte aux premières lois municipales du XIXe siècle et que cette dernière a subi assez peu de modifications au fil des ans. La troisième section porte sur les cas de malversation, d’abus de confiance et les autres inconduites prohibées par la Loi sur les élections et référendums dans les municipalités (L.R.Q. c. E-2.2). Une quatrième section sur les accusations criminelles d’abus de confiance et de corruption vient clore le premier chapitre. Chacune de ces sections est abordée notamment en faisant l’historique des dispositions législatives en cause ainsi qu’en faisant certains parallèles avec la législation des autres provinces canadiennes. Le chapitre 2 sur le régime de prévention des conflits d’intérêts est divisé en 4 parties. La première section porte sur l’obligation pour un élu de déclarer annuellement ses intérêts pécuniaires. Cette obligation n’est pas unique au Québec puisqu’elle est présente dans quelques législations provinciales canadiennes. La deuxième section porte sur l’obligation pour cet élu de dénoncer verbalement son intérêt dans une question abordée par le conseil municipal réuni en séance ou en comité. Là encore, l’origine de cette approche préventive est fort ancienne et a longtemps été considéré comme le seul moyen de dénoncer son intérêt sans subir les sanctions prévues par la loi. Une troisième section s’intéresse au cadre juridique entourant les soumissions publiques et qui vise à éliminer toute situation possible de favoritisme ou de patronage. Une quatrième section aborde la question des codes d’éthique et de leur utilité ainsi que les développements récents sur cette question avec le dépôt en 2009 du rapport du Groupe de travail sur l’éthique dans le milieu municipal. Une conclusion vient clore le mémoire en présentant une synthèse de l’étude assortie de commentaires personnels sur les conclusions du Groupe de travail précité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.