965 resultados para Bien-être au travail


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cancer du poumon associé à l’exposition au nickel, au chrome VI et au cadmium dans le milieu de travail utilisant deux études populationnelles cas-témoins à Montréal. Au début des années 1990, le nickel, le chrome VI et le cadmium ont été classés en tant qu’agents cancérigènes de classe 1 par le CIRC (Centre International de Recherche sur le Cancer). Cependant, les résultats des études ayant permis la classification de ces métaux n’ont pas toujours été reproduits, et d’importantes questions demeurent quant aux effets de ces métaux à de faibles niveaux d’exposition. Un plus grand nombre de recherches empiriques est donc nécessaire afin de réaffirmer la cancérogénicité de ces agents, et d’identifier les circonstances dans lesquelles ils peuvent être néfastes. L'objectif de cette étude était d'explorer la relation entre l’exposition à un des métaux (soit le nickel, le chrome VI, ou le cadmium) et les risques subséquents de développer un cancer du poumon chez des travailleurs provenant de différents milieux de travail qui sont exposés à ces métaux à de différents degrés. Deux études cas-témoins de base populationnelle menées à Montréal ont fourni les données nécessaires pour examiner la cancérogénicité de ces métaux. La première étude était menée entre 1979 et 1986 chez des hommes âgés de 35 à 70 ans ayant un cancer dans l’un de 19 sites anatomiques de cancer sélectionnés. La seconde étude était menée entre 1996 et 2001 chez des hommes et des femmes âgés de 35 à 75 ans, avec un diagnostic de tumeur maligne au poumon. Dans ces deux études, les cas ont été recensés dans tous les hôpitaux de l'île de Montréal, tandis que les contrôles populationnels appariés par âge et stratifiés par sexe, ont été sélectionnés des listes électorales. Une entrevue avec chaque sujet a permis d'obtenir un historique d'emploi détaillé ainsi que des informations précises sur les facteurs de risques socio-économiques et personnels. Les descriptions de poste ont été évaluées par une équipe d'experts chimistes et hygiénistes afin de déterminer si le sujet a été exposé à chaque agent, et pour mesurer à la fois la concentration et la durée de chaque exposition, ainsi que l’exposition cumulative tout au long de la vie de chaque participant. Pour déterminer si une exposition à l’un des trois métaux en cause était associée à une augmentation de l'incidence du cancer du poumon, des données ont été analysées par régression logistique : des ajustements ont été effectués pour des facteurs de confusion pertinents incluant un historique détaillé du tabagisme. Des mesures catégoriques d'exposition cumulée ont été également analysées, ainsi que la modification des effets par le tabagisme. Les deux études ont été analysées séparément, puis par la suite combinées afin d'augmenter la puissance statistique. Les niveaux d'exposition mesurés dans cette population ne semblaient pas poser un excès de risque de cancer du poumon pour les travailleurs exposés au chrome VI. Cependant, ceux qui ont été exposés au nickel ont subi une augmentation significative du risque, et ce, quel que soit leur niveau d'exposition. Le risque de développer un cancer du poumon suite à une exposition au cadmium était élevé, mais pas de manière significative. Pour chacun des trois métaux, le risque de cancer du poumon était très élevé parmi les non-fumeurs, mais pas parmi les fumeurs. L’effet combiné du tabagisme et de l’exposition aux métaux était compatible avec un excès de risque additif. Cependant, les intervalles de confiance dans cette étude tendaient à être larges, et une faiblesse de puissance statistique peut limiter l’interprétation de certains résultats. Cette étude est unique dans la mesure où elle a fourni des preuves empiriques sur les risques de développer le cancer du poumon liés aux faibles niveaux d’exposition au nickel, au chrome VI, ou au cadmium provenant de divers contextes de travail. Dans la plupart des autres études, la majorité des expositions pertinentes n’ont pas été bien contrôlées. À l'inverse, cette étude a bénéficié de la collecte et de la disponibilité d'information détaillée concernant le tabagisme et d’autres facteurs de risque. Les résultats de cette étude ont d'importantes conséquences pour la santé publique, tant au niveau de la détermination des risques pour les travailleurs actuellement exposés à ces métaux, qu'au niveau de l’évaluation des risques pour la population en général, elle-même exposée à ces métaux par le biais de la pollution et de la fumée de cigarette. Cette analyse contribuera fort probablement à une réévaluation par le CIRC de la cancérogénicité de ces métaux. L'exploration de la relation entre les risques de cancer du poumon et l'exposition au nickel, au chrome VI et au cadmium est donc opportune et pertinente.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La plasticité synaptique est une propriété indispensable à l’acquisition de la mémoire chez toutes les espèces étudiées, des invertébrés aux primates. La formation d’une mémoire débute par une phase de plasticité qui inclut une restructuration synaptique ; ensuite elle se poursuit par la consolidation de ces modifications, contribuant à la mémoire à long terme. Certaines mémoires redeviennent malléables lorsqu’elles sont rappelées. La trace mnésique entre alors dans une nouvelle de phase de plasticité, au cours de laquelle certaines composantes de la mémoire peuvent être mises à jour, puis reconsolidées. L’objectif de la présente thèse est d’étudier les mécanismes cellulaires et moléculaires qui sont activés lors du rappel d’une mémoire. Nous avons utilisé un modèle de conditionnement Pavlovien, combiné à l’administration d’agents pharmacologiques et à l’analyse quantitative de marqueurs de plasticité synaptique, afin d’étudier la dynamique de la mémoire de peur auditive chez des rats Sprague Dawley. La circuiterie neuronale et les mécanismes associatifs impliqués dans la neurobiologie de cette mémoire sont bien caractérisés, en particulier le rôle des récepteurs glutamatergiques de type NMDA et AMPA dans la plasticité synaptique et la consolidation. Nos résultats démontrent que le retour de la trace mnésique à un état de labilité nécessite l’activation des récepteurs NMDA dans l’amygdale baso-latérale à l’instant même du rappel, alors que les récepteurs AMPA sont requis pour l’expression comportementale de la réponse de peur conditionnée. D’autre part, les résultats identifient le rappel comme une phase bien plus dynamique que présumée, et suggèrent que l’expression de la peur conditionnée mette en jeu la régulation du trafic des récepteurs AMPA par les récepteurs NMDA. Le présent travail espère contribuer à la compréhension de la neurobiologie fondamentale de la mémoire. De plus, il propose une intégration des résultats aux modèles animaux d’étude des troubles psychologiques conséquents aux mémoires traumatiques chez l’humain, tels que les phobies et les syndromes de stress post-traumatiques.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La contribution de l’inhalation et de la voie percutanée à l’exposition totale à des composés organiques volatils (COV) présents dans l’eau potable est une problématique qui suscite un intérêt grandissant en santé publique et au niveau réglementaire. Jusqu’à tout récemment, seule l’ingestion était considérée dans l’évaluation du risque des contaminants de l’eau. L’objectif de ce projet était de caractériser l’impact de l’exposition multivoie sur la pharmacocinétique et la dose interne de trois COV : le toluène (TOL), le n-hexane (HEX) et le cyclohexane (CYCLO). À cette fin, un modèle expérimental animal a été utilisé et un modèle toxicocinétique à base physiologique (TCBP) a été adapté pour le TOL. Des rats Sprague-Dawley ont été exposés par voies uniques (inhalation, orale et percutanée) ou simultanées (multivoie) aux solvants. Pour le TOL, les trois voies ont été expérimentées, alors que la voie percutanée n’a pas été retenue pour le HEX et le CYCLO. Des prélèvements sanguins ont permis de caractériser les cinétiques sanguines. Les niveaux sanguins, obtenus lors des expositions multivoies, étaient généralement plus élevés que la somme des niveaux associés aux expositions par voies uniques, fait illustré par le rapport des surfaces sous la courbe expérimentale versus les prédictions (TOL : 1,30 et 2,19 ; HEX : 1,55 ; CYCLO : 0,98 et 0,99). Le modèle TCBP prédit bien la cinétique du TOL lors d’expositions par voies uniques et par multivoies. Les données expérimentales obtenues suggèrent que la dose interne résultant d’une exposition multivoie ne peut pas toujours être prédite par la somme des doses internes obtenues lors d’expositions par voies uniques. Ce phénomène serait explicable par la saturation du métabolisme. La modélisation TCBP est un outil efficace pour l’estimation du risque relatif à l’exposition multivoie aux COV présents dans l’eau potable.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

INTRODUCTION : Les soins de première ligne au Québec vivent depuis quelques années une réorganisation importante. Les GMF, les cliniques réseaux, les CSSS, les réseaux locaux de service, ne sont que quelques exemples des nouveaux modes d’organisation qui voient le jour actuellement. La collaboration interprofessionnelle se trouve au cœur de ces changements. MÉTHODOLOGIE : Il s’agit d’une étude de cas unique, effectuée dans un GMF de deuxième vague. Les données ont été recueillies par des entrevues semi-dirigées auprès du médecin responsable du GMF, des médecins et des infirmières du GMF, et du cadre responsable des infirmières au CSSS. Les entrevues se sont déroulées jusqu’à saturation empirique. Des documents concernant les outils cliniques et les outils de communication ont aussi été consultés. RÉSULTATS : À travers un processus itératif touchant les éléments interactionnels et organisationnels, par l’évolution vers une culture différente, des ajustements mutuels ont pu être réalisés et les pratiques cliniques se sont réellement modifiées au sein du GMF étudié. Les participants ont souligné une amélioration de leurs résultats cliniques. Ils constatent que les patients ont une meilleure accessibilité, mais l’effet sur la charge de travail et sur la capacité de suivre plus de patients est évaluée de façon variable. CONCLUSION : Le modèle conceptuel proposé permet d’observer empiriquement les dimensions qui font ressortir la valeur ajoutée du développement de la collaboration interprofessionnelle au sein des GMF, ainsi que son impact sur les pratiques professionnelles.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ce mémoire a comme objectif de présenter une revue de la littérature et une analyse comparative des différents modèles existants pour le calcul de la capacité de support d’un plan d’eau aux apports en phosphore. Ce document a aussi pour but d’évaluer les différentes options pour l’utilisation de ce genre d’outil au Québec, ainsi que d’amorcer une réflexion sur les applications possibles de ce concept au niveau local, en lien avec l’aménagement du territoire des bassins versants. L’analyse comparative des modèles théoriques, combinée à la réflexion d’acteurs clés impliqués actuellement dans un processus qui consiste à tester leur utilisation dans les Laurentides au Québec, a permis de mettre en relief l’importance de calibrer les modèles régionalement. De plus, certains avantages semblent résider dans l’utilisation d’un modèle de nature empirique afin d’effectuer les prédictions sur les apports naturels et totaux en phosphore pour les lacs de cette région. Par contre, l’utilisation d’une approche de type « bilan de masse », s’avère tout de même indispensable afin de relativiser l’importance des différents apports anthropiques en phosphore du bassin versant. Dans l’avenir, l’utilisation de tels modèles permettra possiblement de justifier certaines mesures restrictives au développement des bassins versants, qui pourront s’insérer parmi les outils d’urbanisme actuels. Ce sont principalement les municipalités qui détiennent les pouvoirs nécessaires afin d’intégrer les prescriptions découlant de ce genre d’analyse à l’aménagement du territoire des bassins versants. Plusieurs outils d’urbanisme, tels que les plans d’aménagement d’ensemble (PAE) ou bien les règlements de zonage et de lotissement, semblent donner assez de latitude afin de permettre aux municipalités d’intervenir en ce sens. Toutefois, les modèles de capacité de support ne pourront pas être utilisés afin de calculer un nombre précis d’habitations qu’il est possible de construire dans le bassin versant d’un lac.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les efforts investis pour diminuer les risques de développer un infarctus du myocarde sont nombreux. Aujourd’hui les médecins prennent connaissance des divers facteurs de risque connus prédisposant aux syndromes coronariens aigus (SCA) dans le but de prendre en charge les patients «à risque» [1]. Bien que le suivi rigoureux et le contrôle de certains facteurs de risque modifiables aient permis une meilleure gestion des cas de SCA, les cas d’infarctus persistent de manière encore trop fréquente dans le monde. Puisque d’importantes études ont démontré que les SCA pouvaient survenir sans même la présence des facteurs de risque conventionnels [2, 3], les chercheurs se sont penchés sur un autre mécanisme potentiellement responsable de l’avènement des SCA : l’inflammation. L’inflammation joue un rôle prépondérant dans l’initiation, la progression et les complications de l’athérosclérose [4, 5] mais aussi dans les situations post-infarctus [6, 7]. Au cours des dernières années, le contrôle du processus inflammatoire est devenu une cible de choix dans la prévention et le traitement des SCA. Cependant, malgré les efforts investis, aucun de ces traitements ne s’est avéré pleinement efficace dans l’atteinte du but ultime visé par une diminution de l’inflammation : la diminution de la mortalité. Le complément est un système complexe reconnu principalement pour son rôle primordial dans l’immunité [2]. Cependant, lorsqu’il est activé de manière inappropriée ou excessive, il peut être à l’origine de nombreux dommages cellulaires caractéristiques de plusieurs pathologies inflammatoires dont font partie les complications de l’athérosclérose et des événements post-infarctus. Le travail effectué dans le cadre de mon doctorat vise à établir les rôles physiopathologiques du complément dans les interactions de l’axe thrombose-inflammation caractéristiques des SCA dans le but ultime d’identifier des cibles thérapeutiques permettant le développement de nouvelles approches pour la prévention et le traitement de ces pathologies. Les principaux résultats obtenus durant mon cursus suggèrent d’abord que la voie alterne du complément peut représenter une cible thérapeutique de choix dans les maladies coronariennes aiguës puisque l’activation terminale du complément semble y être principalement causée par l’activation du cette voie. De faibles niveaux sériques de MBL (mannan-binding lectin) et une activation terminale négligeable du complément caractérisent plutôt la maladie coronarienne stable. En comparant l’activité relative de chacune des voies du complément chez des cohortes de patients traités ou non par un anticorps spécifique à la protéine C5 du complément (pexelizumab), un second volet démontre quant à lui qu’une inhibition de l’activation du C5 n’a pas d’effet bénéfique majeur sur l’inhibition de la formation du complexe sC5b-9 ou sur les événements cliniques subséquents. Par conséquent, nous avons exploré, à l’aide d’un modèle in vitro, les raisons de l’inefficacité du traitement. Les résultats révèlent que le blocage du C5 avec le pexelizumab inhibe la production de l’anaphylatoxine pro-inflammatoire C5a et du complexe terminal du complément sans toutefois avoir d’effet sur l’apoptose des cellules endothéliales produites induite par le sérum des patients atteints de STEMI. Finalement, une autre section stipule que l’atorvastatine diminue l’activation du complément induite par les plaquettes sanguines chez des patients hypercholestérolémiques, mettant en évidence l’importance du rôle de cette statine dans la réduction des effets délétères de l’activation du système du complément médié par les plaquettes. Ensemble, l’étude du rôle spécifique des différentes voies d’activation du complément dans des contextes pathologiques variés, l’analyse des effets d’une inhibition spécifique de la protéine C5 du complément dans la progression des SCA et la mise en évidence des interactions entre l’activation du complément et les plaquettes activées ont contribué au développement d’une meilleure connaissance des rôles physiopathologiques du complément dans la progression de la maladie coronarienne.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Notre recherche a pour but de déterminer comment les genres textuels peuvent être exploités dans le design des environnements numériques de travail afin de faciliter l’accomplissement des pratiques textuelles de cadres et de secrétaires dans une municipalité et une administration fédérale canadiennes. À cet effet, le premier objectif consiste à évaluer l’aptitude des environnements numériques de travail à supporter les pratiques textuelles (lecture, écriture et manipulation des textes) de ces employés. Le deuxième objectif est de décrire les rôles des genres textuels au cours des pratiques textuelles. Avec l’exemple du courriel, le troisième objectif vise à examiner comment le genre peut être exploité dans une perspective d’assistance à la réalisation des pratiques textuelles dans les environnements numériques de travail. Cette recherche de nature qualitative comporte une méthodologie en deux étapes. La première étape consiste en un examen minutieux des pratiques textuelles, des difficultés rencontrées au cours de celles-ci, du rôle du genre dans les environnements numériques de travail, ainsi que des indices sollicités au cours de la gestion du courriel. Trois modes de collecte des données qualitatives sont utilisés auprès de 17 cadres et de 17 secrétaires issus de deux administrations publiques : l’entrevue semi-dirigée, le journal de bord et l’enquête cognitive. Les résultats sont examinés à l’aide de stratégies d’analyse de contenu qualitative. La deuxième phase comprend la mise au point d’une chaîne de traitement du courriel, visant à étayer notre réflexion sur le genre textuel et son exploitation dans la conception des environnements numériques de travail. Un corpus de 1703 messages est élaboré à partir d’un échantillon remis par deux cadres gouvernementaux. Les résultats permettent d’abord de dresser un portrait général des pratiques de lecture, d’écriture et de manipulation des textes communes et spécifiques aux cadres et aux secrétaires. L’importance du courriel, qui constitue environ 40% des systèmes notés dans les journaux de bord, est soulignée. Les difficultés rencontrées dans les environnements numériques de travail sont également décrites. Dans un deuxième temps, les rôles du genre au cours des pratiques textuelles sont examinés en fonction d’une matrice tenant à la fois compte de ses dimensions individuelles et collectives, ainsi que de ses trois principales facettes ; la forme, le contenu et la fonction. Ensuite, nous présentons un cadre d’analyse des indices affectant la gestion du courriel qui synthétise le processus d’interprétation des messages par le destinataire. Une typologie des patrons de catégorisation des cadres est également définie, puis employée dans une expérimentation statistique visant la description et la catégorisation automatique du courriel. Au terme de ce processus, on observe des comportements linguistiques marqués en fonction des catégories du courriel. Il s’avère également que la catégorisation automatique basée sur le lexique des messages est beaucoup plus performante que la catégorisation non lexicale. À l’issue de cette recherche, nous suggérons d’enrichir le paradigme traditionnel relevant de l’interaction humain-ordinateur par une sémiotique du genre dans les environnements numériques de travail. L’étude propose également une réflexion sur l’appartenance du courriel à un genre, en ayant recours aux concepts théoriques d’hypergenre, de genre et de sous-genre. Le succès de la catégorisation automatique du courriel en fonction de facettes tributaires du genre (le contenu, la forme et la fonction) offre des perspectives intéressantes sur l’application de ce concept au design des environnements numériques de travail en vue de faciliter l’accomplissement des pratiques textuelles par les employés.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

De nombreuses études ont établi que la majorité des neurones libèrent plus qu’une substance chimique. Il est bien connu que les neurones peuvent co-exprimer et co-libérer des neuropeptides en plus de leur neurotransmetteur, mais des évidences de la co-libération de deux petits neurotransmetteurs à action rapide se sont accumulées récemment. Des enregistrements électrophysiologiques ont aussi montré que des neurones sérotoninergiques et dopaminergiques isolés peuvent libérer du glutamate quand ils sont placés en culture. De plus, la présence de glutamate et de glutaminase a été détectée dans des neurones sérotoninergiques, dopaminergiques et noradrénergiques par immunomarquage sur des tranches de cerveau. Malheureusement, en considérant le rôle métabolique du glutamate, sa détection immunologique n’est pas suffisante pour assurer le phénotype glutamatergique d’un neurone. Récemment, la découverte de trois transporteurs vésiculaires du glutamate (VGLUT1-3) a grandement facilité l’identification des neurones glutamatergiques. Ces transporteurs sont nécessaires pour la libération de glutamate et constituent les premiers marqueurs morphologiques du phénotype glutamatergique. Il a été démontré que des neurones noradrénergiques expriment VGLUT2 et que des neurones sérotoninergiques expriment VGLUT3. Mais aucune évidence d’expression d’un des sous-types de VGLUT n’a été reportée pour les neurones dopaminergiques. Le but de notre travail était d’identifier quel sous-type de VGLUT est exprimé par les neurones dopaminergiques mésencéphaliques, et de déterminer si le phénotype glutamatergique de ces neurones peut être modulé dans des conditions particulières. Premièrement, nous avons utilisé des microcultures pour isoler les neurones dopaminergiques et des doubles marquages immunocytochimiques pour observer l’expression de VGLUT dans les neurones positifs pour la tyrosine hydroxylase (TH). Nous avons montré que la majorité (80%) des neurones TH+ isolés exprime spécifiquement VGLUT2. Cette expression est précoce au cours du développement in vitro et limitée aux projections axonales des neurones dopaminergiques. Toutefois, cette forte expression in vitro contraste avec la non-détection de ce transporteur dans les rats adultes in vivo. Nous avons décidé ensuite de regarder si l’expression de VGLUT2 pouvait être régulée pendant le développement cérébral de jeunes rats et sous des conditions traumatiques, par double hybridation in situ. Entre 14 et 16 jours embryonnaires, les marquages de VGLUT2 et de TH montraient une superposition significative qui n’était pas retrouvée à des stades ultérieurs. Dans le mésencéphale de jeunes rats postnataux, nous avons détecté l’ARNm de VGLUT2 dans environs 1-2% des neurones exprimant l’ARNm de TH dans la substance noire et l’aire tegmentaire ventrale (ATV). Pour explorer la régulation de l’expression de VGLUT2 dans des conditions traumatiques, nous avons utilisé la 6-hydroxydopamine (6-OHDA) pour léser les neurones dopaminergiques dans les jeunes rats. Dix jours après la chirurgie, nous avons trouvé que 27% des neurones dopaminergiques survivants dans l’ATV exprimaient l’ARNm de VGLUT2 dans les rats 6-OHDA. Finalement, nous avons observé la colocalisation de la protéine VGLUT2 dans les terminaisons TH positives par microscopie électronique. Dans les rats normaux, la protéine VGLUT2 est retrouvée dans 28% des terminaisons axonales TH dans le noyau accumbens. Dans les rats lésés à la 6-OHDA, nous avons observé une diminution considérable des terminaisons TH positives, et une augmentation dans la proportion (37%) des terminaisons dopaminergiques présentant du VGLUT2. Nos résultats suggèrent que le phénotype glutamatergique des neurones dopaminergiques est régulé au cours du développement, peut être réactivé dans des états pathologiques, et que ces neurones peuvent libérer du glutamate dans conditions spécifiques.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

[Support Institutions:] Department of Administration of Health, University of Montreal, Canada Public Health School of Fudan University, Shanghai, China

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La nourriture traditionnelle compose une part essentielle de la culture Inuit. Néanmoins, la contamination de cette nourriture par les organochlorés et les métaux lourds fait l’objet d’une attention toute particulière, car elle excède dans certains cas les recommandations canadiennes. Le but de ce travail est, d’une part de mettre à jour les estimés d’exposition au chlordane, au BPC, au toxaphène et au mercure, et d’autre part d’en explorer certaines sources de variation. Pour ce faire, de nouvelles données sur la concentration de ces contaminants parmi les plus importants aliments traditionnels ont été combinées aux relevés alimentaires assemblés dans l’Arctique canadien en 1998 et 1999, la quantité et le type de nourriture traditionnelle consommés étant supposés ne pas avoir changé. D’après l’ensemble des nouveaux estimés obtenus, les changements dans la banque de données sur les contaminants affectent plus les extrémités des distributions que les mesures de tendance centrale. Les estimés d’apports en organochlorés peuvent être considérés comme toujours actuels étant donné que les cinq types d’aliments pour lesquels il y a des nouvelles données disponibles représentent la majorité de l’exposition totale. En ce qui concerne le mercure, toutefois, des données additionnelles sont nécessaires à propos du caribou, du narval, du muktuk du béluga et de la truite de lac pour générer des niveaux d’exposition plus exacts. Les sources de variations de ces estimés d’exposition ont été explorées en évaluant les coefficients de variation propres aux apports alimentaires et ceux propres aux concentrations de contaminants dans les aliments traditionnels. Il s’avère que la variation attribuable aux méthodes de collecte de données alimentaires est plus élevée que celle attribuable à la mesure des contaminants dans les banques de données. De nouvelles méthodes pour mesurer les niveaux de consommation d’aliments traditionnels devraient être développées.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Comprendre le mode d’existence de l’organisation est certainement l’un des plus grands défis que se sont donnés les chercheurs qui s’intéressent à ce domaine d’étude. La littérature nous présente ainsi plusieurs images, métaphores et perspectives qui, combinées, dressent un portrait hybride de ce type de collectif. Je propose, dans cette thèse, de reconnaître et exploiter ce caractère hybride de l’organisation en partant d’une réflexion centrée sur l'espace. En m’inspirant particulièrement des travaux de la géographe Doreen Massey (1999, 2005), le concept d'espace auquel je souscris est celui d’un espace ouvert et dynamique (qui incorpore le temps), basé sur une relationalité matérielle et hétérogène, supposant des acteurs humains et non humains en interaction. L'espace peut donc être compris comme la coexistence d’ontologies hétérogènes, ce que Massey (2005) nomme une coexistence de trajectoires comme stories-so-far. Il s’agit ici d’une vision performative de l’espace organisationnel qui est constitué dans la relation de trajectoires distinctes qui coexistent, se rencontrent, s’affectent, entrent en conflit ou coopèrent (Massey, 1999). Je postule que pour assurer une certaine continuité et cohérence dans la coexistence de trajectoires hétérogènes, un travail d’alignement et d’ordonnancement est mis à l’oeuvre, et ce, par le suivi d’une trajectoire principale — ce que je nomme une trajectoire scriptée. Suivre cette trajectoire permet ainsi à l’organisation de s’étendre, de se rendre présente dans le temps et dans l’espace, sans pour autant perdre son identité : to be here and there at the same time, now and then at the same place. À partir de cette définition de l’espace, je propose d’« espacer l’organisation », et plus particulièrement d’« espacer » Explora, un programme d’éducation non formelle du gouvernement du Chili visant la diffusion et la valorisation de la science et de la technologie. Cette proposition est double : elle renvoie aux pratiques d’espacements — des pratiques hybrides, collectives et situées — des agents organisationnels (dans ce cas, aux pratiques des agents d’Explora impliqués dans l’organisation d’un projet, celui de la Semaine de la science 2006),mais aussi à une pratique de recherche. « Espacer l’organisation » veut donc dire déployer ces espaces pleins, déplier l’organisation, accroître la série des simultanéités-successions pour ainsi créer plus d’espace-temps.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La 1-β-D-arabinofuranosylcytosine (ara-C) demeure l’agent anticancéreux principalement utilisé dans le traitement de la leucémie myéloblastique aiguë (LMA), malgré sa dégradation et son élimination rapide après une administration parentérale. Son encapsulation dans des vecteurs pharmaceutiques, majoritairement des liposomes, a permis de surmonter ces inconvénients. L’objectif général de ce projet de doctorat était de développer deux systèmes à libération prolongée, à base de phospholipides, de cholestérol et de poly(éthylène glycol) (PEG) afin d’encapsuler l’ara-C et ultimement, d’améliorer son efficacité dans le traitement de la LMA. Des Sphérulites® (vésicules multilamellaires d’un type particulier) ont d’abord été étudiées pour leur forte capacité d’encapsulation, due à leur mode de préparation. Par la suite, une formulation liposomale capable, d’une part de cibler spécifiquement les cellules leucémiques et, d’autre part, de promouvoir la libération intracellulaire de l’ara-C grâce à sa sensibilité au pH, a été mise au point. Les deux formulations se devaient d’avoir un faible diamètre, une stabilité en présence de fluides biologiques et des temps de circulation prolongés chez l’animal. Une préparation de Sphérulites®, composée de Phospholipon 90G, de Solutol HS15 et de cholestérol, a permis d’obtenir des vésicules de 300 nm de diamètre. Un dérivé lipidique de PEG a pu être fixé à leur surface, sans modifier la disposition concentrique des lamelles, ni changer leur stabilité. Les Sphérulites® PEGylées ont été chargées d’ara-C et injectées chez le rat par la voie intraveineuse. Elles ont démontré des temps de circulation significativement prolongés comparativement aux Sphérulites® sans PEG. Cependant, l’ara-C s’est retrouvée éliminée de la circulation sanguine très rapidement, révélant une libération précoce du principe actif à partir de ces vésicules. Les liposomes sensibles au pH (~150 nm) ont été obtenus suite à l’insertion d’un copolymère à base de dioctadécyle, de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique. L’anticorps anti-CD33, soit complet soit son fragment Fab’, a été fixé à la surface des liposomes afin de cibler les cellules leucémiques. Les essais in vitro ont démontré la spécificité de la formulation pour différentes cellules leucémiques (CD33+), sa stabilité en présence de protéines plasmatiques et la libération intracellulaire d’un marqueur fluorescent et de l’ara-C. Enfin, des études menées chez la souris saine et immunodéprimée inoculée de cellules HL60 ont montré que la formulation exposant le fragment Fab’ possédait un profil pharmacocinétique et une biodistribution semblables à ceux des liposomes contrôles non-ciblés. L’encapsulation de l’ara-C a permis d’améliorer grandement ses temps de circulation après une administration intraveineuse. Cependant, bien que les immunoliposomes ont permis de prolonger la survie des souris leucémiques comparativement à l’ara-C libre, l’addition du polymère sensible au pH n’a pas permis d’apporter de réel avantage à la formulation lorsque administrée in vivo. Les résultats obtenus dans ce travail de thèse ont, dans un premier temps, mis en évidence que les Sphérulites® pourraient s’avérer utiles dans la vectorisation d’agents anticancéreux si leur capacité à retenir le principe actif in vivo était améliorée. Dans un second temps, les données présentées avec les immunoliposomes suggèrent qu’ils pourraient apporter un bénéfice notable dans le traitement de la LMA.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’objectif de ce mémoire est de mettre en lumière la mise en forme, la réception et la transmission de 2S 7,1-17 à l’intérieur du débat qui a présentement cours autour de la rédaction deutéronomiste, ainsi que de vérifier le lien possible de ce texte avec l’évolution de la pensée théologique juive issue de l’édition deutéronomiste. Notre recherche commence par établir un texte hébreu de travail fiable grâce à la critique textuelle. L’analyse syntaxique nous permet ensuite de proposer une traduction qui soit la plus fidèle possible au texte hébreu retenu afin de mieux comprendre le sens du texte dans sa langue originale. Nous abordons, dans le troisième chapitre, la question des différentes sources littéraires ayant pu servir à la composition du texte de 2S 7,1-17. L’exploration plus détaillée de quelques pistes qui sont apparues à la suite de la critique des sources et de la réception du texte de 2S 7,1-17 par le(s) Chroniste(s), nous permet de constater qu’à l’intérieur des traditions textuelles hébraïques, la prophétie de Nathan a évolué de façon significative dans le parcours des différentes traditions de relecture. À partir des quatres étapes de recherches, nous dégageons les éléments qui pourraient être mis en lien avec les théories existantes dans le cadre de l’histoire deutéronomiste et mettons en lumière les forces et les faiblesses des solutions proposées. Les résultats de la recherche nous permettent de penser que l’intégration de la prophétie de Nathan dans la trame historique s’expliquerait par la nécessité d’éclairer une suite d’événements selon diverses perspectives théologiques. Ce n’est qu’à partir des conditions exiliques que nous aurions le texte de 2S 7,1-17 le plus tardif offrant une réflexion sur la première histoire d’Israël. Dans ce sens, la prophétie de Nathan prendrait toute sa valeur et son extension bien au-delà de la seule histoire personnelle de David ou de Salomon.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

S’il est généralement reconnu que le processus d’institutionnalisation de l’Église s’est accéléré au IVe siècle, certaines de ses étapes nous sont moins connues. Ce mémoire cherche à évaluer l’importance de Jean Chrysostome dans l’émergence de la primauté d’honneur de Constantinople. Après une étude attentive du troisième canon du concile de Constantinople I mise en relation avec l’opinion de trois auteurs contemporains, c’est-à-dire Palladius d’Hélénopolis, Socrate de Constantinople et Sozomène, il ressort de ce travail que l’épiscopat de Jean Chrysostome a favorisé l’implantation de cette prééminence dans l’Église. L’analyse des modalités de la primauté d’honneur de Constantinople montre bien qu’historiquement, les évêques de l’ancienne et de la nouvelle Rome n’ont pas construit leur primat à l’aide des mêmes arguments. L’explicitation de ces éléments ne se veut pas une prise de position dans les débats oecuméniques actuels, mais plutôt un préliminaire permettant une meilleure compréhension des données du problème.