1000 resultados para modèle à risques concurrents
Resumo:
Problématique : La collaboration entre infirmières et médecins est un élément crucial lorsque la condition des patients est instable. Une bonne collaboration entre les professionnels permet d’améliorer la qualité des soins par l’identification des patients à risques et l’élaboration de priorités dans le but de travailler à un objectif commun. Selon la vision des patients et de leur famille, une bonne communication avec les professionnels de la santé est l’un des premiers critères d’évaluation de la qualité des soins. Objectif : Cette recherche qualitative a pour objectif la compréhension des mécanismes de collaboration interprofessionnelle entre médecins et infirmières aux soins intensifs. L’étude tente également de comprendre l’influence de cette collaboration sur la communication entre professionnels/ patients et famille lors d’un épisode de soins. Méthode : La collecte de données est réalisée par le biais de 18 entrevues, qui ont été enregistrées puis retranscrites. Parmi les entrevues effectuées deux gestionnaires, six médecins et infirmières, et enfin dix patients et proches ont été rencontrés. Ces entrevues ont été codifiées puis analysées à l’aide du modèle de collaboration interprofessionnelle de D’Amour (1997), afin de déterminer les tendances de collaboration. Pour terminer, l’impact des différentes dimensions de la collaboration sur la communication entre les professionnels/ patient et famille a été analysé. Résultats : Médecins et infirmières doivent travailler conjointement tant avec les autres professionnels, que les patients et leur famille afin de développer une relation de confiance et une communication efficace dans le but d’établir des objectifs communs. Les patients et les familles désirent rencontrer des professionnels ouverts qui possèdent des talents de communicateur ainsi que des qualités interpersonnelles. Les professionnels doivent faire preuve de transparence, prendre le temps de donner des explications vulgarisées, et proposer aux patients et aux familles de poser leurs questions.
Resumo:
Effet de l’atorvastatine sur la dysfonction endothéliale des artères coronaires épicardiques associée à l’hypertrophie ventriculaire gauche dans un modèle porcin Forcillo J, Aubin MC, Horn A, Shi YF, Carrier M, Tardif JC, Perrault LP Introduction: L’atorvastatine par ses effets pléiotropiques pourrait limiter la dysfonction endothéliale associée au développement de l’HVG. Méthodologie : Un cerclage de l’aorte ascendante pendant 2 mois entraîne le développement d’HVG et les groupes ont été traités avec atorvastatine 40 ou 80 mg de 60 à 90 jours. L’HVG est confirmée par échographie. La réactivité vasculaire est évaluée en chambres d’organe, la fonction endothéliale par la quantification de la GMPc et des nitrites/nitrates plasmatiques. Le stress oxydant est mesuré par les niveaux d’ANG II et de la carbonylation des protéines. Résultats : Après 60 et 90 j de cerclage, l’HVG est observée chez tous ces groupes. Les courbes concentrations-réponse des anneaux des artères coronaires épicardiques des groupes traités avec l’atorvastatine 40 et 80 mg pour 30 et 60 jours n’ont démontré aucune amélioration des relaxations dépendantes de l’endothélium. Une exacerbation significative de la dysfonction endothéliale a été observée. Les niveaux vasculaires de GMPc sont significativement diminués dans le groupe sans cerclage traité 60 d et ceux d’ANG II sont fortement augmentés chez ce dernier groupe ainsi que le groupe traité avec 80 mg pour 30 jours par rapport aux contrôles. L’expression de la carbonylation des protéines est augmentée dans le groupe témoin traité avec atorvastatine 80 mg, reflétant une augmentation du stress oxydant. Conclusion : L’administration d’atorvastatine ne prévient pas le développement de l’HVG ni la dysfonction endothéliale dans notre modèle. Au contraire l’atorvastatine à haute dose a un effet toxique sur les artères coronaires épicardiques en augmentant la dysfonction endothéliale.
Resumo:
Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.
Resumo:
Les efforts investis pour diminuer les risques de développer un infarctus du myocarde sont nombreux. Aujourd’hui les médecins prennent connaissance des divers facteurs de risque connus prédisposant aux syndromes coronariens aigus (SCA) dans le but de prendre en charge les patients «à risque» [1]. Bien que le suivi rigoureux et le contrôle de certains facteurs de risque modifiables aient permis une meilleure gestion des cas de SCA, les cas d’infarctus persistent de manière encore trop fréquente dans le monde. Puisque d’importantes études ont démontré que les SCA pouvaient survenir sans même la présence des facteurs de risque conventionnels [2, 3], les chercheurs se sont penchés sur un autre mécanisme potentiellement responsable de l’avènement des SCA : l’inflammation. L’inflammation joue un rôle prépondérant dans l’initiation, la progression et les complications de l’athérosclérose [4, 5] mais aussi dans les situations post-infarctus [6, 7]. Au cours des dernières années, le contrôle du processus inflammatoire est devenu une cible de choix dans la prévention et le traitement des SCA. Cependant, malgré les efforts investis, aucun de ces traitements ne s’est avéré pleinement efficace dans l’atteinte du but ultime visé par une diminution de l’inflammation : la diminution de la mortalité. Le complément est un système complexe reconnu principalement pour son rôle primordial dans l’immunité [2]. Cependant, lorsqu’il est activé de manière inappropriée ou excessive, il peut être à l’origine de nombreux dommages cellulaires caractéristiques de plusieurs pathologies inflammatoires dont font partie les complications de l’athérosclérose et des événements post-infarctus. Le travail effectué dans le cadre de mon doctorat vise à établir les rôles physiopathologiques du complément dans les interactions de l’axe thrombose-inflammation caractéristiques des SCA dans le but ultime d’identifier des cibles thérapeutiques permettant le développement de nouvelles approches pour la prévention et le traitement de ces pathologies. Les principaux résultats obtenus durant mon cursus suggèrent d’abord que la voie alterne du complément peut représenter une cible thérapeutique de choix dans les maladies coronariennes aiguës puisque l’activation terminale du complément semble y être principalement causée par l’activation du cette voie. De faibles niveaux sériques de MBL (mannan-binding lectin) et une activation terminale négligeable du complément caractérisent plutôt la maladie coronarienne stable. En comparant l’activité relative de chacune des voies du complément chez des cohortes de patients traités ou non par un anticorps spécifique à la protéine C5 du complément (pexelizumab), un second volet démontre quant à lui qu’une inhibition de l’activation du C5 n’a pas d’effet bénéfique majeur sur l’inhibition de la formation du complexe sC5b-9 ou sur les événements cliniques subséquents. Par conséquent, nous avons exploré, à l’aide d’un modèle in vitro, les raisons de l’inefficacité du traitement. Les résultats révèlent que le blocage du C5 avec le pexelizumab inhibe la production de l’anaphylatoxine pro-inflammatoire C5a et du complexe terminal du complément sans toutefois avoir d’effet sur l’apoptose des cellules endothéliales produites induite par le sérum des patients atteints de STEMI. Finalement, une autre section stipule que l’atorvastatine diminue l’activation du complément induite par les plaquettes sanguines chez des patients hypercholestérolémiques, mettant en évidence l’importance du rôle de cette statine dans la réduction des effets délétères de l’activation du système du complément médié par les plaquettes. Ensemble, l’étude du rôle spécifique des différentes voies d’activation du complément dans des contextes pathologiques variés, l’analyse des effets d’une inhibition spécifique de la protéine C5 du complément dans la progression des SCA et la mise en évidence des interactions entre l’activation du complément et les plaquettes activées ont contribué au développement d’une meilleure connaissance des rôles physiopathologiques du complément dans la progression de la maladie coronarienne.
Resumo:
Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins
Resumo:
La stéatohépatite non alcoolique (NASH) est une pathologie du foie dont l’amplitude et les répercussions sont de plus en plus préoccupantes dans le monde médical ou biomédical. Elle est associée à l’obésité, au syndrome métabolique et au diabète sucré de type II. La recherche de la thérapie optimale pour le NASH est un domaine en plein essor puisqu’aucun traitement n’est suffisamment efficace à ce jour. La présente étude fait le point sur de nouvelles possibilités de traitements qui se sont avérés efficaces pour contrer les différentes lésions métaboliques et cellulaires rencontrées dans un modèle in vivo chez le rat où le NASH est induit par l’ingestion d’une diète riche en gras. Cette étude démontre, tout d’abord, que les traitements durant six semaines avec l’acide ursodéoxycholique (UDCA) et son dérivé le NCX 1000, possédant des propriétés donatrices de monoxyde d’azote, à doses équimolaires, protègent de manière équivalente le foie contre le stress oxydatif, l’hyperinsulinémie, l’inflammation et la fibrose causés par la stéatohépatite. De plus, la combinaison d’une plus faible dose de NCX 1000 avec un antioxydant lipophile tel que la vitamine E offre une protection similaire, particulièrement au niveau des paramètres du stress oxydatif. Par ailleurs, l’étude illustre aussi que la silibinine, composé polyphénolique actif du chardon marie (Silybum marianum) et utilisé en traitement pendant 5 semaines, possède un pouvoir hépatoprotecteur, des propriétés antioxydantes et un effet hypoinsulinémique dans ce modèle de stéatohépatite d’origine nutritionnelle. Le potentiel thérapeutique de ces composés en fait des candidats de choix pour le traitement du NASH qui méritent de faire l’objet d’études cliniques poussées.
Resumo:
Le p-tert-octylphénol est un produit présent dans l’environnement et issu de la dégradation des alkylphénols éthoxylés. Ce composé a la capacité de se lier au récepteur œstrogénique et d’exercer ainsi un léger effet œstrogénique. Les objectifs de cette étude étaient de 1) développer une méthode d'identification de l'octylphénol dans le sang et les tissus à l'aide de la chromatographie en phase gazeuse jumelée à la spectrométrie de masse, 2) caractériser la toxicocinétique sanguine et tissulaire de l’octylphénol chez le rat Sprague-Dawley mâle et femelle et 3) développer un modèle toxicocinétique à base physiologique permettant de décrire la cinétique sanguine et tissulaire de l’octylphénol inchangé. Pour ce faire, des rats mâle et femelle Sprague-Dawley ont reçu des doses uniques d’octylphénol par les voies intraveineuse, orale et sous-cutanée. Deux autres groupes ont reçu des doses répétées d'octylphénol par voie orale pour une durée de 35 jours consécutifs pour les femelles ou 60 jours pour les mâles. Les concentrations sanguines et tissulaires d’octylphénol ont été mesurées à différents moments après administration à partir d’une méthode d’analyse développée dans nos laboratoires dans le cadre de ce projet. Les expériences impliquant des administrations uniques ont montré que les concentrations sanguines et tissulaires d'octylphénol étaient en général plus élevées chez les femelles que chez les mâles. Des expériences réalisées avec des microsomes hépatiques ont confirmé que ces différences étaient vraisemblablement reliées au métabolisme de l'octylphénol. Les expériences impliquant des administrations répétées ont montré qu'il n'y avait pas d'accumulation d'octylphénol dans l'organisme aux doses étudiées. Les résultats obtenus expérimentalement ont servi à développer et valider un modèle toxicocinétique à base physiologique. Ce modèle a permis de simuler adéquatement les concentrations sanguines et tissulaires d'octylphénol suite à des expositions intraveineuses, orales et sous-cutanées. En conclusion, cette étude a fourni des données essentielles sur la toxicocinétique de l'octylphénol. Ces données sont nécessaires pour établir la relation entre la dose externe et la dose interne et vont contribuer à une meilleure évaluation des risques liés à l'octylphénol.
Resumo:
La thérapie génique représente l'un des défis de la médecine des prochaines décennies dont la réussite dépend de la capacité d'acheminer l'ADN thérapeutique jusqu'à sa cible. Des structures non virales ont été envisagées, dont le chitosane, polymère cationique qui se combine facilement à l’ADN. Une fois le complexe formé, l’ADN est protégé des nucléases qui le dégradent. Le premier objectif de l'étude est de synthétiser et ensuite évaluer différentes nanoparticules de chitosane et choisir la mieux adaptée pour une efficacité de transfection sélective in vitro dans les cellules carcinomes épidermoïdes (KB). Le deuxième objectif de l'étude est d'examiner in vivo les effets protecteurs du gène de l'IL-1Ra (bloqueur naturel de la cytokine inflammatoire, l’Interleukine-1β) complexé aux nanoparticules de chitosane sélectionnées dans un modèle d'arthrite induite par un adjuvant (AIA) chez le rat. Les nanoparticules varient par le poids moléculaire du chitosane (5, 25 et 50 kDa), et la présence ou l’absence de l’acide folique (FA). Des mesures macroscopiques de l’inflammation seront évaluées ainsi que des mesures de concentrations de l’Interleukine-1β, Prostaglandine E2 et IL-1Ra humaine secrétés dans le sérum. Les nanoparticules Chitosane-ADN en présence de l’acide folique et avec du chitosane de poids moléculaire de 25 kDa, permettent une meilleure transfection in vitro. Les effets protecteurs des nanoparticules contenant le gène thérapeutique étaient évidents suite à la détection de l’IL-1Ra dans le sérum, la baisse d'expressions des facteurs inflammatoires, l’Interleukine-1 et la Prostaglandine-E2 ainsi que la diminution macroscopique de l’inflammation. Le but de cette étude est de développer notre méthode de thérapie génique non virale pour des applications cliniques pour traiter l’arthrite rhumatoïde et d’autres maladies humaines.
Resumo:
Introduction : Les modèles murins sont grandement utilisés dans l’étude des maladies rénales et des pathologies associées. La concentration de la créatinine sérique est un bon indicateur de la filtration glomérulaire et en présence d’insuffisance rénale chronique (IRC), les concentrations de créatinine sérique (et la clairance) reflètent la sévérité de l’IRC. De plus, il a été démontré que l’IRC modifie le métabolisme des médicaments en diminuant l’activité et l’expression des enzymes hépatiques du cytochrome P450 (CYP450). Afin d’étudier la modulation du P450 par l’IRC avec un modèle murin et de confirmer nos résultats chez le rat, nous devons 1) développer un modèle d’IRC chez la souris, 2) mettre au point une technique de dosage des marqueurs de l’IRC et, 3) évaluer l’expression protéique du CYP450 en présence IRC. Matériel et Méthode : Trois modèles chirurgicaux d’IRC chez la souris ont été développés. Une méthode du dosage de la créatinine par chromatographie liquide à haute performance (CLHP) a été mise au point chez la souris et l’expression protéique du P450 a été mesurée par immunobuvardage de type Western. Résultats : Plusieurs paramètres de CLHP comme le pH, la concentration et le débit de la phase mobile modifient le pic d’élution et le temps de rétention de la créatinine. Concernant le modèle expérimental, on observe une perte de poids et une augmentation de la concentration plasmatique de la créatinine chez les souris avec une IRC. De plus, l’expression protéique de plusieurs isoformes du cytochrome P450 est modulée par l’IRC. Nous observons une diminution du CYP 2D de 42% (p < 0,01), du CYP 3A11 de 60% et du CYP 1A de 37% (p <0,01) par rapport aux souris témoins. On ne dénote aucun changement significatif au niveau de l’isoforme 2E1. Conclusion : Il est possible d’induire une insuffisance rénale chronique chez la souris suite à une néphrectomie. La technique de dosage de la créatinine par CLHP est précise et exacte et permet de caractériser la sévérité de l’IRC chez la souris. L’expression protéique du CYP450 est régulée à la baisse dans le foie des souris atteintes d’IRC.
Resumo:
Les modèles kainate et pentylènetétrazole représentent deux modèles d’épilepsie du lobe temporal dont les conséquences à long terme sont différentes. Le premier est un modèle classique d’épileptogénèse avec crises récurrentes spontanées tandis que le second se limite aux crises aigües. Nous avons d’abord caractérisé les différents changements survenant dans les circuits excitateurs et inhibiteurs de l’hippocampe adulte de rats ayant subi des crises à l’âge immature. Ensuite, ayant observé dans le modèle fébrile une différence du pronostic lié au genre, nous avons voulu savoir si cette différence était aussi présente dans des modèles utilisant des neurotoxines. L’étude électrophysiologique a démontré que les rats KA et PTZ, mâles comme femelles, présentaient une hyperactivité des récepteurs NMDA au niveau des cellules pyramidales du CA1, CA3 et DG. Les modifications anatomiques sous-tendant cette hyperexcitabilité ont été étudiées et les résultats ont montré une perte sélective des interneurones GABAergiques contenant la parvalbumine dans les couches O/A du CA1 des mâles KA et PTZ. Chez les femelles, seul le DG était légèrement affecté pour les PTZ tandis que les KA présentaient, en plus du DG, des pertes importantes au niveau de la couche O/A. Les évaluations cognitives ont démontré que seuls les rats PTZ accusaient un déficit spatial puisque les rats KA présentaient un apprentissage comparable aux rats normaux. Cependant, encore une fois, cette différence n’était présente que chez les mâles. Ainsi, nos résultats confirment qu’il y a des différences liées au genre dans les conséquences des convulsions lorsqu’elles surviennent chez l’animal immature.
Resumo:
La maladie du greffon contre l’hôte (GvHD) est une complication majeure des greffes de cellules souches hématopoïétiques (HSCT) qui survient dans 30 à 70% des cas et peut causer la mort, malgré un traitement prophylactique bien conduit. Il existe donc une réelle demande clinique pour améliorer ces traitements prophylactiques. Parce que ces traitements prophylactiques reposent en général sur des agents immunosuppresseurs, ceux-ci contribuent à diminuer la reconstitution immunitaire du patient, ce qui a un impact défavorable sur les infections et les taux de rechute d’hémopathie maligne, et donc limite leur utilisation. Les immunoglobulines (IVIG) pourraient représenter une alternative intéressante puisqu’elles ont des propriétés immunomodulatrices et qu’elles sont de plus couramment utilisées en clinique pour traiter des patients ayant un déficit immunitaire. Leur capacité à réduire l’apparition et la sévérité de la GvHD, sans toutefois inhiber ou nuire à la reconstitution immunitaire chez le patient n’a néanmoins jamais été clairement démontrée. Les objectifs de ce projet sont donc d’évaluer l’efficacité des IVIG à réduire l’incidence et la sévérité de la GvHD dans un modèle murin humanisé de GvHD, ainsi que de déterminer le mécanisme d’action des IVIG. Ce modèle consiste à injecter des huPBMCs à des souris immunodéprimées ne pouvant les rejeter. Les résultats obtenus suggèrent que les IVIG possèdent un effet immunomodulateur permettant de réduire les signes cliniques et de retarder l’apparition de la GvHD, tout en permettant l’apparition de cellules NK. Les IVIG agiraient de façon indirecte sur les huPBMCs afin d’induire l’apparition des cellules NK.
Resumo:
Depuis quelques années, les statistiques indiquent une croissance exponentielle de l’incidence de certaines infections transmissibles sexuellement chez les jeunes adultes. Certaines enquêtes témoignent en outre des comportements peu responsables en matière de santé sexuelle chez cette population, bien que l’offre d’information sur les conséquences de tels comportements soit importante et diversifiée. Par ailleurs, le comportement informationnel de cette population en matière de santé sexuelle demeure peu documenté. La présente étude porte sur le comportement informationnel de jeunes adultes québécois en matière de santé sexuelle. Plus spécifiquement, elle répond aux quatre questions de recherche suivantes : (1) Quelles sont les situations problématiques auxquelles les jeunes adultes sont confrontés en santé sexuelle?, (2) Quels sont les besoins informationnels exprimés par les jeunes adultes lors de ces situations problématiques?, (3) Quels sont les processus et les sources d’information qui soutiennent la résolution de ces besoins informationnels? et (4) Quelle est l’utilisation de l’information trouvée? Cette recherche descriptive a utilisé une approche qualitative. Le milieu retenu est l’Université de Montréal pour deux raisons : il s’agit d’un milieu cognitivement riche qui fournit un accès sur place à des ressources en santé sexuelle. Les huit jeunes adultes âgés de 18 à 25 ans qui ont pris part à cette étude ont participé à une entrevue en profondeur utilisant la technique de l’incident critique. Chacun d’entre eux a décrit une situation problématique par rapport à sa santé sexuelle et les données recueillies ont été l’objet d’une analyse de contenu basée sur la théorisation ancrée. Les résultats indiquent que les jeunes adultes québécois vivent des situations problématiques relatives à l’aspect physique de leur santé sexuelle qui peuvent être déclenchées par trois types d’éléments : un événement à risques, un symptôme physique subjectif et de l’information acquise passivement. Ces situations problématiques génèrent trois catégories de besoins informationnels : l’état de santé actuel, les conséquences possibles et les remèdes. Pour répondre à ces besoins, les participants se sont tournés en majorité vers des sources professionnelles, personnelles et verbales. La présence de facteurs contextuels, cognitifs et affectifs a particularisé leur processus de recherche d’information en modifiant les combinaisons des quatre activités effectuées, soit débuter, enchaîner, butiner et différencier. L’automotivation et la compréhension du problème représentent les deux principales utilisations de l’information. D’un point de vue théorique, les résultats indiquent que le modèle général de comportement informationnel de Choo (2006), le modèle d’environnement d’utilisation de l’information de Taylor (1986, 1991) et le modèle d’activités de recherche d’information d’Ellis (1989a, 1989b, 2005) peuvent être utilisés dans le contexte personnel de la santé sexuelle. D’un point de vue pratique, cette étude ajoute aux connaissances sur les critères de sélection des sources d’information en matière de santé sexuelle.
Resumo:
Cette étude traite de la complexité des enjeux de la mise en lumière urbaine et de sa conception. Le but est de déceler les mécanismes opératoires du projet d’éclairage afin de générer une analyse et une compréhension de ce type d’aménagement. Cette recherche met à jour les enjeux lumineux à différents niveaux comme l’urbanisme, l’environnement, la culture, la communication, la vision et la perception mais aussi au niveau des acteurs et de leurs pratiques sur le terrain. En utilisant une approche qualitative déductive, cette recherche théorique cherche à mieux comprendre les différentes significations du phénomène lumineux : comment dans la réalité terrain ces enjeux de la lumière sont compris, interprétés et traduits au travers de la réalisation des projets et des processus mis en place pour répondre aux besoins d’éclairage ? La pertinence de cette recherche est de questionner les enjeux complexes de la mise en lumière afin de savoir comment concevoir un « bon éclairage ». Comment se déroule un projet d’éclairage de sa conception à sa réalisation ? Quels sont les différents acteurs, leurs modes d’intervention et leurs perceptions du projet d’éclairage ? Le but est de vérifier comment ces enjeux se concrétisent sur le terrain, notamment au travers de l’activité et de l’interprétation des professionnels. Nous souhaitons créer un modèle opératoire qui rende compte des enjeux et du processus de ce type de projet. Modèle qui servira alors de repère pour la compréhension des mécanismes à l’œuvre comme le contexte, les acteurs, les moyens et les finalités des projets. Une étude des recherches théoriques nous permettra de comprendre la polysémie du phénomène lumineux afin d’en déceler la complexité des enjeux et de créer une première interprétation de ce type de projet. Nous déterminerons théoriquement ce que recouvre la notion de « bon éclairage » qui nous permettra de créer une grille analytique pour comparer notre approche avec la réalité sur le terrain. Ces recherches seront ensuite confrontées au recueil des données des études de cas, des stages en urbanisme et en conception lumière, et des interviews de professionnels dans le domaine. Nous confronterons les enjeux définis théoriquement aux collectes de données issues du terrain. Ces données seront collectées à partir de projets réalisés avec les professionnels durant la recherche immersive. La recherche-action nous permettra de collaborer avec les professionnels pour comprendre comment ils sélectionnent, déterminent et répondent aux enjeux des projets d’éclairage. Nous verrons grâce aux entretiens semi-dirigés comment les acteurs perçoivent leurs propres activités et nous interprèterons les données à l’aide de la « théorisation ancrée » pour dégager le sens de leurs discours. Nous analyserons alors les résultats de ces données de manière interprétative afin de déterminer les points convergeant et divergent entre les enjeux théoriques définis en amont et les enjeux définis en aval par la recherche-terrain. Cette comparaison nous permettra de créer une interprétation des enjeux de la mise en lumière urbaine dans toutes leurs complexités, à la fois du point de vue théorique et pratique. Cette recherche qualitative et complexe s’appuie sur une combinaison entre une étude phénoménologique et les méthodologies proposées par la « théorisation ancrée ». Nous procéderons à une combinaison de données issues de la pratique terrain et de la perception de cette pratique par les acteurs de l’éclairage. La recherche d’un « bon éclairage » envisage donc par une nouvelle compréhension l’amélioration des outils de réflexion et des actions des professionnels. En termes de résultat nous souhaitons créer un modèle opératoire de la mise en lumière qui définirait quels sont les différents éléments constitutifs de ces projets, leurs rôles et les relations qu’ils entretiennent entre eux. Modèle qui mettra en relief les éléments qui déterminent la qualité du projet d’éclairage et qui permettra de fournir un outil de compréhension. La contribution de ce travail de recherche est alors de fournir par cette nouvelle compréhension un repère méthodologique et analytique aux professionnels de l’éclairage mais aussi de faire émerger l’importance du phénomène de mise en lumière en suscitant de nouveaux questionnements auprès des activités liées au design industriel, à l’architecture et à l’urbanisme.