1000 resultados para Animaux--Détection
Resumo:
Les plaquettes sanguines sont les principaux acteurs de l’hémostase primaire et de la thrombose, deux éléments majeurs de la physiopathologie vasculaire. Plusieurs médicaments régulent les fonctions plaquettaires mais peu de tests sont validés pour suivre leur efficacité en fonction de l’évolution clinique des patients. Mon doctorat a eu pour but de développer de nouvelles approches d’évaluation de la fonction plaquettaire. Deux essais cliniques réalisés sur des patients atteints de syndrome coronarien stable ont constitué la première partie de mon doctorat. La première étude met en évidence la nécessité d'une standardisation des tests biologiques pour la détection de patients répondant moins au clopidogrel, un inhibiteur du récepteur plaquettaire de l'ADP P2Y12. L’étude suivante montre le potentiel thérapeutique, chez ces patients, de l’inhibition conjointe de P2Y12 et du second récepteur plaquettaire de l'ADP P2Y1, sur la fonction plaquettaire. De plus, le suivi en temps réel par vidéomiscroscopie a permis de distinguer des effets précoces et tardifs des antiplaquettaires sur la formation du thrombus en chambre de perfusion. La seconde partie de mon doctorat concerne les microdomaines membranaires de type « lipid rafts » qui tiennent une place fondamentale dans les fonctions cellulaires et plaquettaires. Ainsi plusieurs récepteurs dépendent de ces microdomaines, régulant la fonction plaquettaire et les effets des médicaments antiplaquettaires. Cependant, les techniques d’étude de ces microdomaines sont complexes et peu adaptées aux études cliniques. Profitant de nouvelles sondes fluorescentes sensibles au niveau d’ordre liquide membranaire (OLM), nous avons développé une méthode de mesure de l’OLM par cytométrie de flux spectrale. Grâce à cette approche, nous avons montré que l’activation plaquettaire diminue l’OLM alors qu’il est augmenté chez des patients traités par un inhibiteur de la synthèse du cholestérol ou par le clopidogrel. Nous avons également mis en évidence, en condition de forces de cisaillement élevées correspondant à celles retrouvées au niveau de sténoses artérielles, une sous-population plaquettaire présentant un OLM plus bas. Le passage dans le domaine clinique de ces approches fondamentales qui privilégient l’étude dynamique des plaquettes pourrait permettre d’améliorer le diagnostique et le suivi de traitement de pathologies cardiovasculaires.
Resumo:
Trois protéines de la famille TRIM (Motif TRIpartite), TIF1α, β (Transcriptional Intermediary Factor 1) et PML (ProMyelocytic Leukaemia¬), font l’objet de cette étude. TIF1α est connu comme un coactivateur des récepteurs nucléaires et TIF1β comme le corépresseur universel des protéines KRAB-multidoigt de zinc dont le prototype étudié ici est ZNF74. PML possède divers rôles dont le plus caractérisé est celui d’être l’organisateur principal et essentiel des PML-NBs (PML-Nuclear Bodies), des macrostructures nucléaires très dynamiques regroupant et coordonnant plus de 40 protéines. Il est à noter que la fonction de TIF1α, β et PML est régulée par une modification post-traductionnelle, la sumoylation, qui implique le couplage covalent de la petite protéine SUMO (Small Ubiquitin like MOdifier) à des lysines de ces trois protéines cibles. Cette thèse propose de développer des méthodes utilisant le BRET (Bioluminescence Resonance Energy Transfert) afin de détecter dans des cellules vivantes et en temps réel des interactions non-covalentes de protéines nucléaires mais aussi leur couplage covalent à SUMO. En effet, le BRET n’a jamais été exploré jusqu’alors pour étudier les interactions non-covalentes et covalentes de protéines nucléaires. L’étude de l’interaction de protéines transcriptionnellement actives est parfois difficile par des méthodes classiques du fait de leur grande propension à agréger (famille TRIM) ou de leur association à la matrice nucléaire (ZNF74). L’homo et l’hétérodimérisation de TIF1α, β ainsi que leur interaction avec ZNF74 sont ici testées sur des protéines entières dans des cellules vivantes de mammifères répondant aux résultats conflictuels de la littérature et démontrant que le BRET peut être avantageusement utilisé comme alternative aux essais plus classiques basés sur la transcription. Du fait de l’hétérodimérisation confirmée de TIF1α et β, le premier article présenté ouvre la possibilité d’une relation étroite entre les récepteurs nucléaires et les protéines KRAB- multidoigt de zinc. Des études précédentes ont démontré que la sumoylation de PML est impliquée dans sa dégradation induite par l’As2O3 et dépendante de RNF4, une E3 ubiquitine ligase ayant pour substrat des chaînes de SUMO (polySUMO). Dans le second article, grâce au développement d’une nouvelle application du BRET pour la détection d’interactions covalentes et non-covalentes avec SUMO (BRETSUMO), nous établissons un nouveau lien entre la sumoylation de PML et sa dégradation. Nous confirmons que le recrutement de RNF4 dépend de SUMO mais démontrons également l’implication du SBD (Sumo Binding Domain) de PML dans sa dégradation induite par l’As2O3 et/ou RNF4. De plus, nous démontrons que des sérines, au sein du SBD de PML, qui sont connues comme des cibles de phosphorylation par la voie de la kinase CK2, régulent les interactions non-covalentes de ce SBD mettant en évidence, pour la première fois, que les interactions avec un SBD peuvent dépendre d’un évènement de phosphorylation (“SBD phospho-switch”). Nos résultats nous amènent à proposer l’hypothèse que le recrutement de PML sumoylé au niveau des PML-NBs via son SBD, favorise le recrutement d’une autre activité E3 ubiquitine ligase, outre celle de RNF4, PML étant lui-même un potentiel candidat. Ceci suggère l’existence d’une nouvelle relation dynamique entre phosphorylation, sumoylation et ubiquitination de PML. Finalement, il est suggéré que PML est dégradé par deux voies différentes dépendantes de l’ubiquitine et du protéasome; la voie de CK2 et la voie de RNF4. Enfin une étude sur la sumoylation de TIF1β est également présentée en annexe. Cette étude caractérise les 6 lysines cibles de SUMO sur TIF1β et démontre que la sumoylation est nécessaire à l’activité répressive de TIF1β mais n’est pas impliquée dans son homodimérisation ou son interaction avec la boîte KRAB. La sumoylation est cependant nécessaire au recrutement d’histones déacétylases, dépendante de son homodimérisation et de l’intégrité du domaine PHD. Alors que l’on ne connaît pas de régulateur physiologique de la sumoylation outre les enzymes directement impliquées dans la machinerie de sumoylation, nous mettons en évidence que la sumoylation de TIF1β est positivement régulée par son interaction avec le domaine KRAB et suggérons que ces facteurs transcriptionnels recrutent TIF1β à l’ADN au niveau de promoteur et augmentent son activité répressive en favorisant sa sumoylation.
Resumo:
Suite à une consultation publique, la ministre de la Justice Anne McLellan a voulu répondre aux groupes et aux citoyens en intégrant, dans le projet de loi omnibus C-17, des amendements visant le droit criminel quant à la cruauté envers les animaux. Le projet de loi étant devenu caduc aux dernières élections fédérales, ces nouvelles dispositions étaient reprises par le projet de loi C-15 qui a lui-même été prorogé à la fin de la première session de la 37 législature. Les modifications qu'il proposait sont intégralement reprises par le projet de loi C-IO, déposé en octobre 2002. Les membres du Sénat renvoyaient récemment ce dernier devant le Comité permanent des affaires juridiques et constitutionnelles, chargé de le scinder en deux afin qu'un nouveau projet de loi, le ClOB, soit bientôt déposé et porte exclusivement sur la cruauté envers les animaux. Devant l'imminence de telles modifications, il est intéressant de se questionner autant sur leur contexte que sur leur portée. Dans une première partie, nous présentons quelques éléments du contexte philosophique et sociétal justifiant l'intérêt grandissant pour la question animale. L'émergence de nouvelles théories morales accordant plus de valeur à l'animal, les critiques et revendications des groupes de pression et des citoyens en général, ainsi que les récentes études démontrant un lien entre la cruauté envers les animaux et la violence dirigée contre l'homme, exigent une remise en question des rapports homme/animal. Une révision de ces différents facteurs contextuels permet de mieux comprendre à quoi répondent ces projets de loi. Dans une deuxième partie, nous relevons plusieurs incohérences du droit actuel afin d'identifier ce qui devrait être modifié par le législateur. Les incohérences sont à plusieurs niveaux: cohabitation de lois visant à protéger l'animal défini comme un être sensible et de lois portant sur la gestion des animaux considérés comme de simples ressources utiles à l'homme; intégration d'infractions visant à protéger l'animal dans la section du Code criminel portant sur les biens; gravité relativement importante des crimes contre les animaux par comparaison à certaines infractions contre la personne; problèmes 11 liés au libellé des infractions particulières et distinctions quant au degré de protection des animaux en fonction de leur intérêt pour 1'homme. Ensuite, le droit proposé sera examiné pour vérifier s'il règlera ces problèmes. Retirées de la partie concernant les biens, les infractions porteront davantage sur la sensibilité de l'animal plutôt que vers son utilité pour l'homme. Au niveau des régimes de responsabilité, l'ambiguïté constitutionnelle entraînée par la présomption du paragraphe 446(3) C.cr. sera évacuée. Quant aux peines, le durcissement prévu risque de rendre les infractions démesurément sévères par comparaison à certains crimes contre la personne. Bien qu'actualisées, les infractions seront toujours nombreuses et anecdotiques. Finalement, les changements de nature strictement juridique sont surtout cosmétiques, alors que la valeur symbolique des projets de loi est, quant à elle, plus significative. En effet, si quelques considérations anthropocentriques sont à l'origine des projets de loi, une reconnaissance de la valeur intrinsèque de l'animal semble aussi les avoir inspirés. Malheureusement, le paradigme de l'animal proposé, encore plus que celui qui est actuellement reconnu, se concilie difficilement avec l'utilisation des animaux pour les fins égocentriques de l'homme
Resumo:
La première augmentation de la longévité en laboratoire fût observée à la suite d’une intervention nutritionnelle consistant en une réduction de l’apport alimentaire chez le rat. Plus tard, ce phénomène a été reproduit dans de très nombreuses espèces et référé en tant que restriction calorique. Le développement des techniques de biologie moléculaire moderne a permis de montrer dans des organismes modèles simples que cette flexibilité du processus de vieillissement était régulée par des facteurs génétiques. De fait, plusieurs mécanismes cellulaires ont alors pu être identifiés comme responsables de ce contrôle du vieillissement. Ces voies de régulation ont révélées être conservées entre les espèces, depuis les levures jusqu’aux organismes multicellulaires tels que le nématode, la mouche ou la souris, suggérant l’existence d’un programme universel de vieillissement dans le vivant. La levure s’est avéré à plusieurs reprises être un modèle puissant et fiable pour la découverte de gènes impliqués dans ce phénomène. Mon étude a consisté au développement d’un nouveau modèle unicellulaire d’étude du vieillissement à travers l’espèce Schizosaccharomyces pombe appelée aussi levure à fission. La première étape de mon travail a montré que les voies de détection des nutriments gouvernées par la sérine/thréonine protéine kinase A (Pka1) et la sérine/thréonine kinase Sck2 contrôlent le vieillissement chronologique de ces cellules comme il était connu dans la levure Saccharomyces cerevisiae. Ceci permit de valider l’utilisation de la levure à fission pour l’étude du vieillissement. Ensuite, nous avons analysé plus en détail l’effet pro-vieillissement du glucose en étudiant le rôle de sa détection par le récepteur membranaire Git3 couplé à la protéine G (Gpa2) en amont de la kinase Pka1. La perte du signal du glucose par la délétion de Git3 imite partiellement l’effet d’augmentation de longévité obtenu par baisse de la concentration en glucose dans le milieu. De plus, l’effet néfaste du signal du glucose est maintenu en absence de tout métabolisme du glucose suite à la mutation des hexokinases, premières enzymes de la glycolyse. L’ensemble de ces résultats suggèrent que la signalisation du glucose est prédominante sur son métabolisme pour son effet pro-vieillissement. D’autre part, à la fois la suppression de cette signalisation et la baisse de niveau de glucose disponible allongent la durée de vie en corrélation avec une augmentation de la résistance au stress, une hausse d’activité mitochondriale et une baisse de production de radicaux libres. Finalement, le criblage d’une banque de surexpression d’ADNc a permis d’identifier plusieurs gènes candidats responsables de ces effets en aval de la voie de signalisation Git3/PKA. La recherche sur les mécanismes moléculaires du vieillissement propose une nouvelle approche, un nouvel angle de vue, pour la compréhension des fonctions cellulaires et promet d’apporter de précieuses clefs pour mieux comprendre certaines maladies. En effet, le vieillissement est la première cause d’apparition de nombreuses affections comme les cancers, les maladies cardiovasculaires et métaboliques ou les maladies neurodégénératives tels que les syndromes d’Alzheimer et de Parkinson.
Resumo:
Les agents anti-infectieux sont utilisés pour traiter ou prévenir les infections chez les humains, les animaux, les insectes et les plantes. L’apparition de traces de ces substances dans les eaux usées, les eaux naturelles et même l’eau potable dans plusieurs pays du monde soulève l’inquiétude de la communauté scientifique surtout à cause de leur activité biologique. Le but de ces travaux de recherche a été d’étudier la présence d’anti-infectieux dans les eaux environnementales contaminées (c.-à-d. eaux usées, eaux naturelles et eau potable) ainsi que de développer de nouvelles méthodes analytiques capables de quantifier et confirmer leur présence dans ces matrices. Une méta-analyse sur l’occurrence des anti-infectieux dans les eaux environnementales contaminées a démontré qu’au moins 68 composés et 10 de leurs produits de transformation ont été quantifiés à ce jour. Les concentrations environnementales varient entre 0.1 ng/L et 1 mg/L, selon le composé, la matrice et la source de contamination. D’après cette étude, les effets nuisibles des anti-infectieux sur le biote aquatique sont possibles et ces substances peuvent aussi avoir un effet indirect sur la santé humaine à cause de sa possible contribution à la dissémination de la résistance aux anti-infecteiux chez les bactéries. Les premiers tests préliminaires de développement d’une méthode de détermination des anti-infectieux dans les eaux usées ont montré les difficultés à surmonter lors de l’extraction sur phase solide (SPE) ainsi que l’importance de la sélectivité du détecteur. On a décrit une nouvelle méthode de quantification des anti-infectieux utilisant la SPE en tandem dans le mode manuel et la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Les six anti-infectieux ciblés (sulfaméthoxazole, triméthoprime, ciprofloxacin, levofloxacin, clarithromycin et azithromycin) ont été quantifiés à des concentrations entre 39 et 276 ng/L dans les échantillons d’affluent et d’effluent provenant d’une station d’épuration appliquant un traitement primaire et physico- chimique. Les concentrations retrouvées dans les effluents indiquent que la masse moyenne totale de ces substances, déversées hebdomadairement dans le fleuve St. Laurent, était de ~ 2 kg. En vue de réduire le temps total d’analyse et simplifier les manipulations, on a travaillé sur une nouvelle méthode de SPE couplée-LC-MS/MS. Cette méthode a utilisé une technique de permutation de colonnes pour préconcentrer 1.00 mL d’échantillon dans une colonne de SPE couplée. La performance analytique de la méthode a permis la quantification des six anti-infectieux dans les eaux usées municipales et les limites de détection étaient du même ordre de grandeur (13-60 ng/L) que les méthodes basées sur la SPE manuelle. Ensuite, l’application des colonnes de SPE couplée de chromatographie à débit turbulent pour la préconcentration de six anti-infectieux dans les eaux usées a été explorée pour diminuer les effets de matrice. Les résultats obtenus ont indiqué que ces colonnes sont une solution de réchange intéressante aux colonnes de SPE couplée traditionnelles. Finalement, en vue de permettre l’analyse des anti-infectieux dans les eaux de surface et l’eau potable, une méthode SPE couplée-LC-MS/MS utilisant des injections de grand volume (10 mL) a été développée. Le volume de fuite de plusieurs colonnes de SPE couplée a été estimé et la colonne ayant la meilleure rétention a été choisie. Les limites de détection et de confirmation de la méthode ont été entre 1 à 6 ng/L. L’analyse des échantillons réels a démontré que la concentration des trois anti-infectieux ciblés (sulfaméthoxazole, triméthoprime et clarithromycine) était au dessous de la limite de détection de la méthode. La mesure des masses exactes par spectrométrie de masse à temps d’envol et les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle ont été explorés comme des méthodes de confirmation possibles.
Resumo:
Dans cette étude, la bile d’un porc canadien naturellement infecté par une souche du virus de l’hépatite E (VHE) a été utilisée afin d’inoculer deux groupes de porcelets. Dans l’étude précoce (E), 4 porcelets âgés de 4 semaines et exempts de pathogènes spécifiques (SPF), ont été suivis jusqu’à 14 jours post-inoculation (pi). Dans l’étude tardive (L), 9 porcelets ont été suivis à chaque semaine jusqu’à l’abattage, soit 120 jours pi. À la nécropsie, la présence du VHE a été évaluée dans différents organes à 7, 14 et 120 jours pi. Des porcelets témoins (E=2 et L=3) ont été inoculés par de la bile exempte de VHE. Le virus a persisté chez certains animaux jusqu’à 84 à 105 jours pi dans le sérum malgré la présence d’anticorps IgG anti-VHE dans le sang, suggérant une virémie prolongée. L’excrétion virale dans les fèces s’est étalée également sur une période de 105 jours pi chez certains animaux. De plus, la détection de l’ARN viral dans les organes évalués s’est révélée presque nulle à l’âge d’abattage à l’exception de quelques vésicules biliaires, alors qu’on retrouvait l’ARN viral dans plusieurs organes à 7 et 14 jours pi. Pour évaluer la distribution du VHE chez les porcs commerciaux du Québec, un échantillonnage de porcs de trois abattoirs a été réalisé. Environ 100 échantillons de sang, fèces, foies et bile provenant des mêmes animaux en processus d’abattage ont été prélevés dans chacun des abattoirs, sur des porcs destinés à la consommation humaine. La détection de l’ARN viral et des anticorps du VHE a été réalisée à l’aide d’une RT-PCR nichée et d’un test ELISA adapté pour déceler les anticorps porcins anti-VHE. Chez les porcs d’abattoir, 12,9 % des échantillons de bile contenaient de l’ARN viral du VHE, alors que la détection virale était moindre dans les autres organes. Une séroprévalence en IgG de 26,0 % a été obtenue pour les sérums porcins analysés. Une analyse phylogénétique des différentes souches isolées pendant l’étude a démontré qu’elles sont du génotype 3. Ces données indiquent une exposition potentielle des travailleurs de l’industrie porcine au VHE porcin, notamment par les fèces, le sang et les organes et également pour les consommateurs par le biais des foies.
Resumo:
Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.
Resumo:
Les pays industrialisés comme le Canada doivent faire face au vieillissement de leur population. En particulier, la majorité des personnes âgées, vivant à domicile et souvent seules, font face à des situations à risques telles que des chutes. Dans ce contexte, la vidéosurveillance est une solution innovante qui peut leur permettre de vivre normalement dans un environnement sécurisé. L’idée serait de placer un réseau de caméras dans l’appartement de la personne pour détecter automatiquement une chute. En cas de problème, un message pourrait être envoyé suivant l’urgence aux secours ou à la famille via une connexion internet sécurisée. Pour un système bas coût, nous avons limité le nombre de caméras à une seule par pièce ce qui nous a poussé à explorer les méthodes monoculaires de détection de chutes. Nous avons d’abord exploré le problème d’un point de vue 2D (image) en nous intéressant aux changements importants de la silhouette de la personne lors d’une chute. Les données d’activités normales d’une personne âgée ont été modélisées par un mélange de gaussiennes nous permettant de détecter tout événement anormal. Notre méthode a été validée à l’aide d’une vidéothèque de chutes simulées et d’activités normales réalistes. Cependant, une information 3D telle que la localisation de la personne par rapport à son environnement peut être très intéressante pour un système d’analyse de comportement. Bien qu’il soit préférable d’utiliser un système multi-caméras pour obtenir une information 3D, nous avons prouvé qu’avec une seule caméra calibrée, il était possible de localiser une personne dans son environnement grâce à sa tête. Concrêtement, la tête de la personne, modélisée par une ellipsoide, est suivie dans la séquence d’images à l’aide d’un filtre à particules. La précision de la localisation 3D de la tête a été évaluée avec une bibliothèque de séquence vidéos contenant les vraies localisations 3D obtenues par un système de capture de mouvement (Motion Capture). Un exemple d’application utilisant la trajectoire 3D de la tête est proposée dans le cadre de la détection de chutes. En conclusion, un système de vidéosurveillance pour la détection de chutes avec une seule caméra par pièce est parfaitement envisageable. Pour réduire au maximum les risques de fausses alarmes, une méthode hybride combinant des informations 2D et 3D pourrait être envisagée.
Resumo:
Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.
Resumo:
Huit cent trente et un troupeaux de vaches laitières répartis dans 5 états américains ont été enrôlés dans une étude de cohorte prospective. Un modèle d’équations d'estimation généralisées a été utilisé pour étudier l'association entre les signes cliniques et la détection de salmonelles dans les fèces des animaux soupçonnés de salmonellose clinique. La sensibilité et la spécificité de la culture bactériologique ont été estimées à l’aide d’un modèle de classes latentes. Dix-huit pour cent des 874 échantillons provenant de veaux et 29% des 1479 échantillons de vaches adultes étaient positifs pour Salmonella spp. Il n’a pas été possible d’établir une association claire entre les différents signes cliniques observés et la détection de salmonelles. Les 2 sérotypes les plus fréquemment isolés étaient Typhimurium et Newport. La probabilité de détecter des salmonelles était plus élevée chez les veaux où un autre agent entéropathogène était également détecté. La proportion d’échantillons positifs était plus élevée parmi les vaches ayant reçu des antibiotiques dans les jours précédant l’échantillonnage. La sensibilité de la culture a été estimée à 0,48 (intervalle de crédibilité à 95% [ICr95%]: 0,22-0,95) pour les veaux et 0,78 (ICr95%: 0,55-0,99) pour les vaches. La spécificité de la culture était de 0,94 (ICr95%: 0,87-1,00) pour les veaux et de 0,96 (ICr95%: 0,90-1,00) pour les vaches. Malgré une sensibilité imparfaite, la culture bactériologique demeure utile pour obtenir une meilleure estimation de la probabilité post-test de salmonellose clinique chez un bovin laitier, par rapport à la probabilité estimée suite au seul examen clinique.
Resumo:
De nombreux travailleurs utilisent le captan et le folpet comme fongicides en agriculture, mais leur exposition n’est pas toujours mesurée de manière spécifique et précise. La surveillance biologique est un excellent outil à cet effet puisqu’elle permet de quantifier l’exposition réelle. Toutefois, la majorité des connaissances toxicologiques pour ces fongicides proviennent d’études sur les animaux, et les données chez l’humain sont limitées. Le but du présent projet est donc de développer des outils de surveillance biologique pour évaluer l’exposition de travailleurs au captan et au folpet. Dans cette perspective, le projet a été subdivisé en trois parties complémentaires, soit i) de développer des méthodes analytiques spécifiques pour quantifier les biomarqueurs d’intérêt du captan, à savoir le tétrahydrophtalimide (THPI), et du folpet, à savoir le phtalimide (PI) et l’acide phtalique, dans le plasma et l’urine; ii) de déterminer la toxicocinétique des deux fongicides en exposant des volontaires de façon aigüe à de faibles doses de captan ou de folpet par voie orale et cutanée dans des conditions semi-contrôlées et en quantifiant les biomarqueurs dans chacune des deux matrices, excepté l’acide phtalique qui a été mesuré seulement dans l’urine; iii) de valider les biomarqueurs d’exposition sélectionnés et d’évaluer l’exposition réelle des travailleurs et les voies prédominantes d’exposition au captan et au folpet en collectant des données biologiques chez des travailleurs en arboriculture et en viticulture lors d’activités de traitement et d’effeuillage pendant sept jours consécutifs. Selon ces travaux, le THPI et le PI sont deux biomarqueurs valides et spécifiques pour quantifier l’exposition au captan et au folpet, respectivement, chez l’humain. En effet, les méthodes développées pour ces deux métabolites sont robustes avec des limites de détection plus sensibles que celles rapportées dans la littérature, un taux de recouvrement de 90% pour le THPI et de 75% pour le PI, une très bonne linéarité (R2>0,99) et une bonne stabilité avec des variations intra- et inter-journalières faibles (RSD<15%). Elles ont permis de déterminer les profils cinétiques des deux métabolites chez les volontaires et chez les travailleurs. Ces derniers indiquent d’ailleurs une élimination rapide, avec une demi-vie d’élimination dans l’urine de 11,7 h et 18,7 h pour le THPI et de 27,3 h et 28,8 h pour le PI, respectivement après une absorption par voie orale et cutanée, ainsi qu’une faible absorption cutanée lorsque les valeurs sont comparées pour les deux voies d’exposition. Des profils parallèles sont aussi observés entre le PI et l’acide phtalique pour les volontaires et les agriculteurs, mais le folpet se retrouve davantage métabolisé sous forme d’acide phtalique que de PI. Quant à l’étude des agriculteurs, elle montre que la voie principale d’exposition de ces travailleurs est la voie cutanée. Il est aussi souligné qu’il est important 1) de favoriser les collectes d’urines complètes sur 24 h au urines ponctuelles, 2) de mesurer plusieurs métabolites, et 3) d’associer les données de surveillance biologique à la toxicocinétique. Ainsi, les connaissances acquises par cette étude peuvent s’appliquer à d’autres fongicides, voire d’autres substances.
Resumo:
Ce travail s’inscrit dans le cadre d’un programme de recherches appuyé par le Conseil de recherches en sciences humaines du Canada.
Resumo:
Le système nerveux autonome cardiaque est devenu une cible dans les thérapies ablatives de la fibrillation auriculaire. Nous avons étudié les voies de communication et la fonction des plexus ganglionnaires (PG) de l'oreillette gauche (PGOG) afin de clarifier la validité physiopathologique des méthodes de détection et des thérapies impliquant ces groupes de neuronnes. Méthodes: Vingt-deux chiens ont subi une double thoracotomie et ont été instrumentés avec des plaques auriculaires épidcardiques de multiélectrodes. Une stimulation électrique (2 mA, 15 Hz) des PGOG a été réalisée à l'état basal et successivement après: 1) une décentralisation vagale, 2) l'ablation par radiofréquence des plexus péri-aortiques et de la veine cave supérieure (Ao/VCS) et 3) l'ablation du PG de l'oreillette droite (PGOD). Ces procédures de dénervation ont été réalisées suivant une séquence antérograde (n = 17) ou rétrograde (n = 5). Résultats: Chez 17 des 22 animaux, la stimulation des PGOG a induit une bradycardie sinusale (149 ± 34 bpm vs 136 ± 28 bpm, p < 0.002) et des changements de repolarization (ΔREPOL) auriculaires isointégrales. Dans le groupe des ablations antérogrades, les réponses aux stimulations vagales ont été supprimées suite à la décentralisation vagale chez un seul animal, par l'ablation des plexus Ao/VCS dans 4 cas et par l'ablation du PGOG dans 5 autres animaux. Des changements ont persisté tout au long chez 2 chiens. La valeur de surface des ΔREPOL a diminué avec les dénervations séquentielles, passant de 365 ± 252 mm2 en basale à 53 ± 106 mm2 après l'ablation du PGOD (p < 0.03). Dans le groupe de dénervation rétrograde, les changements de repolarisation et chronotropiques ont été supprimés suite à l'ablation du PGOD chez deux chiens et suite à l'ablation Ao/VCS chez trois. La valeur de surface du ΔREPOL a aussi diminué après l'ablation du PGOD (269±144mm2 vs 124±158mm2, p<0.05). Conclusion: Les PGOD sont identifiables en préablation par la réponse bradycardique à la stimulation directe dans la plupart des cas. Le PGOD semble former la principale, mais non la seule, voie de communication avec le nœud sinusal. Ces résultats pourraient avoir des implications dans le traitement de la FA par méthodes ablatives.
Resumo:
L’obésité et la sédentarité sont considérées comme des problèmes importants de santé publique. L’augmentation de l’activité physique est une des stratégies recommandées pour obtenir un bilan énergétique positif dans les interventions de perte de poids. Deux accéléromètres, le Sensewear Armband (SWA) et l’Actical (ACT), sont des outils simples à utiliser en recherche clinique, mais à notre connaissance, aucune étude n’a évalué leur capacité à détecter des hausses de la dépense énergétique. De plus, très peu d’études, avec des résultats par ailleurs contradictoires, ont été effectuées afin de déterminer la fiabilité de ces accéléromètres pour la mesure de la dépense énergétique au repos et au cours d’une activité physique au vélo stationnaire. Ainsi, les objectifs de cette étude étaient: 1) évaluer, pendant 3 journées consécutives, la reproductibilité des valeurs de la dépense énergétique obtenues avec le SWA et l’ACT, au repos et au cours d’une activité physique de 45 minutes sur un vélo stationnaire, 2) déterminer la capacité de ces accéléromètres à détecter des hausses de 5% et 10 % de la dépense énergétique totale (DET) au moyen de la modification d’une activité physique au tapis roulant pendant 45 minutes. Cette étude transversale effectuée auprès de 20 sujets en santé, âgés de 20 à 32 ans et avec un IMC moyen de 23 kg/m2, consistait en 5 visites à la clinique. Les 3 dernières visites, sous supervision directe pendant 10 heures, comportaient des activités programmées sur le vélo stationnaire et la marche sur tapis roulant pendant 45 minutes. Les résultats montrent que le SWA et l’ACT donnent des valeurs reproductibles pour estimer la dépense énergétique au repos et la dépense énergétique au vélo (corrélations intra classe, p<0,001). Par contre, pour des hausses préétablies de la DET de 5% et 10%, les estimations respectives obtenues étaient de 1,4% et 7,8% avec le SWA et de 3,4% et 13,1% avec l’ACT. Le SWA sous-estime les hausses de 5% et de 10% et l’ACT sous-estime la hausse de 5% et surestime la hausse de 10% de la DET. Plus de recherches sont nécessaires avant de confirmer l’usage du SWA et de l’ACT dans l’estimation des hausses de la dépense énergétique totale.
Détection des événements de "Minimum Bias" et neutrons avec les détecteurs ATLAS-MPX par simulations
Resumo:
Un réseau de seize détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Les détecteurs ATLAS-MPX sont sensibles au champ mixte de radiation de photons et d’électrons dans la caverne d’ATLAS et sont recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons thermiques et des neutrons rapides respectivement. Les collisions à haute énergie sont dominées par des interactions partoniques avec petit moment transverse pT , associés à des événements de “minimum bias”. Dans notre cas la collision proton-proton se produit avec une énergie de 7 TeV dans le centre de masse avec une luminosité de 10³⁴cm⁻²s⁻¹ telle que fixée dans les simulations. On utilise la simulation des événements de "minimum bias" générés par PYTHIA en utilisant le cadre Athena qui fait une simulation GEANT4 complète du détecteur ATLAS pour mesurer le nombre de photons, d’électrons, des muons qui peuvent atteindre les détecteurs ATLASMPX dont les positions de chaque détecteur sont incluses dans les algorithmes d’Athena. Nous mesurons les flux de neutrons thermiques et rapides, générés par GCALOR, dans les régions de fluorure de lithium et de polyéthylène respectivement. Les résultats des événements de “minimum bias” et les flux de neutrons thermiques et rapides obtenus des simulations sont comparés aux mesures réelles des détecteurs ATLAS-MPX.