11 resultados para Line and edge detection

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le mouvement de la marche est un processus essentiel de l'activité humaine et aussi le résultat de nombreuses interactions collaboratives entre les systèmes neurologiques, articulaires et musculo-squelettiques fonctionnant ensemble efficacement. Ceci explique pourquoi une analyse de la marche est aujourd'hui de plus en plus utilisée pour le diagnostic (et aussi la prévention) de différents types de maladies (neurologiques, musculaires, orthopédique, etc.). Ce rapport présente une nouvelle méthode pour visualiser rapidement les différentes parties du corps humain liées à une possible asymétrie (temporellement invariante par translation) existant dans la démarche d'un patient pour une possible utilisation clinique quotidienne. L'objectif est de fournir une méthode à la fois facile et peu dispendieuse permettant la mesure et l'affichage visuel, d'une manière intuitive et perceptive, des différentes parties asymétriques d'une démarche. La méthode proposée repose sur l'utilisation d'un capteur de profondeur peu dispendieux (la Kinect) qui est très bien adaptée pour un diagnostique rapide effectué dans de petites salles médicales car ce capteur est d'une part facile à installer et ne nécessitant aucun marqueur. L'algorithme que nous allons présenter est basé sur le fait que la marche saine possède des propriétés de symétrie (relativement à une invariance temporelle) dans le plan coronal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La prévalence de l’obésité, du diabète de type 2, et du syndrome métabolique, sont à la hausse chez les Cris d’Eeyou Istchee (CEI-Nord du Québec). Ces problèmes sont aggravés par leur diète non traditionnelle, leur sédentarité, ainsi que par une résistance culturelle aux produits pharmaceutiques. Afin de développer des traitements antidiabétiques culturellement adaptés, notre équipe a effectué une enquête ethnobotanique qui a identifié 17 plantes provenant de la pharmacopée traditionnelle des CEI. À partir des études de criblage effectuées in vitro, deux plantes parmi les 17 ont attiré notre attention. Populus balsamifera L. (Salicaceae) pour ses propriétés anti-obésité et Larix laricina K. Koch (Pinaceae) pour ses propriétés antidiabétiques. P. balsamifera et son composé actif salicortin ont inhibé l’accumulation de triglycérides durant l’adipogénèse dans les adipocytes 3T3-L1. L. laricina a augmenté le transport de glucose et l’activation de l’AMPK dans les cellules musculaires C2C12, l’adipogénèse dans les 3T3-L1 et a démontré un fort potentiel découpleur (propriété anti-obésité). Les objectifs de cette thèse sont d'évaluer les potentiels anti-obésité et antidiabétique et d’élucider les mécanismes d'action de P. balsamifera, salicortin, et L. laricina chez la souris C57BL/6 rendue obèse par une diète riche en gras (HFD). Les souris ont été soumises pendant huit (étude préventive) ou seize semaines (étude traitement) à une HFD, ou à une HFD dans laquelle P. balsamifera, salicortin, ou L. laricina a été incorporé soit dès le départ (prévention), ou dans les 8 dernières des 16 semaines d'administration de HFD (traitement). iv Les résultats démontrent que P. balsamifera (dans les deux études) et salicortin (évalué dans l’étude traitement) diminuent: le poids corporel, le gras rétropéritonéal, la sévérité de la stéatose et l’accumulation de triglycérides hépatique (ERK impliqué), les niveaux de glycémie et d'insuline, et le ratio leptine/adiponectine. Dans les deux études, P. balsamifera a significativement réduit la consommation de nourriture mais cet effet coupe-faim nécessite d’être approfondi. Dans l'étude préventive, P. balsamifera a augmenté la dépense énergétique (hausse de la température à la surface de la peau et de l’activation de la protéine découplante-1; UCP-1). Les voies de signalisation activées par P. balsamifera et par salicortin (de façon plus modeste) sont impliquées dans: la production de glucose hépatique (Akt), l’expression de Glut4 dans le muscle squelettique, la captation du glucose et du métabolisme des lipides (Akt dans le tissu adipeux), la différenciation des adipocytes (ERK et PPARg), l’inflammation dans le foie (IKKαβ), et l'oxydation des acides gras dans le muscle, le foie, ou le tissu adipeux (PPARa et CPT-1). D’autre part, L. laricina a également diminué les niveaux de glycémie et d’insuline, le ratio leptine/adiponectine, le gras rétropéritonéal et le poids corporel. Ces effets ont été observés en conjonction avec une augmentation de la dépense énergétique: hausse de température à la surface de la peau (prévention) et amélioration de la fonction mitochondriale et de la synthèse d'ATP (traitement). En conclusion, l’utilisation de P. balsamifera, salicortin et L. laricina comme des traitements alternatifs et culturellement adaptés aux CEI représente une contribution importante dans la prévention et le traitement de l’obésité et du diabète.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les cellules dendritiques (DC) sont parmi les premières cellules à rencontrer le virus d’immunodéficience humaine (VIH) au niveau des muqueuses. De plus, le fait que les DC sont, de manière directe ou indirecte par le virus et ses composantes, altérées tant par leur nombre, leur phénotype et leur fonction suggère leur implication dans les dérégulations des cellules B. Selon cette hypothèse, des études longitudinales impliquant des individus infectés au VIH-1 présentant différents profils de progression clinique menées dans notre laboratoire ont démontré que les altérations des cellules B sont concomitantes à une augmentation de l’expression de BLyS/BAFF dans le sang ainsi que par les DC myéloïdes (mDC) sanguines. De plus, lors de travaux antérieurs utilisant le modèle murin VIH-transgénique, les altérations des cellules B ont démontré une implication des DC et d’un excès de BLyS/BAFF, et ce, dépendamment du facteur négatif du VIH (Nef). Dans cette optique, nous investiguons dans cette présente étude l’implication de Nef dans la modulation du phénotype des DC ainsi que dans les dérégulations des cellules B. Chez tous les patients virémiques infectés au VIH-1, nous avons détecté la présence de Nef dans le plasma ainsi qu’au niveau des mDC et de leurs précurseurs d’origine monocytaire, tout au long du suivi de la progression clinique et au-delà de la thérapie antirétrovirale (ART). La surexpression de BLyS/BAFF est associée à la présence de Nef au niveau des mDC et de leur précurseur.. Des essais in vitro ont permis de démontrer l’induction d’un phénotype proinflammatoire par des mDC dérivés de monocytes lorsqu’en présence de Nef soluble, via l’augmentation de l’expression de BLyS/BAFF et de TNF-α, et où cet effet est bloqué par l’ajout de l’acide rétinoïque. Nos résultats suggèrent donc que Nef est impliquée dans le déclenchement et la persistance des dérégulations des cellules B retrouvées chez les individus infectés au VIH-1. Basé sur nos observations, une thérapie adjointe impliquant le blocage de BLyS/BAFF et/ou Nef pourrait contribuer au contrôle de l’inflammation et des altérations des cellules B. De plus, la quantification de Nef post-ART pourrait s’avérer utile dans l’évaluation du statut des réservoirs. Précédemment, nous avons démontré que les dérégulations des cellules B sanguines de ces mêmes individus présentant un profil de progression rapide et classique sont accompagnées par l’augmentation de la fréquence d’une population partageant des caractéristiques des cellules B transitionnelles immatures (TI) et des cellules B de la zone marginale (ZM), que nous avons nommé les cellules B précurseur de la ZM. Toutefois, cette population est préservée chez les contrôleurs élites, chez qui nous avons trouvé une diminution significative de la fréquence des cellules B de la ZM présentant des marqueurs phénotypiques plus matures. Récemment, ces cellules ont été associées à un potentiel de fonction régulatrice (Breg), motivant ainsi notre poursuite, dans cette étude, de la caractérisation de ces cellules B. Comme pour les individus non infectés au VIH-1, nous avons démontré que les cellules B matures de la ZM contrôlent leur capacité de production d’IL-10 chez les contrôleurs élites, contrairement à une augmentation chez les progresseurs rapides et classiques. Aussi, les cellules B précurseur de la ZM des contrôleurs élites fournissent une expression importante de LT-α lorsque comparés aux individus non infectés au VIH-1, alors que cet apport de LT-α est attribué aux cellules B TI chez les progresseurs. Le contrôle de la progression clinique semble associé à un ratio en faveur de LT-α vs IL-10 au niveau des cellules B précurseur de la ZM. Nos résultats suggèrent qu’un maintien de l’intégrité du potentiel régulateur ainsi qu’une expression augmentée de LT-α par les cellules B de première ligne, telles les populations de la ZM, sont impliqués dans le contrôle de la progression clinique du VIH-1, possiblement par leur contribution à la modulation et l’homéostasie immunitaire. De telles populations doivent être considérées lors de l’élaboration de vaccins, ces derniers cherchant à générer une réponse protectrice de première ligne et adaptative.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’utilisation accrue des nanomatériaux manufacturés (NM) fait en sorte que les différents acteurs de réglementation se questionnent de plus en plus par rapport à leur destin et leurs impacts sur les écosystèmes et la santé humaine suite à leur rejet dans l’environnement. Le développement de techniques analytiques permettant de détecter et de caractériser les NM en matrice environnementale est impératif étant donné la nécessité d’évaluer le risque relié à ces polluants émergents. Une des approches de plus en plus favorisée est d’utiliser une technique chromatographique et un ou plusieurs détecteurs sensibles dans les buts de réduire les effets de matrice, d’identifier des nanoparticules (NP) selon leurs temps de rétention et de les quantifier à des concentrations représentatives de la réalité environnementale. Une technique analytique utilisant la chromatographie hydrodynamique (HDC) et des détecteurs en ligne ou hors ligne (détecteurs de diffusion statique ou dynamique de la lumière, spectromètre de masse par torche à plasma en mode particule unique (SP-ICPMS), l’ultracentrifugation analytique) a donc été développée. Le couplage de la colonne HDC avec ces détecteurs a permis de caractériser des NP standards et l’optimisation des conditions de séparation de ces nanoparticules de polystyrène, d’or et d’argent a permis de confirmer que les NP y sont bel et bien séparées seulement selon leur taille, tel que la théorie le prédit. De plus, l’utilisation de la colonne HDC couplée au SP-ICPMS a permis de séparer un mélange de nanoparticules d’argent (nAg) et de les détecter à des concentrations représentatives de celles rencontrées dans l’environnement, soit de l’ordre du μg L-1 au ng L-1. Par exemple, dans un échantillon d’eau usée (effluent), un mélange de nAg de 80 et de 40 nm a été séparé et les nAg ont été détectées à l’aide du SP-ICPMS connecté à la colonne HDC (temps de rétention de 25.2 et 25.6 minutes et diamètres déterminés de 71.4 nm et 52.0 nm). Finalement, pour plusieurs échantillons environnementaux auxquels aucun ajout de nanoparticules n’a été fait, les analyses HDC-SP-ICPMS effectuées ont permis de déterminer qu’ils ne contenaient initialement pas de nAg.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Deoxynivalenol (DON) is a mycotoxin produced by Fusarium spp and is a common contaminant of grains in North America. Among farm animals, swine are the most susceptible to DON because it markedly reduces feed intake and decreases weight gain. Porcine circovirus type 2 (PCV2) is the main causative agent of several syndromes in weaning piglets collectively known as porcine circovirus-associated disease (PCVAD). The objectives of this study were to investigate the impact of DON on PCV2 replication in NPTr permissive cell line, and to determine eventual potentiating effects of DON on PCV2 infection in pigs. Noninfected and infected cells with PCV2 were treated with increasing concentrations of DON (0, 70, 140, 280, 560, 1200 ng/mL) and cell survival and virus titer were evaluated 72 h postinfection. Thirty commercial piglets were randomly divided into 3 experimental groups of 10 animals based on DON content of served diets (0, 2.5 and 3.5 mg/kg DON). All groups were further divided into subgroups of 6 pigs and were inoculated with PCV2b virus. The remaining pigs (control) were sham-inoculated with PBS. In vitro results showed that low concentrations of DON could potentially increase PCV2 replication depending on virus genotype. In vivo results showed that even though viremia and lung viral load tend to be higher in animal ingesting DON contaminated diet at 2.5 mg/kg, DON had no significant effect on clinical manifestation of PCVAD in PCV2b infected animals. DON has neither in vitro nor in vivo clear potentiating effects in the development of porcine circovirus infection despite slight increases in viral replication.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In recent years, we observed a significant increase of food fraud ranging from false label claims to the use of additives and fillers to increase profitability. Recently in 2013, horse and pig DNA were detected in beef products sold from several retailers. Mass spectrometry has become the workhorse in protein research and the detection of marker proteins could serve for both animal species and tissue authentication. Meat species authenticity will be performed using a well defined proteogenomic annotation, carefully chosen surrogate tryptic peptides and analysis using a hybrid quadrupole-Orbitrap mass spectrometer. Selected mammalian meat samples were homogenized, proteins were extracted and digested with trypsin. The samples were analyzed using a high-resolution mass spectrometer. The chromatography was achieved using a 30 minutes linear gradient along with a BioBasic C8 100 × 1 mm column at a flow rate of 75 µL/min. The mass spectrometer was operated in full-scan high resolution and accurate mass. MS/MS spectra were collected for selected proteotypic peptides. Muscular proteins were methodically analyzed in silico in order to generate tryptic peptide mass lists and theoretical MS/MS spectra. Following a comprehensive bottom-up proteomic analysis, we were able to detect and identify a proteotypic myoglobin tryptic peptide [120-134] for each species with observed m/z below 1.3 ppm compared to theoretical values. Moreover, proteotypic peptides from myosin-1, myosin-2 and -hemoglobin were also identified. This targeted method allowed a comprehensive meat speciation down to 1% (w/w) of undesired product.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Aims The pubococcygeal line (PCL) is an important reference line for determining measures of pelvic organ support on sagittal-plane magnetic resonance imaging (MRI); however, there is no consensus on where to place the posterior point of the PCL. As coccyx movement produced during pelvic floor muscle (PFM) contractions may affect other measures, optimal placement of the posterior point is important. This study compared two methods for measuring the PCL, with different posterior points, on T2-weighted sagittal MRI to determine the effect of coccygeal movement on measures of pelvic organ support in older women. Methods MRI of the pelvis was performed in the midsagittal plane, at rest and during PFM contractions, on 47 community-dwelling women 60 and over. The first PCL was measured to the tip of the coccyx (PCLtip) and the second to the sacrococcygeal joint (PCLjnt). Four measures of pelvic organ support were made using each PCL as the reference line: urethrovesical junction height, uterovaginal junction height, M-line and levator plate angle. Results During the PFM contraction the PCLtip shortened and lifted (P < 0.001); the PCLjnt did not change (P > 0.05). The changes in the four measures of pelvic organ support were smaller when measured relative to the PCLtip as compared to those to the PCLjnt (P < 0.001). Conclusions Coccyx movement affected the length and position of the PCLtip, which resulted in underestimates of the pelvic-organ lift produced by the PFM contraction. Therefore, we recommend that the PCL be measured to the sacrococcygeal joint and not to the tip of the coccyx