938 resultados para incompleteness and inconsistency detection


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os sistemas autónomos trazem como mais valia aos cenários de busca e salvamento a possibilidade de minimizar a presença de Humanos em situações de perigo e a capacidade de aceder a locais de difícil acesso. Na dissertação propõe-se endereçar novos métodos para perceção e navegação de veículos aéreos não tripulados (UAV), tendo como foco principal o planeamento de trajetórias e deteção de obstáculos. No que respeita à perceção foi desenvolvido um método para gerar clusters tendo por base os voxels gerados pelo Octomap. Na área de navegação, foram desenvolvidos dois novos métodos de planeamento de trajetórias, GPRM (Grid Probabilistic Roadmap) e PPRM (Particle Probabilistic Roadmap), que tem como método base para o seu desenvolvimento o PRM. O primeiro método desenvolvido, GPRM, espalha as partículas numa grid pré-definida, construindo posteriormente o roadmap na área determinada pela grid e com isto estima o trajeto mais curto até ao ponto destino. O segundo método desenvolvido, PPRM, espalha as partículas pelo cenário de aplicação, gera o roadmap considerando o mapa total e atribui uma probabilidade que irá permitir definir a trajetória otimizada. Para analisar a performance de cada método em comparação com o PRM, efetua-se a sua avaliação em três cenários distintos com recurso ao simulador MORSE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The potential and applicability of UHPSFC-MS/MS for anti-doping screening in urine samples were tested for the first time. For this purpose, a group of 110 doping agents with diverse physicochemical properties was analyzed using two separation techniques, namely UHPLC-MS/MS and UHPSFC-MS/MS in both ESI+ and ESI- modes. The two approaches were compared in terms of selectivity, sensitivity, linearity and matrix effects. As expected, very diverse retentions and selectivities were obtained in UHPLC and UHPSFC, proving a good complementarity of these analytical strategies. In both conditions, acceptable peak shapes and MS detection capabilities were obtained within 7min analysis time, enabling the application of these two methods for screening purposes. Method sensitivity was found comparable for 46% of tested compounds, while higher sensitivity was observed for 21% of tested compounds in UHPLC-MS/MS and for 32% in UHPSFC-MS/MS. The latter demonstrated a lower susceptibility to matrix effects, which were mostly observed as signal suppression. In the case of UHPLC-MS/MS, more serious matrix effects were observed, leading typically to signal enhancement and the matrix effect was also concentration dependent, i.e., more significant matrix effects occurred at the lowest concentrations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background In angioimmunoblastic T-cell lymphoma, symptoms linked to B-lymphocyte activation are common, and variable numbers of CD20(+) large B-blasts, often infected by Epstein-Barr virus, are found in tumor tissues. We postulated that the disruption of putative B-T interactions and/or depletion of the Epstein-Barr virus reservoir by an anti-CD20 monoclonal antibody (rituximab) could improve the clinical outcome produced by conventional chemotherapy. DESIGN AND METHODS: Twenty-five newly diagnosed patients were treated, in a phase II study, with eight cycles of rituximab + chemotherapy (R-CHOP21). Tumor infiltration, B-blasts and Epstein-Barr virus status in tumor tissue and peripheral blood were fully characterized at diagnosis and were correlated with clinical outcome. RESULTS: A complete response rate of 44% (95% CI, 24% to 65%) was observed. With a median follow-up of 24 months, the 2-year progression-free survival rate was 42% (95% CI, 22% to 61%) and overall survival rate was 62% (95% CI, 40% to 78%). The presence of Epstein-Barr virus DNA in peripheral blood mononuclear cells (14/21 patients) correlated with Epstein-Barr virus score in lymph nodes (P<0.004) and the detection of circulating tumor cells (P=0.0019). Despite peripheral Epstein-Barr virus clearance after treatment, the viral load at diagnosis (>100 copy/μg DNA) was associated with shorter progression-free survival (P=0.06). Conclusions We report here the results of the first clinical trial targeting both the neoplastic T cells and the microenvironment-associated CD20(+) B lymphocytes in angioimmunoblastic T-cell lymphoma, showing no clear benefit of adding rituximab to conventional chemotherapy. A strong relationship, not previously described, between circulating Epstein-Barr virus and circulating tumor cells is highlighted.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The addition of L-Glutamate (L-GLU) and L-Hethionine ~ulfoximine (L-HSO) to mechanically isolated. photosynthetically competent, Asparagus sprengeri mesophyll cells ~u~pended in 1mM CaS04 cau~ed an immediate transient alkalinization of the cell su~pension medium in both the light and dark. The alkalinization response was specific and stereospecific as none of the L-isomers of the other 19 protein amino acids tested or D-GLU gave this response. Uptake of 14C-L-GLU was stimulated by the light. The addition of non-radioactive L-GLU. or L-GLU analogs together with 14C-L-GLU showed that only L-GLU and L-HSO stimulated alkalinization whilst inhibiting the uptake of 14C-L-GLU. Both the L-GLU dependent alkalinization and the upt~ke of 14C-L-GLU were stimulated when the external pH was decreased from 6.5 to 5.5. Increasing external K+ concentrations inhibited the uptake of 14C-L-GLU. Fusicoccin (FC) stimulated uptake. The L-GLU dependent alkalinization re~ponse exhibited monophasic saturation kinetics while the uptake of 14C-L-GLU exhibited biphasic saturation kinetics. In addition to a saturable component. the uptake kinetics also showed a linear component of uptake. Addition of L-GLU and L-MSO caused internal acidification of the cell as measured by a change in the distribution of 14C-DMO. There was no change in K+ efflux when L-GLU was added. A H+ to L-GLUinflux stoichiometry of 3:1 wa~ mea~ured at an external I.-GLU concentration of O.5mM and increased with increasing external 13 L-QLU concentration. Metabolism of L-GLU was detected manometrlcally by observing an increase in COa evolution upon the addition of L-QLU and by detection of i*C02 evolution upon the addition of »*C-L-GLU. »*C02 evolution was higher in the dark than in the light. The data are consistent with the operation of a H+/L-QLO cotransport system. The data also show that attempts to quantify the stoichlometry of the process were complicated by the metabolism of L-GLU.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

OBJECTIF: évaluer un modèle prédictif de prééclampsie associant des marqueurs cliniques, biologiques (Inhibine A, PP-13, hCG, ADAM12, PAPP-A et PlGF) et du Doppler des artères utérines (DAU) au 1er trimestre de la grossesse. METHODE : étude prospective de cohorte de 893 nullipares chez qui DAU et prélèvement sanguin étaient réalisés à 11-14 semaines. RESULTATS : 40 grossesses se sont compliquées de prééclampsie (4,5%) dont 9 de prééclampsie précoce (1,0%) et 16 de prééclampsie sévère (1,8%). Le meilleur modèle prédictif de la prééclampsie sévère associait les marqueurs cliniques, PAPP-A et PlGF (taux de détection 87,5% pour 10% de faux positif). Le DAU étant corrélé à la concentration de PAPP-A (r=-0,117 ; p<0,001), il n’améliorait pas la modélisation. CONCLUSION : la combinaison de marqueurs cliniques et biologiques (PlGF et PAPP-A) au 1er trimestre permet un dépistage performant de la prééclampsie sévère. Le DAU n’est pas un instrument efficace de dépistage au 1er trimestre dans cette population.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse comporte trois essais en macroéconomie en économie ouverte et commerce international. Je considère tour à tour les questions suivantes: sous quelles conditions est-il optimal pour un pays de former une union économique? (essai 1); l'augmentation de la dispersion transversale des avoirs extérieurs nets des pays est-elle compatible avec une dispersion relativement stable des taux d'investissement? (essai 2); le risque de perte de marché à l'exportation du fait de l'existence des zones de commerce préférentiel joue t-il un rôle dans la décision des pays exclus de négocier des accords commerciaux à leur tour? (essai 3). Le premier essai examine les conditions d'optimalité d'une union économique. Il s'intéresse à une motivation particulière: le partage du risque lié aux fluctuations du revenu. Dans la situation initiale, les pays ont très peu d'opportunités pour partager le risque à cause des frictions: les marchés financiers internationaux sont incomplets et il n'y pas de mécanisme pour faire respecter les contrats de crédit entre pays. Dans ce contexte, une union économique apparait comme un arrangement qui pallie à ces frictions entre les pays membres seulement. Cependant, l'union dans son ensemble continue de faire face à ces frictions lorsqu'elle échange avec le reste du monde. L'arbitrage clé dans le modèle est le suivant. D'un coté, l'intégration économique permet un meilleur partage du risque entre pays membres et la possibilité pour le partenaire pauvre d'utiliser la ligne de crédit du partenaire riche en cas de besoin. De l'autre coté, l'union peut faire face à une limite de crédit plus restrictive parce que résilier la dette extérieure est moins coûteux pour les membres l'union. De plus, le fait que le partenaire pauvre peut utiliser la limite de crédit du partenaire riche génère une externalité négative pour ce dernier qui se retrouve plus fréquemment contraint au niveau des marchés internationaux des capitaux. En conformité avec les faits observés sur l'intégration économique, le modèle prédit que les unions économiques sont relativement peu fréquentes, sont plus susceptibles d'être créées parmi des pays homogènes, et généralement riches. Le deuxième essai porte sur la dispersion des avoirs extérieurs nets et la relation avec la dispersion des taux d'investissement. Au cours des récentes décennies, la dispersion croissante des déséquilibres extérieurs et les niveaux record atteints par certaines grandes économies ont reçu une attention considérable. On pourrait attribuer ce phénomène à une réduction des barrières aux mouvements internationaux des capitaux. Mais dans ce cas, il est légitime de s'attendre à une augmentation de la dispersion au niveau des taux d'investissement; ceci, parce que le financement des besoins en investissements constitue une raison fondamentale pour laquelle les pays échangent les capitaux. Les données indiquent cependant que la dispersion des taux d'investissement est restée relativement stable au cours des récentes décennies. Pour réconcilier ces faits, je construis un modèle d'équilibre général dynamique et stochastique où les pays sont hétérogènes en raison des chocs idiosyncratiques à leurs niveaux de productivité totale des facteurs. Au niveau des marchés internationaux des capitaux, le menu des actifs disponibles est restreint à une obligation sans risque et il n'y a pas de mécanisme pour faire respecter les contrats de crédit entre pays. A tout moment, un pays peut choisir de résilier sa dette extérieure sous peine d'exclusion financière et d'un coût direct. Ce coût direct reflète les canaux autres que l'exclusion financière à travers lesquels les pays en défaut sont pénalisés. Lorsque le modèle est calibré pour reproduire l'évolution de la dispersion transversale des avoirs extérieurs nets, il produit une dispersion relativement stable des taux d'investissement. La raison principale est que les incitations que les pays ont à investir sont liées à la productivité. Avec l'intégration financière, même si les opportunités d'emprunt se sont multipliées, les incitations à investir n'ont pas beaucoup changé. Ce qui permet de générer une dispersion accrue de la position des avoirs extérieurs nets des pays avec une dispersion relativement stable des taux d'investissement. Le troisième essai analyse un aspect de l'interdépendance dans la formation des accords commerciaux préférentiels: j'examine empiriquement si le risque de diversion des exportations en faveur des pays membres des zones de commerce préférentiel est un facteur déterminant dans la décision des pays exclus de ces accords de négocier un accord à leur tour. Je construis un indicateur qui mesure le potentiel de diversion des exportations auquel font face les pays et estime un modèle probit de formation des zones de commerce préférentiel créées entre 1961 et 2005. Les résultats confirment que les pays confrontés à un plus grand potentiel de détournement des échanges sont plus susceptibles de former une zone de commerce préférentiel à leur tour.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Problématique : Bien que le tabac et l’alcool soient les facteurs causaux principaux des cancers épidermoïdes de l’oropharynx, le virus du papillome humain (VPH) serait responsable de l’augmentation récente de l’incidence de ces cancers, particulièrement chez les patients jeunes et/ou non-fumeurs. La prévalence du VPH à haut risque, essentiellement de type 16, est passée de 20% à plus de 60% au cours des vingt dernières années. Certaines études indiquent que les cancers VPH-positifs ont un meilleur pronostic que les VPH- négatifs, mais des données prospectives à cet égard sont rares dans la littérature, surtout pour les études de phase III avec stratification basée sur les risques. Hypothèses et objectifs : Il est présumé que la présence du VPH est un facteur de bon pronostic. L’étude vise à documenter la prévalence du VPH dans les cancers de l’oropharynx, et à établir son impact sur le pronostic, chez des patients traités avec un schéma thérapeutique incluant la chimio-radiothérapie. Méthodologie : Les tumeurs proviennent de cas traités au CHUM pour des cancers épidermoïdes de la sphère ORL à un stade localement avancé (III, IVA et IVB). Elles sont conservées dans une banque tumorale, et les données cliniques sur l’efficacité du traitement et les effets secondaires, recueillies prospectivement. La présence du VPH est établie par biologie moléculaire déterminant la présence du génome VPH et son génotype. Résultats: 255 spécimens ont été soumis au test de génotypage Linear Array HPV. Après amplification par PCR, de l’ADN viral a été détecté dans 175 (68.6%) échantillons tumoraux ; le VPH de type 16 était impliqué dans 133 cas (52.25 %). Conclusion: Une proportion grandissante de cancers ORL est liée au VPH. Notre étude confirme que la présence du VPH est fortement associée à une amélioration du pronostic chez les patients atteints de cancers ORL traités par chimio-radiothérapie, et devrait être un facteur de stratification dans les essais cliniques comprenant des cas de cancers ORL.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mycobacterium avium subsp. paratuberculosis (MAP) cause la maladie de Johne, une maladie chronique et incurable affectant les ruminants partout dans le monde. Plusieurs pays ont mis en place des programmes de contrôle afin de prévenir la transmission entre et au sein des troupeaux. Afin d’arriver à prévenir et contrôler cette maladie, une bonne compréhension des facteurs de risque impliqués dans la transmission est essentielle. Des tests diagnostiques performants et à coût abordable sont aussi nécessaires afin de détecter la présence du MAP et/ou les animaux infectés. L’objectif de la première étude était de réviser systématiquement la littérature scientifique concernant les facteurs de risque associés à la transmission du MAP aux génisses laitières. La présence d’une association significative entre les facteurs de risque concernant l’environnement néonatal, le colostrum, le lait, le logement des veaux et le contact des veaux avec le fumier de vaches adultes et la transmission du MAP a été compilée de 23 articles. Le contact des veaux avec le fumier de vaches adultes est le facteur de risque le plus important dans la transmission du MAP. L’objectif de la seconde étude était d’évaluer la relation entre le nombre d’échantillons de l’environnement positifs pour le MAP et la prévalence individuelle d’excrétion fécale dans les troupeaux laitiers entravés du Québec. Le nombre de cultures positives d’échantillons de l’environnement s’est avéré associé à la prévalence individuelle d’excrétion fécale du MAP. Une association significative a été trouvée entre la présence d’une forte charge bactérienne dans un échantillon de fumier individuel et la détection du MAP dans l’environnement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Une des voies les plus étudiées dans le contrôle locomoteur est la voie dopaminergique ascendante, vu son importance dans les maladies qui touchent la locomotion, comme la maladie du Parkinson. La substance noire pars compacta (A9; SNc) et l’aire tegmentaire ventrale (A10; VTA) envoient des projections dopaminergiques (DA+) vers les ganglions de la base (GB) qui à leur tour projettent vers la région locomotrice mésencéphalique (RLM), une région de tronc cérébral qui contrôle la locomotion chez les vertébrés. Des terminaisons DA+ au niveau de la RLM ont récemment été découvertes chez le singe. Donc, il semblait intéressant de savoir d’où provenaient ces projections DA+ et si elles étaient maintenues de manière équivalente dans l’évolution des espèces animales. Nous nous sommes donc penchés sur deux espèces animales en particulier, la lamproie et le triton. Dans ce travail, nous avons observé une voie DA+ descendante du tubercule postérieur (PT; homologue à la substance noire pars compacta et à l’aire tegmentaire ventrale chez les mammifères) directement vers la RLM, sans passer par l’intermédiaire des GB. Cette voie DA+ descendante a été observée autant chez la lamproie que chez le triton, à la suite d’injections de marqueurs rétrogrades et de détection immunohistochimique de la tyrosine hydroxylase (TH) ou de la dopamine (DA). La voie DA+ descendante semble donc conservée au cours de l’évolution des espèces vertébrés, bien que l’importance relative de la voie ascendante DA+ semble augmenter au cours de l’évolution.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Màster en Nanociència i Nanotecnologia

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Multispectral analysis is a promising approach in tissue classification and abnormality detection from Magnetic Resonance (MR) images. But instability in accuracy and reproducibility of the classification results from conventional techniques keeps it far from clinical applications. Recent studies proposed Independent Component Analysis (ICA) as an effective method for source signals separation from multispectral MR data. However, it often fails to extract the local features like small abnormalities, especially from dependent real data. A multisignal wavelet analysis prior to ICA is proposed in this work to resolve these issues. Best de-correlated detail coefficients are combined with input images to give better classification results. Performance improvement of the proposed method over conventional ICA is effectively demonstrated by segmentation and classification using k-means clustering. Experimental results from synthetic and real data strongly confirm the positive effect of the new method with an improved Tanimoto index/Sensitivity values, 0.884/93.605, for reproduced small white matter lesions

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The paper summarizes the design and implementation of a quadratic edge detection filter, based on Volterra series, for enhancing calcifications in mammograms. The proposed filter can account for much of the polynomial nonlinearities inherent in the input mammogram image and can replace the conventional edge detectors like Laplacian, gaussian etc. The filter gives rise to improved visualization and early detection of microcalcifications, which if left undetected, can lead to breast cancer. The performance of the filter is analyzed and found superior to conventional spatial edge detectors