930 resultados para Paraphrasing and plagiarism detection


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Prompt and accurate detection of rejection prior to pathological changes after organ transplantation is vital for monitoring rejections. Although biopsy remains the current gold standard for rejection diagnosis, it is an invasive method and cannot be repeated daily. Thus, noninvasive monitoring methods are needed. In this study, by introducing an IL-2 neutralizing monoclonal antibody (IL-2 N-mAb) and immunosuppressants into the culture with the presence of specific stimulators and activated lymphocytes, an activated lymphocyte-specific assay (ALSA) system was established to detect the specific activated lymphocytes. This assay demonstrated that the suppression in the ALSA test was closely related to the existence of specific activated lymphocytes. The ALSA test was applied to 47 heart graft recipients and the proliferation of activated lymphocytes from all rejection recipients proven by endomyocardial biopsies was found to be inhibited by spleen cells from the corresponding donors, suggesting that this suppression could reflect the existence of activated lymphocytes against donor antigens, and thus the rejection of a heart graft. The sensitivity of the ALSA test in these 47 heart graft recipients was 100%; however, the specificity was only 37.5%. It was also demonstrated that IL-2 N-mAb was indispensible, and the proper culture time courses and concentrations of stimulators were essential for the ALSA test. This preliminary study with 47 grafts revealed that the ALSA test was a promising noninvasive tool, which could be used in vitro to assist with the diagnosis of rejection post-heart transplantation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis studies the use of machine vision in RDF quality assurance and manufacturing. Currently machine vision is used in recycling and material detection and some commer- cial products are available in the market. In this thesis an on-line machine vision system is proposed for characterizing particle size. The proposed machine vision system is based on the mapping between image segmenta- tion and the ground truth of the particle size. The results shows that the implementation of such machine vision system is feasible.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this study, folates were evaluated in the main species of mushroom cultivated in Brazil. The species analysed were Agaricus bisporus (button mushroom), Lentinula edodes (shiitake) and Pleorotus ostreatus (shimeji). The five main forms of folate found in foods were determined: tetrahydrofolic acid (THFA), 10-methyl folic acid (10MFA), 5-methyl tetrahydrofolic acid (5MTHFA), 10-formyl folic acid (10FFA) and 5-formy tetrahydrofolic acid (5FTHFA). The methodology employed used extraction with phosphate buffer, clean up with trichloroacetic acid and separation of the vitamins by high-performance liquid chromatography, with simultaneous ultraviolet and fluorescence detection. The results obtained for total folate were 551 to 1404 µg.100 g -1 for the button mushroom, 606 to 727 µg.100 g -1 for shiitake and 460 to 1325 µg.100 g-1 for shimeji. The data showed that mushrooms could be considered as sources of folates and that their contribution of these vitamins to the diet was meaningful.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resilience is the property of a system to remain trustworthy despite changes. Changes of a different nature, whether due to failures of system components or varying operational conditions, significantly increase the complexity of system development. Therefore, advanced development technologies are required to build robust and flexible system architectures capable of adapting to such changes. Moreover, powerful quantitative techniques are needed to assess the impact of these changes on various system characteristics. Architectural flexibility is achieved by embedding into the system design the mechanisms for identifying changes and reacting on them. Hence a resilient system should have both advanced monitoring and error detection capabilities to recognise changes as well as sophisticated reconfiguration mechanisms to adapt to them. The aim of such reconfiguration is to ensure that the system stays operational, i.e., remains capable of achieving its goals. Design, verification and assessment of the system reconfiguration mechanisms is a challenging and error prone engineering task. In this thesis, we propose and validate a formal framework for development and assessment of resilient systems. Such a framework provides us with the means to specify and verify complex component interactions, model their cooperative behaviour in achieving system goals, and analyse the chosen reconfiguration strategies. Due to the variety of properties to be analysed, such a framework should have an integrated nature. To ensure the system functional correctness, it should rely on formal modelling and verification, while, to assess the impact of changes on such properties as performance and reliability, it should be combined with quantitative analysis. To ensure scalability of the proposed framework, we choose Event-B as the basis for reasoning about functional correctness. Event-B is a statebased formal approach that promotes the correct-by-construction development paradigm and formal verification by theorem proving. Event-B has a mature industrial-strength tool support { the Rodin platform. Proof-based verification as well as the reliance on abstraction and decomposition adopted in Event-B provides the designers with a powerful support for the development of complex systems. Moreover, the top-down system development by refinement allows the developers to explicitly express and verify critical system-level properties. Besides ensuring functional correctness, to achieve resilience we also need to analyse a number of non-functional characteristics, such as reliability and performance. Therefore, in this thesis we also demonstrate how formal development in Event-B can be combined with quantitative analysis. Namely, we experiment with integration of such techniques as probabilistic model checking in PRISM and discrete-event simulation in SimPy with formal development in Event-B. Such an integration allows us to assess how changes and di erent recon guration strategies a ect the overall system resilience. The approach proposed in this thesis is validated by a number of case studies from such areas as robotics, space, healthcare and cloud domain.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The addition of L-Glutamate (L-GLU) and L-Hethionine ~ulfoximine (L-HSO) to mechanically isolated. photosynthetically competent, Asparagus sprengeri mesophyll cells ~u~pended in 1mM CaS04 cau~ed an immediate transient alkalinization of the cell su~pension medium in both the light and dark. The alkalinization response was specific and stereospecific as none of the L-isomers of the other 19 protein amino acids tested or D-GLU gave this response. Uptake of 14C-L-GLU was stimulated by the light. The addition of non-radioactive L-GLU. or L-GLU analogs together with 14C-L-GLU showed that only L-GLU and L-HSO stimulated alkalinization whilst inhibiting the uptake of 14C-L-GLU. Both the L-GLU dependent alkalinization and the upt~ke of 14C-L-GLU were stimulated when the external pH was decreased from 6.5 to 5.5. Increasing external K+ concentrations inhibited the uptake of 14C-L-GLU. Fusicoccin (FC) stimulated uptake. The L-GLU dependent alkalinization re~ponse exhibited monophasic saturation kinetics while the uptake of 14C-L-GLU exhibited biphasic saturation kinetics. In addition to a saturable component. the uptake kinetics also showed a linear component of uptake. Addition of L-GLU and L-MSO caused internal acidification of the cell as measured by a change in the distribution of 14C-DMO. There was no change in K+ efflux when L-GLU was added. A H+ to L-GLUinflux stoichiometry of 3:1 wa~ mea~ured at an external I.-GLU concentration of O.5mM and increased with increasing external 13 L-QLU concentration. Metabolism of L-GLU was detected manometrlcally by observing an increase in COa evolution upon the addition of L-QLU and by detection of i*C02 evolution upon the addition of »*C-L-GLU. »*C02 evolution was higher in the dark than in the light. The data are consistent with the operation of a H+/L-QLO cotransport system. The data also show that attempts to quantify the stoichlometry of the process were complicated by the metabolism of L-GLU.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

OBJECTIF: évaluer un modèle prédictif de prééclampsie associant des marqueurs cliniques, biologiques (Inhibine A, PP-13, hCG, ADAM12, PAPP-A et PlGF) et du Doppler des artères utérines (DAU) au 1er trimestre de la grossesse. METHODE : étude prospective de cohorte de 893 nullipares chez qui DAU et prélèvement sanguin étaient réalisés à 11-14 semaines. RESULTATS : 40 grossesses se sont compliquées de prééclampsie (4,5%) dont 9 de prééclampsie précoce (1,0%) et 16 de prééclampsie sévère (1,8%). Le meilleur modèle prédictif de la prééclampsie sévère associait les marqueurs cliniques, PAPP-A et PlGF (taux de détection 87,5% pour 10% de faux positif). Le DAU étant corrélé à la concentration de PAPP-A (r=-0,117 ; p<0,001), il n’améliorait pas la modélisation. CONCLUSION : la combinaison de marqueurs cliniques et biologiques (PlGF et PAPP-A) au 1er trimestre permet un dépistage performant de la prééclampsie sévère. Le DAU n’est pas un instrument efficace de dépistage au 1er trimestre dans cette population.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Problématique : Bien que le tabac et l’alcool soient les facteurs causaux principaux des cancers épidermoïdes de l’oropharynx, le virus du papillome humain (VPH) serait responsable de l’augmentation récente de l’incidence de ces cancers, particulièrement chez les patients jeunes et/ou non-fumeurs. La prévalence du VPH à haut risque, essentiellement de type 16, est passée de 20% à plus de 60% au cours des vingt dernières années. Certaines études indiquent que les cancers VPH-positifs ont un meilleur pronostic que les VPH- négatifs, mais des données prospectives à cet égard sont rares dans la littérature, surtout pour les études de phase III avec stratification basée sur les risques. Hypothèses et objectifs : Il est présumé que la présence du VPH est un facteur de bon pronostic. L’étude vise à documenter la prévalence du VPH dans les cancers de l’oropharynx, et à établir son impact sur le pronostic, chez des patients traités avec un schéma thérapeutique incluant la chimio-radiothérapie. Méthodologie : Les tumeurs proviennent de cas traités au CHUM pour des cancers épidermoïdes de la sphère ORL à un stade localement avancé (III, IVA et IVB). Elles sont conservées dans une banque tumorale, et les données cliniques sur l’efficacité du traitement et les effets secondaires, recueillies prospectivement. La présence du VPH est établie par biologie moléculaire déterminant la présence du génome VPH et son génotype. Résultats: 255 spécimens ont été soumis au test de génotypage Linear Array HPV. Après amplification par PCR, de l’ADN viral a été détecté dans 175 (68.6%) échantillons tumoraux ; le VPH de type 16 était impliqué dans 133 cas (52.25 %). Conclusion: Une proportion grandissante de cancers ORL est liée au VPH. Notre étude confirme que la présence du VPH est fortement associée à une amélioration du pronostic chez les patients atteints de cancers ORL traités par chimio-radiothérapie, et devrait être un facteur de stratification dans les essais cliniques comprenant des cas de cancers ORL.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mycobacterium avium subsp. paratuberculosis (MAP) cause la maladie de Johne, une maladie chronique et incurable affectant les ruminants partout dans le monde. Plusieurs pays ont mis en place des programmes de contrôle afin de prévenir la transmission entre et au sein des troupeaux. Afin d’arriver à prévenir et contrôler cette maladie, une bonne compréhension des facteurs de risque impliqués dans la transmission est essentielle. Des tests diagnostiques performants et à coût abordable sont aussi nécessaires afin de détecter la présence du MAP et/ou les animaux infectés. L’objectif de la première étude était de réviser systématiquement la littérature scientifique concernant les facteurs de risque associés à la transmission du MAP aux génisses laitières. La présence d’une association significative entre les facteurs de risque concernant l’environnement néonatal, le colostrum, le lait, le logement des veaux et le contact des veaux avec le fumier de vaches adultes et la transmission du MAP a été compilée de 23 articles. Le contact des veaux avec le fumier de vaches adultes est le facteur de risque le plus important dans la transmission du MAP. L’objectif de la seconde étude était d’évaluer la relation entre le nombre d’échantillons de l’environnement positifs pour le MAP et la prévalence individuelle d’excrétion fécale dans les troupeaux laitiers entravés du Québec. Le nombre de cultures positives d’échantillons de l’environnement s’est avéré associé à la prévalence individuelle d’excrétion fécale du MAP. Une association significative a été trouvée entre la présence d’une forte charge bactérienne dans un échantillon de fumier individuel et la détection du MAP dans l’environnement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Une des voies les plus étudiées dans le contrôle locomoteur est la voie dopaminergique ascendante, vu son importance dans les maladies qui touchent la locomotion, comme la maladie du Parkinson. La substance noire pars compacta (A9; SNc) et l’aire tegmentaire ventrale (A10; VTA) envoient des projections dopaminergiques (DA+) vers les ganglions de la base (GB) qui à leur tour projettent vers la région locomotrice mésencéphalique (RLM), une région de tronc cérébral qui contrôle la locomotion chez les vertébrés. Des terminaisons DA+ au niveau de la RLM ont récemment été découvertes chez le singe. Donc, il semblait intéressant de savoir d’où provenaient ces projections DA+ et si elles étaient maintenues de manière équivalente dans l’évolution des espèces animales. Nous nous sommes donc penchés sur deux espèces animales en particulier, la lamproie et le triton. Dans ce travail, nous avons observé une voie DA+ descendante du tubercule postérieur (PT; homologue à la substance noire pars compacta et à l’aire tegmentaire ventrale chez les mammifères) directement vers la RLM, sans passer par l’intermédiaire des GB. Cette voie DA+ descendante a été observée autant chez la lamproie que chez le triton, à la suite d’injections de marqueurs rétrogrades et de détection immunohistochimique de la tyrosine hydroxylase (TH) ou de la dopamine (DA). La voie DA+ descendante semble donc conservée au cours de l’évolution des espèces vertébrés, bien que l’importance relative de la voie ascendante DA+ semble augmenter au cours de l’évolution.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Màster en Nanociència i Nanotecnologia

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Multispectral analysis is a promising approach in tissue classification and abnormality detection from Magnetic Resonance (MR) images. But instability in accuracy and reproducibility of the classification results from conventional techniques keeps it far from clinical applications. Recent studies proposed Independent Component Analysis (ICA) as an effective method for source signals separation from multispectral MR data. However, it often fails to extract the local features like small abnormalities, especially from dependent real data. A multisignal wavelet analysis prior to ICA is proposed in this work to resolve these issues. Best de-correlated detail coefficients are combined with input images to give better classification results. Performance improvement of the proposed method over conventional ICA is effectively demonstrated by segmentation and classification using k-means clustering. Experimental results from synthetic and real data strongly confirm the positive effect of the new method with an improved Tanimoto index/Sensitivity values, 0.884/93.605, for reproduced small white matter lesions

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The paper summarizes the design and implementation of a quadratic edge detection filter, based on Volterra series, for enhancing calcifications in mammograms. The proposed filter can account for much of the polynomial nonlinearities inherent in the input mammogram image and can replace the conventional edge detectors like Laplacian, gaussian etc. The filter gives rise to improved visualization and early detection of microcalcifications, which if left undetected, can lead to breast cancer. The performance of the filter is analyzed and found superior to conventional spatial edge detectors