905 resultados para Negative dimensional integration method (NDIM)
Resumo:
Bien que les champignons soient régulièrement utilisés comme modèle d'étude des systèmes eucaryotes, leurs relations phylogénétiques soulèvent encore des questions controversées. Parmi celles-ci, la classification des zygomycètes reste inconsistante. Ils sont potentiellement paraphylétiques, i.e. regroupent de lignées fongiques non directement affiliées. La position phylogénétique du genre Schizosaccharomyces est aussi controversée: appartient-il aux Taphrinomycotina (précédemment connus comme archiascomycetes) comme prédit par l'analyse de gènes nucléaires, ou est-il plutôt relié aux Saccharomycotina (levures bourgeonnantes) tel que le suggère la phylogénie mitochondriale? Une autre question concerne la position phylogénétique des nucléariides, un groupe d'eucaryotes amiboïdes que l'on suppose étroitement relié aux champignons. Des analyses multi-gènes réalisées antérieurement n'ont pu conclure, étant donné le choix d'un nombre réduit de taxons et l'utilisation de six gènes nucléaires seulement. Nous avons abordé ces questions par le biais d'inférences phylogénétiques et tests statistiques appliqués à des assemblages de données phylogénomiques nucléaires et mitochondriales. D'après nos résultats, les zygomycètes sont paraphylétiques (Chapitre 2) bien que le signal phylogénétique issu du jeu de données mitochondriales disponibles est insuffisant pour résoudre l'ordre de cet embranchement avec une confiance statistique significative. Dans le Chapitre 3, nous montrons à l'aide d'un jeu de données nucléaires important (plus de cent protéines) et avec supports statistiques concluants, que le genre Schizosaccharomyces appartient aux Taphrinomycotina. De plus, nous démontrons que le regroupement conflictuel des Schizosaccharomyces avec les Saccharomycotina, venant des données mitochondriales, est le résultat d'un type d'erreur phylogénétique connu: l'attraction des longues branches (ALB), un artéfact menant au regroupement d'espèces dont le taux d'évolution rapide n'est pas représentatif de leur véritable position dans l'arbre phylogénétique. Dans le Chapitre 4, en utilisant encore un important jeu de données nucléaires, nous démontrons avec support statistique significatif que les nucleariides constituent le groupe lié de plus près aux champignons. Nous confirmons aussi la paraphylie des zygomycètes traditionnels tel que suggéré précédemment, avec support statistique significatif, bien que ne pouvant placer tous les membres du groupe avec confiance. Nos résultats remettent en cause des aspects d'une récente reclassification taxonomique des zygomycètes et de leurs voisins, les chytridiomycètes. Contrer ou minimiser les artéfacts phylogénétiques telle l'attraction des longues branches (ALB) constitue une question récurrente majeure. Dans ce sens, nous avons développé une nouvelle méthode (Chapitre 5) qui identifie et élimine dans une séquence les sites présentant une grande variation du taux d'évolution (sites fortement hétérotaches - sites HH); ces sites sont connus comme contribuant significativement au phénomène d'ALB. Notre méthode est basée sur un test de rapport de vraisemblance (likelihood ratio test, LRT). Deux jeux de données publiés précédemment sont utilisés pour démontrer que le retrait graduel des sites HH chez les espèces à évolution accélérée (sensibles à l'ALB) augmente significativement le support pour la topologie « vraie » attendue, et ce, de façon plus efficace comparée à d'autres méthodes publiées de retrait de sites de séquences. Néanmoins, et de façon générale, la manipulation de données préalable à l'analyse est loin d’être idéale. Les développements futurs devront viser l'intégration de l'identification et la pondération des sites HH au processus d'inférence phylogénétique lui-même.
Resumo:
La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.
Resumo:
Les maladies cardio-vasculaires demeurent une cause majeure de mortalité et morbidité dans les sociétés développées. La recherche de déterminants prédictifs d’évènements vasculaires représente toujours un enjeu d’actualité face aux coûts croissants des dépenses reliées aux soins médicaux et à l’élargissement des populations concernées, notamment face à l’occidentalisation des pays émergeants comme l’Inde, le Brésil et la Chine. La cardiologie nucléaire occupe depuis trente ans, une place essentielle dans l’arsenal des méthodes diagnostiques et pronostiques des cardiopathies. De plus, de nouvelles percées permettront de dépister d’une façon plus précoce et précise, la maladie athérosclérotique cardiaque et périphérique chez les populations atteintes ainsi qu’en prévention primaire. Nous présenterons dans cette thèse, deux approches nouvelles de la cardiologie nucléaire. La dysfonction endothéliale est considérée comme le signal pathologique le plus précoce de l’athérosclérose. Les facteurs de risques cardiovasculaires traditionnels atteignent la fonction endothéliale et peuvent initier le processus d’athérosclérose même en l’absence de lésion endothéliale physique. La quantification de la fonction endothéliale coronarienne comporte donc un intérêt certain comme biomarqueur précoce de la maladie coronarienne. La pléthysmographie isotopique, méthodologie développée lors de ce cycle d’étude, permet de quantifier la fonction endothéliale périphérique, cette dernière étant corrélée à la fonction endothéliale coronarienne. Cette méthodologie est démontrée dans le premier manuscrit (Harel et. al., Physiol Meas., 2007). L’utilisation d’un radiomarquage des érythrocytes permet la mesure du flot artériel au niveau du membre supérieur pendant la réalisation d’une hyperémie réactive locale. Cette nouvelle procédure a été validée en comparaison à la pléthysmographie par jauge de contrainte sur une cohorte de 26 patients. Elle a démontré une excellente reproductibilité (coefficient de corrélation intra-classe = 0.89). De plus, la mesure du flot artérielle pendant la réaction hyperémique corrélait avec les mesure réalisées par la méthode de référence (r=0.87). Le deuxième manuscrit expose les bases de la spectroscopie infrarouge comme méthodologie de mesure du flot artériel et quantification de la réaction hyperémique (Harel et. al., Physiol Meas., 2008). Cette étude utilisa un protocole de triples mesures simultanées à l’aide de la pléthysmographie par jauge de contrainte, radio-isotopique et par spectroscopie infrarouge. La technique par spectroscopie fut démontrée précise et reproductible quant à la mesure des flots artériels au niveau de l’avant-bras. Cette nouvelle procédure a présenté des avantages indéniables quant à la diminution d’artéfact et à sa facilité d’utilisation. Le second volet de ma thèse porte sur l’analyse du synchronisme de contraction cardiaque. En effet, plus de 30% des patients recevant une thérapie de resynchronisation ne démontre pas d’amélioration clinique. De plus, ce taux de non-réponse est encore plus élevé lors de l’utilisation de critères morphologiques de réponse à la resynchronisation (réduction du volume télésystolique). Il existe donc un besoin urgent de développer une méthodologie de mesure fiable et précise de la dynamique cardiaque. Le troisième manuscrit expose les bases d’une nouvelle technique radio-isotopique permettant la quantification de la fraction d’éjection du ventricule gauche (Harel et. al. J Nucl Cardiol., 2007). L’étude portant sur 202 patients a démontré une excellente corrélation (r=0.84) avec la méthode de référence (ventriculographie planaire). La comparaison avec le logiciel QBS (Cedar-Sinai) démontrait un écart type du biais inférieur (7.44% vs 9.36%). De plus, le biais dans la mesure ne démontrait pas de corrélation avec la magnitude du paramètre pour notre méthodologie, contrairement au logiciel alterne. Le quatrième manuscrit portait sur la quantification de l’asynchronisme intra-ventriculaire gauche (Harel et. al. J Nucl Cardiol, 2008). Un nouveau paramètre tridimensionnel (CHI: contraction homogeneity index) (médiane 73.8% ; IQ 58.7% - 84.9%) permis d’intégrer les composantes d’amplitude et du synchronisme de la contraction ventriculaire. La validation de ce paramètre fut effectuée par comparaison avec la déviation standard de l’histogramme de phase (SDΦ) (médiane 28.2º ; IQ 17.5º - 46.8º) obtenu par la ventriculographie planaire lors d’une étude portant sur 235 patients. Ces quatre manuscrits, déjà publiés dans la littérature scientifique spécialisée, résument une fraction des travaux de recherche que nous avons effectués durant les trois dernières années. Ces travaux s’inscrivent dans deux axes majeurs de développement de la cardiologie du 21ième siècle.
Resumo:
Je reconnais l’aide financière du Centre d’études ethniques des Universités montréalaises (CEETUM), du Ministère de l’Éducation – Aide Financières au Études (AFE), et ainsi que de l’Université de Montréal (Département de psychologie et Faculté des études supérieures) dans la réalisation de ce mémoire.
Resumo:
Davantage d’évaluations de projets internationaux dans les pays en développement se réalisent pour informer les décisions sur la base de données probantes. L’utilisation des résultats d’évaluation est remise en cause et pour y remédier des évaluations participatives qui incluent à certaines étapes du processus évaluatif des acteurs non évaluateurs sont proposées. Parmi celles-ci, les évaluations participatives pratiques visent principalement à améliorer l’utilisation du processus et des résultats des évaluations. Ces évaluations participatives pratiques seraient obstruées par des attitudes individuelles négatives, ou résistance individuelle au changement, et favorisées par des attitudes individuelles positives, ou propension. Cette thèse propose d’étudier la propension individuelle des gestionnaires envers les évaluations participatives pratiques d’intervention (EPP), les éléments influençant cette propension, et de caractériser des niveaux de propension des individus envers les EPP. Tout d’abord une revue de littérature a proposé une définition multidimensionnelle de la propension envers les EPP comme étant une attitude favorable envers la pratique des EPP qui se décline à chaque étape d’une évaluation sous les volets affectif et cognitif. Les dimensions identifiées théoriquement étaient : apprentissage, travail en groupe, emploi de méthodes systématiques, usage de l’esprit critique. Ces dimensions ont servi de cadre pour la partie empirique de la thèse. Une étude de cas multiples avec les gestionnaires d’une institution de santé en Haïti a été menée pour contextualiser la propension et identifier les éléments d’influence. Les données ont été recueillies à l’aide d’entrevues semi-structurées et de sources documentaires. L’analyse des données concernant l’apprentissage a révélé une prédominance des formes d’apprentissage par l’action et par l’observation. Le travail en groupe se retrouve ancré dans la pratique des gestionnaires administratifs et des gestionnaires cliniques. Les méthodes systématiques se reflètent principalement dans la consultation de plusieurs acteurs ayant de l’intérêt pour la problématique immédiate à solutionner plutôt que par l’outillage méthodologique. L’emploi de méthodes systématiques prend généralement la forme de consultation élargie d’avis pour régler une situation ou prend la forme de tentative de validation des informations reçues. L’esprit critique se déclenche sous stimulation lorsque l’image individuelle, professionnelle, corporative ou organisationnelle est touchée ou lors de suggestions jugées constructives. En plus de contextualiser quatre composantes de la propension individuelle envers les EPP, les gestionnaires se sont positionnés par rapport à la propension de leurs collègues sur la base de la réactivité, plus ou moins réactif vis-à-vis des composantes de la propension individuelle. Ainsi, la propension étudiée empiriquement a laissé émerger deux axes : un axe formalisation et un axe réactivité. L’axe formalisation reprend la contextualisation des quatre composantes de la propension individuelle envers les EPP, soit la forme d’expression des composantes. L’axe réactivité reprend le niveau d’activité déployé dans chaque composante de la propension individuelle, de réactif à plus proactif. De plus, des profils d’individus ayant différents niveaux de propension envers les EPP ont été développés. Des influences favorables et défavorables au niveau de propension envers les EPP ont été identifiées. L’originalité de cette thèse tient dans le fait de se positionner dans un courant récent de réflexion autour de la résistance aux changements et aux évaluations avec un regard positif et d’avoir défini théoriquement et appliqué empiriquement le concept pluridimensionnel de propension individuelle aux EPP. Des profils de niveau de propension individuelle aux EPP et les éléments d’influence favorables et défavorables associés peuvent servir d’outil de diagnostic aux types d’évaluation possibles, servir d’ajustement à la mise en place d’évaluations selon les interlocuteurs, permettre le suivi des changements de niveaux de propension pendant une EPP et servir de sources d’informations pour ajuster les plans d’évaluations participatives.
Resumo:
Récemment, un nombre grandissant de jeunes ayant des troubles du comportement ont été intégrés dans les classes régulières. Afin de soutenir cette intégration, plusieurs programmes d’intervention ont émergé et été implantés dans les écoles québécoises. Parmi ces programmes, on retrouve le programme l’Allié, qui se distingue des autres, notamment, par l’utilisation de pairs aidants. Ce cadre d’intervention prometteur soulève cependant certains questionnements sur la possibilité d’influence négative entre les jeunes. L’objectif de l’étude est de décrire, dans une approche comportementale, le processus d'influence entre pairs. Une méthodologie d’observation systématique des interactions sociales est privilégiée. Les résultats indiquent qu’il n’y a pas eu d’influence négative dans les groupes l’Allié. Les comportements perturbateurs ont eu plus de chances de cesser lorsque les participants les ont ignorés, que lorsque les pairs ont réagi à ces comportements. L’ignorance intentionnelle d’un comportement semble donc constituer un processus d’influence important dans les groupes de jeunes.
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
Il est maintenant commun de soumettre les projets à une analyse de durabilité avant qu’ils ne soient autorisés, et ce, malgré la diversité de sens que peut prendre ce type d’analyse. Cette démarche, grandement inspirée de l’évaluation d’impact, a pour principal objectif d’évaluer ex ante les enjeux sociaux, écologiques et économiques des projets au travers du prisme du développement durable. À cet effet, les principes comme l’efficacité économique, la prévention des dommages, l’acceptabilité sociale et l’équité intergénérationnelle, peuvent servir de guide après leur préalable traduction en indicateurs opérationnels. L’objectif de la recherche est de trouver comment le développement durable peut s’intégrer dans le processus décisionnel menant aux choix des stratégies de décontamination des sols et de proposer une démarche propre à l’évaluation de tels projets. La méthode développée devra permettre plus spécifiquement d’intégrer systématiquement les principes du développement durable dans le processus décisionnel; d’orienter les parties prenantes dans une démarche commune; de minimiser les effets négatifs sur l’environnement et les populations touchées et réduire les risques économiques; et finalement, d’adopter une vision holistique des projets.
Resumo:
Among the external manifestations of scoliosis, the rib hump, which is associated with the ribs' deformities and rotations, constitutes the most disturbing aspect of the scoliotic deformity for patients. A personalized 3-D model of the rib cage is important for a better evaluation of the deformity, and hence, a better treatment planning. A novel method for the 3-D reconstruction of the rib cage, based only on two standard radiographs, is proposed in this paper. For each rib, two points are extrapolated from the reconstructed spine, and three points are reconstructed by stereo radiography. The reconstruction is then refined using a surface approximation. The method was evaluated using clinical data of 13 patients with scoliosis. A comparison was conducted between the reconstructions obtained with the proposed method and those obtained by using a previous reconstruction method based on two frontal radiographs. A first comparison criterion was the distances between the reconstructed ribs and the surface topography of the trunk, considered as the reference modality. The correlation between ribs axial rotation and back surface rotation was also evaluated. The proposed method successfully reconstructed the ribs of the 6th-12th thoracic levels. The evaluation results showed that the 3-D configuration of the new rib reconstructions is more consistent with the surface topography and provides more accurate measurements of ribs axial rotation.
Resumo:
The dynamics of saturated two-dimensional superfluid4He films is shown to be governed by the Kadomtsev-Petviashvili equation with negative dispersion. It is established that the phenomena of soliton resonance could be observed in such films. Under the lowest order nonlinearity, such resonance would happen only if two dimensional effects are taken into account. The amplitude and velocity of the resonant soliton are obtained.
Resumo:
Despite its recognized value in detecting and characterizing breast disease, X-ray mammography has important limitations that motivate the quest for alternatives to augment the diagnostic tools that are currently available to the radiologist. The rationale for pursuing electromagnetic methods are based on the significant dielectric contrast between normal and cancerous breast tissues, when exposed to microwaves. The present study analyzes two-dimensional microwave tomographic imaging on normal and malignant breast tissue samples extracted by mastectomy, to assess the suitability of the technique for early detection ofbreast cancer. The tissue samples are immersed in matching coupling medium and are illuminated by 3 GHz signal. 2-D tomographic images ofthe breast tissue samples are reconstructed from the collected scattered data using distorted Born iterative method. Variations of dielectric permittivity in breast samples are distinguishable from the obtained permittivity profiles, which is a clear indication of the presence of malignancy. Hence microwave tomographic imaging is proposed as an alternate imaging modality for early detection ofbreast cancer.
Resumo:
The binding energies of two-dimensional clusters (puddles) of¿4He are calculated in the framework of the diffusion Monte Carlo method. The results are well fitted by a mass formula in powers of x=N-1/2, where N is the number of particles. The analysis of the mass formula allows for the extraction of the line tension, which turns out to be 0.121 K/Å. Sizes and density profiles of the puddles are also reported.
Resumo:
PP has been getting much attention over the years because it is a very durable polymer commonly used in aggressive environments including automotive battery casings, fuel containers etc. They are used to make bottles, fibers for clothing, components in cars etc. However, it has some shortcomings such as low dimensional and thermal stability. Materials such as metal oxides with sizes of the order 1–50 nm have received a great deal of attention because of their versatile applications in polymer/ inorganic nanocomposites, optoelectronic devices, biomedical materials, and other areas. They are stable under harsh process conditions and also regarded as safe materials to human beings and animals. In the present investigation, PP is modified by incorporating metal oxide nanoparticles such as ZnO and TiO2 by simple melt mixing method. Melt spinning method was used to prepare PP/metal oxide nanocomposite fibers. Various studies have been carried out on these composites and fibers. In the first part of the study, ZnO nanoparticles were prepared from ZnCl2 and NaOH in presence of chitosan, PVA, ethanol and starch. This is a simple and inexpensive method compared to other methods. Change in morphology and particle size of ZnO were studied. Least particle size was obtained in chitosan medium. The particles were characterized by using XRD, SEM, TEM, TGA and EDAX. Antibacterial properties of ZnO prepared in chitosan medium (NZO) and commercial zinc oxide (CZO) were evaluated using a gram positive and a gram negative bacteria