997 resultados para Neutrino masses
Resumo:
Renal biopsy is being increasingly proposed as a diagnostic tool to characterize small renal masses (SRM). Indeed, the wide adoption of imaging in the diagnostic workup of many diseases had led to a substantial increased incidence of SRM (diameter ≤4 cm). While modern ultrasound, computed tomography (CT) and magnetic resonance imaging (MRI) techniques have high sensitivity for detecting SRM, none is able to accurately and reliably characterize them in terms of histological features. This is currently of key importance in guiding clinical decision-making in some situations, and in these cases renal biopsy should be considered. In this review, we aim to summarize the technique, diagnostic performance, and predicting factors of nondiagnostic biopsy, as well as the future perspectives.
Resumo:
Objective To describe the technique of computed tomography-guided percutaneous biopsy of pancreatic tumors with pneumodissection. Materials and Methods In the period from June 2011 to May 2012, seven computed tomography-guided percutaneous biopsies of pancreatic tumors utilizing pneumodissection were performed in the authors' institution. All the procedures were performed with an automatic biopsy gun and coaxial system with Tru-core needles. The biopsy specimens were histologically assessed. Results In all the cases the pancreatic mass could not be directly approached by computed tomography without passing through major organs and structures. The injection of air allowed the displacement of adjacent structures and creation of a safe coaxial needle pathway toward the lesion. Biopsy was successfully performed in all the cases, yielding appropriate specimens for pathological analysis. Conclusion Pneumodissection is a safe, inexpensive and technically easy approach to perform percutaneous biopsy in selected cases where direct access to the pancreatic tumor is not feasible.
Resumo:
A new approach to mammographic mass detection is presented in this paper. Although different algorithms have been proposed for such a task, most of them are application dependent. In contrast, our approach makes use of a kindred topic in computer vision adapted to our particular problem. In this sense, we translate the eigenfaces approach for face detection/classification problems to a mass detection. Two different databases were used to show the robustness of the approach. The first one consisted on a set of 160 regions of interest (RoIs) extracted from the MIAS database, being 40 of them with confirmed masses and the rest normal tissue. The second set of RoIs was extracted from the DDSM database, and contained 196 RoIs containing masses and 392 with normal, but suspicious regions. Initial results demonstrate the feasibility of using such approach with performances comparable to other algorithms, with the advantage of being a more general, simple and cost-effective approach
Resumo:
The Standard Model of particle physics is currently the best description of fundamental particles and their interactions. All particles save the Higgs boson have been observed in particle accelerator experiments over the years. Despite the predictive power the Standard Model there are many phenomena that the scenario does not predict or explain. Among the most prominent dilemmas is matter-antimatter asymmetry, and much effort has been made in formulating scenarios that accurately predict the correct amount of matter-antimatter asymmetry in the universe. One of the most appealing explanations is baryogenesis via leptogenesis which not only serves as a mechanism of producing excess matter over antimatter but can also explain why neutrinos have very small non-zero masses. Interesting leptogenesis scenarios arise when other possible candidates of theories beyond the Standard Model are brought into the picture. In this thesis, we have studied leptogenesis in an extra dimensional framework and in a modified version of supersymmetric Standard Model. The first chapters of this thesis introduce the standard cosmological model, observations made on the photon to baryon ratio and necessary preconditions for successful baryogenesis. Baryogenesis via leptogenesis is then introduced and its connection to neutrino physics is illuminated. The final chapters concentrate on extra dimensional theories and supersymmetric models and their ability to accommodate leptogenesis. There, the results of our research are also presented.
Resumo:
Le poly(1,3-dioxolanne) (PDOL) est un polymère semi-cristallin présentant à l’état solide quatre morphologies différentes (Phases I, IIa, IIb et III). Les transformations d'une phase à l'autre ont été suivies par microscopie optique polarisée (MOP) et microscopie à force atomique (AFM) en fonction de la température de cristallisation et de la masse molaire. La Phase I présente une morphologie sphérolitique tandis que la Phase IIa peut croître à partir de la Phase I ou spontanément. De façon inattendue, la Phase IIa, devient très biréfringente et cette nouvelle morphologie est appelée Phase IIb. Quand la transformation IIa-IIb est terminée, une nouvelle phase, la Phase III, croît à partir de la Phase IIb. La Phase III n'a jamais été observée sans la présence de Phase IIb; en outre, la Phase IIb remplace toujours la Phase IIa. Ce phénomène est appelé germination croisée. La mesure de la température de fusion des phases par MOP a permis d’établir leur stabilité relative: IIb > III >IIa. La vitesse de croissance (G) des sphérolites a été mesurée sur une plage de températures de 10,0 à 24,0 °C et montre une grande dépendance avec la masse molaire. Ces mesures ont révélé l’existence d’une masse molaire critique, autour de 5000 g.mol-1, en-dessous de laquelle nous avons observé GIIa > GIII et au-dessus de laquelle la relation est inversée avec GIII > GIIa. Finalement, nous avons exploré l’influence de l’ajout d’un deuxième polymère amorphe sur l’évolution des phases optiques dans des mélanges PDOL-PMMA, PDOL-PVC et PDOL-PVAc. Nous avons observé les mêmes transitions de phases que pour le PDOL pur et un certain degré de compatibilité dans le cas du PDOL-PMMA et du PDOL-PVC.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Ce mémoire de maîtrise a pour objet une recherche de leptons lourds de quatrième génération avec les données prises par le détecteur ATLAS au LHC dans les collisions pp à $\sqrt{s}$ = 7 TeV et avec une luminosité intégrée de 1.02 fb$^{-1}$. Le processus étudié est la production au singulet de leptons lourds neutres de quatrième génération (N) par la voie du courant chargé suivi de la désintégration du celui-ci en un électron et un boson W : $ pp \to W \to N e \to e W e \to e e \nu_{\ell} \ell $ ($\ell$ = $e$ ou $\mu$), et dépend d'un paramètre de mélange $\xi^{2}$ avec un lepton léger. L'analyse passe par plusieurs étapes, soit l'utilisation de FeynRules pour construire le modèle pour ensuite générer des événements par MadGraph 5.1.2.4. Comme hypothèse de référence, on a choisi une masse de 100 GeV pour le lepton lourd neutre et $\xi_{Ne}^2$ = 0.19, donnant une section efficace de 0.312 pb pour une énergie au centre de masse de 7 TeV. Puisque la génération du signal s'est faite de manière privée à Montréal et non par la collaboration ATLAS, les résultats ne peuvent pas être reconnus officiellement. Sur la base de la simulation, avec des données correspondant à 1 fb$^{-1}$, la limite supérieure attendue à un niveau de confiance de $95\%$ sur la section efficace du signal est de 0.145 pb avec 0.294 pb pour un écart type($\sigma$) et 0.519 pb pour 2$\sigma$. La limite supérieure attendue à un niveau de confiance de $95\%$ sur $\xi_{Ne}^{2}$ de 0.09 pour une masse de 100 GeV.
Resumo:
L’analyse biomécanique du mouvement humain en utilisant des systèmes optoélectroniques et des marqueurs cutanés considère les segments du corps comme des corps rigides. Cependant, le mouvement des tissus mous par rapport à l'os, c’est à dire les muscles et le tissu adipeux, provoque le déplacement des marqueurs. Ce déplacement est le fait de deux composantes, une composante propre correspondant au mouvement aléatoire de chaque marqueur et une composante à l’unisson provoquant le déplacement commun des marqueurs cutanés lié au mouvement des masses sous-jacentes. Si nombre d’études visent à minimiser ces déplacements, des simulations ont montré que le mouvement des masses molles réduit la dynamique articulaire. Cette observation est faite uniquement par la simulation, car il n'existe pas de méthodes capables de dissocier la cinématique des masses molles de celle de l’os. L’objectif principal de cette thèse consiste à développer une méthode numérique capable de distinguer ces deux cinématiques. Le premier objectif était d'évaluer une méthode d'optimisation locale pour estimer le mouvement des masses molles par rapport à l’humérus obtenu avec une tige intra-corticale vissée chez trois sujets. Les résultats montrent que l'optimisation locale sous-estime de 50% le déplacement des marqueurs et qu’elle conduit à un classement de marqueurs différents en fonction de leur déplacement. La limite de cette méthode vient du fait qu'elle ne tient pas compte de l’ensemble des composantes du mouvement des tissus mous, notamment la composante en unisson. Le second objectif était de développer une méthode numérique qui considère toutes les composantes du mouvement des tissus mous. Plus précisément, cette méthode devait fournir une cinématique similaire et une plus grande estimation du déplacement des marqueurs par rapport aux méthodes classiques et dissocier ces composantes. Le membre inférieur est modélisé avec une chaine cinématique de 10 degrés de liberté reconstruite par optimisation globale en utilisant seulement les marqueurs placés sur le pelvis et la face médiale du tibia. L’estimation de la cinématique sans considérer les marqueurs placés sur la cuisse et le mollet permet d'éviter l’influence de leur déplacement sur la reconstruction du modèle cinématique. Cette méthode testée sur 13 sujets lors de sauts a obtenu jusqu’à 2,1 fois plus de déplacement des marqueurs en fonction de la méthode considérée en assurant des cinématiques similaires. Une approche vectorielle a montré que le déplacement des marqueurs est surtout dû à la composante à l’unisson. Une approche matricielle associant l’optimisation locale à la chaine cinématique a montré que les masses molles se déplacent principalement autour de l'axe longitudinal et le long de l'axe antéro-postérieur de l'os. L'originalité de cette thèse est de dissocier numériquement la cinématique os de celle des masses molles et les composantes de ce mouvement. Les méthodes développées dans cette thèse augmentent les connaissances sur le mouvement des masses molles et permettent d’envisager l’étude de leur effet sur la dynamique articulaire.
Resumo:
Els objectius del projecte es divideixen en tres blocs: Primerament, realitzar una segmentació automàtica del contorn d'una imatge on hi ha una massa central. Tot seguit, a partir del contorn trobat, caracteritzar la massa. I finalment, utilitzant les característiques anteriors classificar la massa en benigne o maligne. En el projecte s'utilitza el Matlab com a eina de programació. Concretament les funcions enfocades al processat de imatges del toolbox de Image processing (propi de Matlab) i els classificadors de la PRTools de la Delft University of Technology
Resumo:
A new approach to mammographic mass detection is presented in this paper. Although different algorithms have been proposed for such a task, most of them are application dependent. In contrast, our approach makes use of a kindred topic in computer vision adapted to our particular problem. In this sense, we translate the eigenfaces approach for face detection/classification problems to a mass detection. Two different databases were used to show the robustness of the approach. The first one consisted on a set of 160 regions of interest (RoIs) extracted from the MIAS database, being 40 of them with confirmed masses and the rest normal tissue. The second set of RoIs was extracted from the DDSM database, and contained 196 RoIs containing masses and 392 with normal, but suspicious regions. Initial results demonstrate the feasibility of using such approach with performances comparable to other algorithms, with the advantage of being a more general, simple and cost-effective approach
Resumo:
Speaker(s): Prof. David Evans Organiser: Dr Tim Chown Time: 22/05/2014 10:45-11:45 Location: B53/4025 Abstract Secure multi-party computation enables two (or more) participants to reliably compute a function that depends on both of their inputs, without revealing those inputs to the other party or needing to trust any other party. It could enable two people who meet at a conference to learn who they known in common without revealing any of their other contacts, or allow a pharmaceutical company to determine the correct dosage of a medication based on a patient’s genome without compromising the privacy of the patient. A general solution to this problem has been known since Yao's pioneering work in the 1980s, but only recently has it become conceivable to use this approach in practice. Over the past few years, my research group has worked towards making secure computation practical for real applications. In this talk, I'll provide a brief introduction to secure computation protocols, describe the techniques we have developed to design scalable and efficient protocols, and share some recent results on improving efficiency and how secure computing applications are developed.
Resumo:
Justificar la realidad de la comunicacion de masas. Identificar las causas que han impedido su normalización. Encontrar los descriptores de un modelo de escuela adecuado a una sociedad de comunicación de masas. Formular una serie de criterios pedagógicos estables en el modelo de sociedad occidental. Aportar propuestas organizativas adecuadas a nuestro Sistema Educativo, con especial referencia a la Reforma Educativa. Describir situaciones de aprendizaje modelos. Sugerir instancias de contraste de experiencias en la orientación de la escuela en relación a los medios de comunicación de masas. 187 alumnos entre 12 y 16 años de 7 centros escolares de Cataluña y 26 profesores que utilizan algún medio de comunicación para optimizar las clases. Presenta una primera fase de reflexión y documentación, en una segunda fase realiza un trabajo de campo en la escuela y por último expone una tercera fase de propuestas y descriptores de una alternativa. El trabajo de campo lo aplica a la muestra, describe la organización y actividades de cada centro y observa si se producen diferencias significativas entre los alumnos. Utiliza como variables independientes todas las que hacen referencia a la organización del centro, modelos didácticos y orientación pedagógica, y como variables dependientes las que se relacionan con los alumnos: aprendizaje escolar, interés por la escuela, actitudes comunicativas, etc. Considera como variables mediatizadoras las que hacen referencia a la sociedad de comunicación de masas y a la condición social de los alumnos. Observación participante. Entrevistas. Cuestionarios. Libros, informes, hemerografía y mediografía. Diseño etnográfico. Modelo cualitativo. Fiabilidad y validez interna y externa. Algunas de las conclusiones a las que llega el autor son las siguientes: - Los efectos de la comunicación de masas no son directos ya que se han de tener en cuenta el ambiente en que se reciben y los líderes de opinión. - La cultura de masas atiende las necesidades privadas; afectivas, imaginarias y materiales. - Los medios electrónicos e informáticos son una excelente oportunidad para diversificar la educación. - Los contenidos de comunicación de masas pueden ser objeto de comunicación personal.