212 resultados para Phantoms


Relevância:

10.00% 10.00%

Publicador:

Resumo:

It has recently been reported in this journal that local fat depots produce a sizable frequency-dependent signal attenuation in magnetic resonance spectroscopy (MRS) of the brain. If of a general nature, this effect would question the use of internal reference signals for quantification of MRS and the quantitative use of MRS as a whole. Here, it was attempted to verify this effect and pinpoint the potential causes by acquiring data with various acquisition settings, including two field strengths, two MR scanners from different vendors, different water suppression sequences, RF coils, localization sequences, echo times, and lipid/metabolite phantoms. With all settings tested, the reported effect could not be reproduced, and it is concluded that water referencing and quantitative MRS per se remain valid tools under common acquisition conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PURPOSE To reliably determine the amplitude of the transmit radiofrequency ( B1+) field in moving organs like the liver and heart, where most current techniques are usually not feasible. METHODS B1+ field measurement based on the Bloch-Siegert shift induced by a pair of Fermi pulses in a double-triggered modified Point RESolved Spectroscopy (PRESS) sequence with motion-compensated crusher gradients has been developed. Performance of the sequence was tested in moving phantoms and in muscle, liver, and heart of six healthy volunteers each, using different arrangements of transmit/receive coils. RESULTS B1+ determination in a moving phantom was almost independent of type and amplitude of the motion and agreed well with theory. In vivo, repeated measurements led to very small coefficients of variance (CV) if the amplitude of the Fermi pulse was chosen above an appropriate level (CV in muscle 0.6%, liver 1.6%, heart 2.3% with moderate amplitude of the Fermi pulses and 1.2% with stronger Fermi pulses). CONCLUSION The proposed sequence shows a very robust determination of B1+ in a single voxel even under challenging conditions (transmission with a surface coil or measurements in the heart without breath-hold). Magn Reson Med, 2015. © 2015 Wiley Periodicals, Inc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Purpose: A fully three-dimensional (3D) massively parallelizable list-mode ordered-subsets expectation-maximization (LM-OSEM) reconstruction algorithm has been developed for high-resolution PET cameras. System response probabilities are calculated online from a set of parameters derived from Monte Carlo simulations. The shape of a system response for a given line of response (LOR) has been shown to be asymmetrical around the LOR. This work has been focused on the development of efficient region-search techniques to sample the system response probabilities, which are suitable for asymmetric kernel models, including elliptical Gaussian models that allow for high accuracy and high parallelization efficiency. The novel region-search scheme using variable kernel models is applied in the proposed PET reconstruction algorithm. Methods: A novel region-search technique has been used to sample the probability density function in correspondence with a small dynamic subset of the field of view that constitutes the region of response (ROR). The ROR is identified around the LOR by searching for any voxel within a dynamically calculated contour. The contour condition is currently defined as a fixed threshold over the posterior probability, and arbitrary kernel models can be applied using a numerical approach. The processing of the LORs is distributed in batches among the available computing devices, then, individual LORs are processed within different processing units. In this way, both multicore and multiple many-core processing units can be efficiently exploited. Tests have been conducted with probability models that take into account the noncolinearity, positron range, and crystal penetration effects, that produced tubes of response with varying elliptical sections whose axes were a function of the crystal's thickness and angle of incidence of the given LOR. The algorithm treats the probability model as a 3D scalar field defined within a reference system aligned with the ideal LOR. Results: This new technique provides superior image quality in terms of signal-to-noise ratio as compared with the histogram-mode method based on precomputed system matrices available for a commercial small animal scanner. Reconstruction times can be kept low with the use of multicore, many-core architectures, including multiple graphic processing units. Conclusions: A highly parallelizable LM reconstruction method has been proposed based on Monte Carlo simulations and new parallelization techniques aimed at improving the reconstruction speed and the image signal-to-noise of a given OSEM algorithm. The method has been validated using simulated and real phantoms. A special advantage of the new method is the possibility of defining dynamically the cut-off threshold over the calculated probabilities thus allowing for a direct control on the trade-off between speed and quality during the reconstruction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contact Spatially Resolved Spectroscopy (SRS) measurements by means of a fiber-optics probe were employed for nondestructive assessment and monitoring of Braeburn apples during shelflife storage. SRS measurements and estimation of optical properties were calibrated and validated by means of liquid optical phantoms with known optical properties and a metamodeling method. The acquired optical properties (absorption and reduced scattering coefficients) for the apples during shelf-life storage were found to provide useful information for nondestructive evaluation of apple quality attributes (firmness and SSC) and for monitoring the changes in their microstructure and chemical composition. On-line SRS measurement was achieved by mounting the SRS probe over a conveyor system

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde hace tiempo ha habido mucho interés en la automatización de todo tipo de tareas en las que la intervención humana es esencial para que sean completadas con éxito. Esto es de especial interés si además se ciertas tareas que pueden ser perfectamente reproducibles y, o bien requieren mucha formación, o bien consumen mucho tiempo. Este proyecto está dirigido a la búsqueda de métodos para automatizar la anotación de imágenes médicas. En concreto, se centra en el apartado de delimitación de las regiones de interés (ROIs) en imágenes de tipo PET siendo éstas usadas con frecuencia junto con las imágenes de tipo CT en el campo de oncología para delinear volúmenes afectados por cáncer. Se pretende con esto ayudar a los hospitales a organizar y estructurar las imágenes de sus pacientes y relacionarlas con las notas clínicas. Esto es lo que llamaremos el proceso de anotación de imágenes y la integración con la anotación de notas clínicas respectivamente. En este documento nos vamos a centrar en describir cuáles eran los objetivos iniciales, los pasos dados para su consecución y las dificultades encontradas durante el proceso. De todas las técnicas existentes en la literatura, se han elegido 4 técnicas de segmentación, 2 de ellas probadas en pacientes reales y las otras 2 probadas solo en phantoms según la literatura. En nuestro caso, las pruebas, se han realizado en imágenes PET de 6 pacientes reales diagnosticados de cáncer. Los resultados han sido analizados y presentados. ---ABSTRACT---For a long period of time, there has been an increasing interest in automation of tasks where human intervention is needed in order to succeed. This interest is even greater if those tasks must be solved by qualifed specialists in the area and the task is reproducible or if the task is too time consuming. The main objective of this project is to find methods which can help to automate medical image annotation processes. In our specific case, we are willing to delineate regions of interest (ROIs) in PET images which are frequently used simultaneaously ith CT images in oncology to determine those volumes that are afected by cancer. With this process we want to help hospitals organize and have from their patient studies and to relate these images to the corpus annotations. We may call this the image annotation process and the integration with the corpus annotation respectively. In this document we are going to concentrate in the description of the initial objectives, the steps we had to go through and the di�culties we had to face during this process. From all existing techniques in the literature, 4 segmentation techniques have been chosen, 2 of them were tested in real patients and the other 2 were tested using phantoms according to the literature. In our case, the tests have been done using PET images from 6 real patients diagnosed with cancer. The results have been analyzed and presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The structural connectivity of the brain is considered to encode species-wise and subject-wise patterns that will unlock large areas of understanding of the human brain. Currently, diffusion MRI of the living brain enables to map the microstructure of tissue, allowing to track the pathways of fiber bundles connecting the cortical regions across the brain. These bundles are summarized in a network representation called connectome that is analyzed using graph theory. The extraction of the connectome from diffusion MRI requires a large processing flow including image enhancement, reconstruction, segmentation, registration, diffusion tracking, etc. Although a concerted effort has been devoted to the definition of standard pipelines for the connectome extraction, it is still crucial to define quality assessment protocols of these workflows. The definition of quality control protocols is hindered by the complexity of the pipelines under test and the absolute lack of gold-standards for diffusion MRI data. Here we characterize the impact on structural connectivity workflows of the geometrical deformation typically shown by diffusion MRI data due to the inhomogeneity of magnetic susceptibility across the imaged object. We propose an evaluation framework to compare the existing methodologies to correct for these artifacts including whole-brain realistic phantoms. Additionally, we design and implement an image segmentation and registration method to avoid performing the correction task and to enable processing in the native space of diffusion data. We release PySDCev, an evaluation framework for the quality control of connectivity pipelines, specialized in the study of susceptibility-derived distortions. In this context, we propose Diffantom, a whole-brain phantom that provides a solution to the lack of gold-standard data. The three correction methodologies under comparison performed reasonably, and it is difficult to determine which method is more advisable. We demonstrate that susceptibility-derived correction is necessary to increase the sensitivity of connectivity pipelines, at the cost of specificity. Finally, with the registration and segmentation tool called regseg we demonstrate how the problem of susceptibility-derived distortion can be overcome allowing data to be used in their original coordinates. This is crucial to increase the sensitivity of the whole pipeline without any loss in specificity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomografía axial computerizada (TAC) es la modalidad de imagen médica preferente para el estudio de enfermedades pulmonares y el análisis de su vasculatura. La segmentación general de vasos en pulmón ha sido abordada en profundidad a lo largo de los últimos años por la comunidad científica que trabaja en el campo de procesamiento de imagen; sin embargo, la diferenciación entre irrigaciones arterial y venosa es aún un problema abierto. De hecho, la separación automática de arterias y venas está considerado como uno de los grandes retos futuros del procesamiento de imágenes biomédicas. La segmentación arteria-vena (AV) permitiría el estudio de ambas irrigaciones por separado, lo cual tendría importantes consecuencias en diferentes escenarios médicos y múltiples enfermedades pulmonares o estados patológicos. Características como la densidad, geometría, topología y tamaño de los vasos sanguíneos podrían ser analizados en enfermedades que conllevan remodelación de la vasculatura pulmonar, haciendo incluso posible el descubrimiento de nuevos biomarcadores específicos que aún hoy en dípermanecen ocultos. Esta diferenciación entre arterias y venas también podría ayudar a la mejora y el desarrollo de métodos de procesamiento de las distintas estructuras pulmonares. Sin embargo, el estudio del efecto de las enfermedades en los árboles arterial y venoso ha sido inviable hasta ahora a pesar de su indudable utilidad. La extrema complejidad de los árboles vasculares del pulmón hace inabordable una separación manual de ambas estructuras en un tiempo realista, fomentando aún más la necesidad de diseñar herramientas automáticas o semiautomáticas para tal objetivo. Pero la ausencia de casos correctamente segmentados y etiquetados conlleva múltiples limitaciones en el desarrollo de sistemas de separación AV, en los cuales son necesarias imágenes de referencia tanto para entrenar como para validar los algoritmos. Por ello, el diseño de imágenes sintéticas de TAC pulmonar podría superar estas dificultades ofreciendo la posibilidad de acceso a una base de datos de casos pseudoreales bajo un entorno restringido y controlado donde cada parte de la imagen (incluyendo arterias y venas) está unívocamente diferenciada. En esta Tesis Doctoral abordamos ambos problemas, los cuales están fuertemente interrelacionados. Primero se describe el diseño de una estrategia para generar, automáticamente, fantomas computacionales de TAC de pulmón en humanos. Partiendo de conocimientos a priori, tanto biológicos como de características de imagen de CT, acerca de la topología y relación entre las distintas estructuras pulmonares, el sistema desarrollado es capaz de generar vías aéreas, arterias y venas pulmonares sintéticas usando métodos de crecimiento iterativo, que posteriormente se unen para formar un pulmón simulado con características realistas. Estos casos sintéticos, junto a imágenes reales de TAC sin contraste, han sido usados en el desarrollo de un método completamente automático de segmentación/separación AV. La estrategia comprende una primera extracción genérica de vasos pulmonares usando partículas espacio-escala, y una posterior clasificación AV de tales partículas mediante el uso de Graph-Cuts (GC) basados en la similitud con arteria o vena (obtenida con algoritmos de aprendizaje automático) y la inclusión de información de conectividad entre partículas. La validación de los fantomas pulmonares se ha llevado a cabo mediante inspección visual y medidas cuantitativas relacionadas con las distribuciones de intensidad, dispersión de estructuras y relación entre arterias y vías aéreas, los cuales muestran una buena correspondencia entre los pulmones reales y los generados sintéticamente. La evaluación del algoritmo de segmentación AV está basada en distintas estrategias de comprobación de la exactitud en la clasificación de vasos, las cuales revelan una adecuada diferenciación entre arterias y venas tanto en los casos reales como en los sintéticos, abriendo así un amplio abanico de posibilidades en el estudio clínico de enfermedades cardiopulmonares y en el desarrollo de metodologías y nuevos algoritmos para el análisis de imágenes pulmonares. ABSTRACT Computed tomography (CT) is the reference image modality for the study of lung diseases and pulmonary vasculature. Lung vessel segmentation has been widely explored by the biomedical image processing community, however, differentiation of arterial from venous irrigations is still an open problem. Indeed, automatic separation of arterial and venous trees has been considered during last years as one of the main future challenges in the field. Artery-Vein (AV) segmentation would be useful in different medical scenarios and multiple pulmonary diseases or pathological states, allowing the study of arterial and venous irrigations separately. Features such as density, geometry, topology and size of vessels could be analyzed in diseases that imply vasculature remodeling, making even possible the discovery of new specific biomarkers that remain hidden nowadays. Differentiation between arteries and veins could also enhance or improve methods processing pulmonary structures. Nevertheless, AV segmentation has been unfeasible until now in clinical routine despite its objective usefulness. The huge complexity of pulmonary vascular trees makes a manual segmentation of both structures unfeasible in realistic time, encouraging the design of automatic or semiautomatic tools to perform the task. However, this lack of proper labeled cases seriously limits in the development of AV segmentation systems, where reference standards are necessary in both algorithm training and validation stages. For that reason, the design of synthetic CT images of the lung could overcome these difficulties by providing a database of pseudorealistic cases in a constrained and controlled scenario where each part of the image (including arteries and veins) is differentiated unequivocally. In this Ph.D. Thesis we address both interrelated problems. First, the design of a complete framework to automatically generate computational CT phantoms of the human lung is described. Starting from biological and imagebased knowledge about the topology and relationships between structures, the system is able to generate synthetic pulmonary arteries, veins, and airways using iterative growth methods that can be merged into a final simulated lung with realistic features. These synthetic cases, together with labeled real CT datasets, have been used as reference for the development of a fully automatic pulmonary AV segmentation/separation method. The approach comprises a vessel extraction stage using scale-space particles and their posterior artery-vein classification using Graph-Cuts (GC) based on arterial/venous similarity scores obtained with a Machine Learning (ML) pre-classification step and particle connectivity information. Validation of pulmonary phantoms from visual examination and quantitative measurements of intensity distributions, dispersion of structures and relationships between pulmonary air and blood flow systems, show good correspondence between real and synthetic lungs. The evaluation of the Artery-Vein (AV) segmentation algorithm, based on different strategies to assess the accuracy of vessel particles classification, reveal accurate differentiation between arteries and vein in both real and synthetic cases that open a huge range of possibilities in the clinical study of cardiopulmonary diseases and the development of methodological approaches for the analysis of pulmonary images.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde o seu desenvolvimento na década de 1970 a tomografia computadorizada (TC) passou por grandes mudanças tecnológicas, tornando-se uma importante ferramenta diagnóstica para a medicina. Consequentemente o papel da TC em diagnóstico por imagem expandiu-se rapidamente, principalmente devido a melhorias na qualidade da imagem e tempo de aquisição. A dose de radiação recebida por pacientes devido a tais procedimentos vem ganhando atenção, levando a comunidade científica e os fabricantes a trabalharem juntos em direção a determinação e otimização de doses. Nas últimas décadas muitas metodologias para dosimetria em pacientes têm sido propostas, baseadas especialmente em cálculos utilizando a técnica Monte Carlo ou medições experimentais com objetos simuladores e dosímetros. A possibilidade de medições in vivo também está sendo investigada. Atualmente as principais técnicas para a otimização da dose incluem redução e/ou modulação da corrente anódica. O presente trabalho propõe uma metodologia experimental para estimativa de doses absorvidas pelos pulmões devido a protocolos clínicos de TC, usando um objeto simulador antropomórfico adulto e dosímetros termoluminescentes de Fluoreto de Lítio (LiF). Sete protocolos clínicos diferentes foram selecionados, com base em sua relevância com respeito à otimização de dose e frequência na rotina clínica de dois hospitais de grande porte: Instituto de Radiologia do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (InRad) e Instituto do Câncer do Estado de São Paulo Octávio Frias de Oliveira (ICESP). Quatro protocolos de otimização de dose foram analisados: Auto mA, Auto + Smart mA, Baixa Dose (BD) e Ultra Baixa Dose (UBD). Os dois primeiros protocolos supracitados buscam redução de dose por meio de modulação da corrente anódica, enquanto os protocolos BD e UBD propõem a redução do valor da corrente anódica, mantendo-a constante. Os protocolos BD e UBD proporcionaram redução de dose de 72,7(8) % e 91(1) %, respectivamente; 16,8(1,3) % e 35,0(1,2) % de redução de dose foram obtidas com os protocolos Auto mA e Auto + Smart mA, respectivamente. As estimativas de dose para os protocolos analisados neste estudo são compatíveis com estudos similares publicados na literatura, demonstrando a eficiência da metodologia para o cálculo de doses absorvidas no pulmão. Sua aplicabilidade pode ser estendida a diferentes órgãos, diferentes protocolos de CT e diferentes tipos de objetos simuladores antropomórficos (pediátricos, por exemplo). Por fim, a comparação entre os valores de doses estimadas para os pulmões e valores de estimativas de doses dependentes do tamanho (Size Specific Dose Estimates SSDE) demonstrou dependência linear entre as duas grandezas. Resultados de estudos similares exibiram comportamentos similares para doses no reto, sugerindo que doses absorvidas pelos uma órgãos podem ser linearmente dependente dos valores de SSDE, com coeficientes lineares específicos para cada órgão. Uma investigação mais aprofundada sobre doses em órgãos é necessária para avaliar essa hipótese.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma nova metodologia para elastografia virtual em imagens simuladas de ultrassom utilizando métodos numéricos e métodos de visão computacional. O objetivo é estimar o módulo de elasticidade de diferentes tecidos tendo como entrada duas imagens da mesma seção transversal obtidas em instantes de tempo e pressões aplicadas diferentes. Esta metodologia consiste em calcular um campo de deslocamento das imagens com um método de fluxo óptico e aplicar um método iterativo para estimar os módulos de elasticidade (análise inversa) utilizando métodos numéricos. Para o cálculo dos deslocamentos, duas formulações são utilizadas para fluxo óptico: Lucas-Kanade e Brox. A análise inversa é realizada utilizando duas técnicas numéricas distintas: o Método dos Elementos Finitos (MEF) e o Método dos Elementos de Contorno (MEC), sendo ambos implementados em Unidades de Processamento Gráfico de uso geral, GpGPUs ( \"General Purpose Graphics Units\" ). Considerando uma quantidade qualquer de materiais a serem determinados, para a implementação do Método dos Elementos de Contorno é empregada a técnica de sub-regiões para acoplar as matrizes de diferentes estruturas identificadas na imagem. O processo de otimização utilizado para determinar as constantes elásticas é realizado de forma semi-analítica utilizando cálculo por variáveis complexas. A metodologia é testada em três etapas distintas, com simulações sem ruído, simulações com adição de ruído branco gaussiano e phantoms matemáticos utilizando rastreamento de ruído speckle. Os resultados das simulações apontam o uso do MEF como mais preciso, porém computacionalmente mais caro, enquanto o MEC apresenta erros toleráveis e maior velocidade no tempo de processamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presença da Medicina Nuclear como modalidade de obtenção de imagens médicas é um dos principais procedimentos utilizados hoje nos centros de saúde, tendo como grande vantagem a capacidade de analisar o comportamento metabólico do paciente, traduzindo-se em diagnósticos precoces. Entretanto, sabe-se que a quantificação em Medicina Nuclear é dificultada por diversos fatores, entre os quais estão a correção de atenuação, espalhamento, algoritmos de reconstrução e modelos assumidos. Neste contexto, o principal objetivo deste projeto foi melhorar a acurácia e a precisão na análise de imagens de PET/CT via processos realísticos e bem controlados. Para esse fim, foi proposta a elaboração de uma estrutura modular, a qual está composta por um conjunto de passos consecutivamente interligados começando com a simulação de phantoms antropomórficos 3D para posteriormente gerar as projeções realísticas PET/CT usando a plataforma GATE (com simulação de Monte Carlo), em seguida é aplicada uma etapa de reconstrução de imagens 3D, na sequência as imagens são filtradas (por meio do filtro de Anscombe/Wiener para a redução de ruído Poisson caraterístico deste tipo de imagens) e, segmentadas (baseados na teoria Fuzzy Connectedness). Uma vez definida a região de interesse (ROI) foram produzidas as Curvas de Atividade de Entrada e Resultante requeridas no processo de análise da dinâmica de compartimentos com o qual foi obtida a quantificação do metabolismo do órgão ou estrutura de estudo. Finalmente, de uma maneira semelhante imagens PET/CT reais fornecidas pelo Instituto do Coração (InCor) do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC-FMUSP) foram analisadas. Portanto, concluiu-se que a etapa de filtragem tridimensional usando o filtro Anscombe/Wiener foi relevante e de alto impacto no processo de quantificação metabólica e em outras etapas importantes do projeto em geral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste projeto foi desenvolvido um método computacional para verificação da melhor combinação tela intensificadora - filme para exames mamográficos através do estudo de suas características sensitométricas. O software, desenvolvido em ambiente Delphi para windows, apresenta na tela do microcomputador a imagem a ser obtida para cada tipo de combinação tela intensificadora - filme, utilizando imagens de \"Phantoms\" e de mamas reais. Em razão da ampla quantidade de fatores que influenciam a imagem mamográfica final, tais como magnificação, característica dos filmes e telas intensificadoras e condições da processadora, o método proposto pode proporcionar uma ampla avaliação da qualidade dos sistemas de imagem mamográfica de uma forma simples, rápida e automática, através de procedimentos de simulação computacional. A simulação investigou a influência que um determinado sistema de registro exerce sobre a qualidade da imagem, possibilitando conhecer previamente a imagem final a ser obtida com diferentes equipamentos e sistemas de registro. Dentre os sistemas investigados, três filmes (Kodak Min R 2000, Fuji UM MA-HC e Fuji ADM) e duas telas intensificadoras (Kodak Min R 2000 e Fuji AD Mammo Fine), aquele que apresentou melhores resultados, com melhor qualidade de imagens e menor exposição à paciente foi o de tela Min R 2000 com filme Min R 2000 da Kodak.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de doutoramento, Engenharia Biomédica e Biofísica, Universidade de Lisboa, Faculdade de Ciências, 2016

Relevância:

10.00% 10.00%

Publicador:

Resumo:

V. 1 The diary of a superfluous man and other stories. Fathers and children. -- v. 2. Virgin soil. A reckless character and other stories. -- v. 3. The brigadier and other stories. On the eve. -- v. 4. Spring freshets and other stories. Smoke. -- v. 6. Memoirs of a sportsman. Nobleman's nest. -- v. 6. First love and other stories. The Jew and other stories. -- v. 7. Rudin: a romance. A king lear of the steppes. Phantoms and other stories.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Clara Militch.--Phantoms.--The song of triumphant love.--The dream.--Poems in prose.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

An experimental study of a planar microwave imaging system with step-frequency synthesized pulse for possible use in medical applications is described. Simple phantoms, consisting of a cylindrical plastic container with air or oil imitating fatty tissues and small highly reflective objects emulating tumors, are scanned with a probe antenna over a planar surface in the X-band. Different calibration schemes are considered for successful detection of these objects. (c) 2006 Wiley Periodicals, Inc.