44 resultados para Radiometric correction
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
A previously developed model is used to numerically simulate real clinical cases of the surgical correction of scoliosis. This model consists of one-dimensional finite elements with spatial deformation in which (i) the column is represented by its axis; (ii) the vertebrae are assumed to be rigid; and (iii) the deformability of the column is concentrated in springs that connect the successive rigid elements. The metallic rods used for the surgical correction are modeled by beam elements with linear elastic behavior. To obtain the forces at the connections between the metallic rods and the vertebrae geometrically, non-linear finite element analyses are performed. The tightening sequence determines the magnitude of the forces applied to the patient column, and it is desirable to keep those forces as small as possible. In this study, a Genetic Algorithm optimization is applied to this model in order to determine the sequence that minimizes the corrective forces applied during the surgery. This amounts to find the optimal permutation of integers 1, ... , n, n being the number of vertebrae involved. As such, we are faced with a combinatorial optimization problem isomorph to the Traveling Salesman Problem. The fitness evaluation requires one computing intensive Finite Element Analysis per candidate solution and, thus, a parallel implementation of the Genetic Algorithm is developed.
Resumo:
Tomographic image can be degraded, partially by patient based attenuation. The aim of this paper is to quantitatively verify the effects of attenuation correction methods Chang and CT in 111In studies through the analysis of profiles from abdominal SPECT, correspondent to a uniform radionuclide uptake organ, the left kidney.
Resumo:
This paper presents a novel phase correction technique for Passive Radar which uses targets of opportunity present in the target area as references. The proposed methodology is quite simple and enables the use of low cost hardware with independent oscillators for the reference and surveillance channels which can be geographically distributed. © 2014 IEEE.
Resumo:
We present the modeling efforts on antenna design and frequency selection to monitor brain temperature during prolonged surgery using noninvasive microwave radiometry. A tapered log-spiral antenna design is chosen for its wideband characteristics that allow higher power collection from deep brain. Parametric analysis with the software HFSS is used to optimize antenna performance for deep brain temperature sensing. Radiometric antenna efficiency (eta) is evaluated in terms of the ratio of power collected from brain to total power received by the antenna. Anatomical information extracted from several adult computed tomography scans is used to establish design parameters for constructing an accurate layered 3-D tissue phantom. This head phantom includes separate brain and scalp regions, with tissue equivalent liquids circulating at independent temperatures on either side of an intact skull. The optimized frequency band is 1.1-1.6 GHz producing an average antenna efficiency of 50.3% from a two turn log-spiral antenna. The entire sensor package is contained in a lightweight and low-profile 2.8 cm diameter by 1.5 cm high assembly that can be held in place over the skin with an electromagnetic interference shielding adhesive patch. The calculated radiometric equivalent brain temperature tracks within 0.4 degrees C of the measured brain phantom temperature when the brain phantom is lowered 10. C and then returned to the original temperature (37 degrees C) over a 4.6-h experiment. The numerical and experimental results demonstrate that the optimized 2.5-cm log-spiral antenna is well suited for the noninvasive radiometric sensing of deep brain temperature.
Resumo:
In the present paper we focus on the performance of clustering algorithms using indices of paired agreement to measure the accordance between clusters and an a priori known structure. We specifically propose a method to correct all indices considered for agreement by chance - the adjusted indices are meant to provide a realistic measure of clustering performance. The proposed method enables the correction of virtually any index - overcoming previous limitations known in the literature - and provides very precise results. We use simulated datasets under diverse scenarios and discuss the pertinence of our proposal which is particularly relevant when poorly separated clusters are considered. Finally we compare the performance of EM and KMeans algorithms, within each of the simulated scenarios and generally conclude that EM generally yields best results.
Resumo:
Marked regional variations in myocardial activity that are not related to myocardial perfusion defects.Verify the influence of CT-AC inMPI results in patients with BMI between 30 and 35 and higher than 30 for male and female population.
Resumo:
The acquisition of a Myocardial Perfusion image (MPI) is of great importance for the diagnosis of the coronary artery disease, since it allows to evaluate which areas of the heart aren’t being properly perfused, in rest and stress situations. This exam is greatly influenced by photon attenuation which creates image artifacts and affects quantification. The acquisition of a Computerized Tomography (CT) image makes it possible to get an atomic images which can be used to perform high-quality attenuation corrections of the radiopharmaceutical distribution, in the MPI image. Studies show that by using hybrid imaging to perform diagnosis of the coronary artery disease, there is an increase on the specificity when evaluating the perfusion of the right coronary artery (RCA). Using an iterative algorithm with a resolution recovery software for the reconstruction, which balances the image quality, the administered activity and the scanning time, we aim to evaluate the influence of attenuation correction on the MPI image and the outcome in perfusion quantification and imaging quality.
Resumo:
Aim: Visual acuity outcome of amblyopia treatment depends on the compliance. This study aimed to determine parental predictors of poor visual outcome with occlusion treatment in unilateral amblyopia and identify the relationship between occlusion recommendations and the patient's actual dose of occlusion reported by the parents. Methods: This study comprised three phases: refractive adaptation for a period of 18 weeks after spectacle correction; occlusion of 3 to 6 hours per day during a period of 6 months; questionnaire administration and completion by parents. Visual acuity as assessed using the Sheridan-Gardiner singles or Snellen acuity chart was used as a measure of visual outcome. Correlation analysis was used to describe the strength and direction of two variables: prescribed occlusion reported by the doctor and actual dose reported by parents. A logistic binary model was adjusted using the following variables: severity, vulnerability, self-efficacy, behaviour intentions, perceived efficacy and treatment barriers, parents' and childrens' age, and parents' level of education. Results: The study included 100 parents (mean age 38.9 years, SD approx 9.2) of 100 children (mean age 6.3 years, SD approx 2.4) with amblyopia. Twenty-eight percent of children had no improvement in visual acuity. The results showed a positive mild correlation (kappa = 0.54) between the prescribed occlusion and actual dose reported by parents. Three predictors for poor visual outcome with occlusion were identified: parents' level of education (OR = 9.28; 95%CI 1.32-65.41); treatment barriers (OR = 2.75; 95%CI 1.22-6.20); interaction between severity and vulnerability (OR = 3.64; 95%CI 1.21-10.93). Severity (OR = 0.07; 95%CI 0.00-0.72) and vulnerability (OR = 0.06; 95%CI 0.05-0.74) when considered in isolation were identified as protective factors. Conclusions: Parents frequently do not use the correct dosage of occlusion as recommended. Parents' educational level and awareness of treatment barriers were predictors of poor visual outcome. Lower levels of education represented a 9-times higher risk of having a poor visual outcome with occlusion treatment.
Resumo:
Hoje em dia, há cada vez mais informação audiovisual e as transmissões ou ficheiros multimédia podem ser partilhadas com facilidade e eficiência. No entanto, a adulteração de conteúdos vídeo, como informação financeira, notícias ou sessões de videoconferência utilizadas num tribunal, pode ter graves consequências devido à importância desse tipo de informação. Surge então, a necessidade de assegurar a autenticidade e a integridade da informação audiovisual. Nesta dissertação é proposto um sistema de autenticação de vídeo H.264/Advanced Video Coding (AVC), denominado Autenticação de Fluxos utilizando Projecções Aleatórias (AFPA), cujos procedimentos de autenticação, são realizados ao nível de cada imagem do vídeo. Este esquema permite um tipo de autenticação mais flexível, pois permite definir um limite máximo de modificações entre duas imagens. Para efectuar autenticação é utilizada uma nova técnica de autenticação de imagens, que combina a utilização de projecções aleatórias com um mecanismo de correcção de erros nos dados. Assim é possível autenticar cada imagem do vídeo, com um conjunto reduzido de bits de paridade da respectiva projecção aleatória. Como a informação de vídeo é tipicamente, transportada por protocolos não fiáveis pode sofrer perdas de pacotes. De forma a reduzir o efeito das perdas de pacotes, na qualidade do vídeo e na taxa de autenticação, é utilizada Unequal Error Protection (UEP). Para validação e comparação dos resultados implementou-se um sistema clássico que autentica fluxos de vídeo de forma típica, ou seja, recorrendo a assinaturas digitais e códigos de hash. Ambos os esquemas foram avaliados, relativamente ao overhead introduzido e da taxa de autenticação. Os resultados mostram que o sistema AFPA, utilizando um vídeo com qualidade elevada, reduz o overhead de autenticação em quatro vezes relativamente ao esquema que utiliza assinaturas digitais e códigos de hash.
Resumo:
Ensaia-se o estudo da heráldica da polícia de segurança pública. Trata-se da primeira tentativa de abordagem da matéria em apreço, privilegiando-se o aspecto da correcção da ordenação dos brasões de armas, bem como a sua análise em termos artísticos, ou seja a experimentação estética das armas e sua experimentação em termos de inovação e criatividade. ABSTRACT - This is an essay of the heraldry of the portuguese police. It is the first attempt of approaching this subject in portuguese historiography, we have privileged the study of the correction of the coats of arms, and its respective analysis as art, which means teh aesthetic and the aspect of innovation and creativity.
Resumo:
Mestrado em Radiações Aplicadas às Tecnologias da Saúde.
Resumo:
Dissertação apresentada à Escola Superior de Educação de Lisboa no âmbito do Mestrado em Ensino Especial
Resumo:
Neste trabalho aborda-se o desenvolvimento da carroçaria do Veículo Eléctrico Ecológico – VEECO recorrendo a tecnologias assistidas por computador. Devido à impossibilidade de abranger toda a temática das tecnologias assistidas por computador, associadas ao desenvolvimento de uma carroçaria automóvel, o foco deste trabalho assenta no processo de obtenção de um modelo digital válido e no estudo do desempenho aerodinâmico da carroçaria. A existência de um modelo digital válido é a base de qualquer processo de desenvolvimento associado a tecnologias assistidas por computador. Neste sentido, numa primeira etapa, foram aplicadas e desenvolvidas técnicas e metodologias que permitem o desenvolvimento de uma carroçaria desde a sua fase de “design” até à obtenção de um modelo digital CAD. Estas abrangem a conversão e importação de dados, a realização de engenharia inversa, a construção/reconstrução CAD em CATIA V5 e a preparação/correcção de modelos CAD para a análise numérica. Numa segunda etapa realizou-se o estudo da aerodinâmica exterior da carroçaria, recorrendo à ferramenta de análise computacional de fluidos (CFD) Flow Simulation da CosmosFloworks integrado no programa SolidWorks 2010. Associado à temática do estudo aerodinâmico e devido à elevada importância da validação dos resultados numéricos por meio de dados experimentais, foi realizado o estudo de análise dimensional que permite a realização de ensaios experimentais à escala, bem como a análise dos resultados experimentais obtidos.
Resumo:
Introdução – A cintigrafia de perfusão do miocárdio (CPM) é um dos exames complementares de diagnóstico mais indicados na patologia cardiovascular. A atividade extramiocárdica é um problema recorrente na aquisição e avaliação da imagem. Parâmetros como o radiofármaco (RF) administrado, o tipo de esforço, a ingestão de alimentos, o posicionamento e o processamento de imagem influenciam a atividade extramiocárdica na CPM. O objetivo deste estudo é identificar o protocolo da CPM a nível nacional e avaliar a percentagem de repetições das aquisições provocadas por este problema. Metodologia – Para a realização deste estudo, a população selecionada foram os Serviços de Medicina Nuclear (SMN) em Portugal Continental. Foram analisados 15 questionários, respondidos pelos Técnicos Coordenadores dos vários SMN. Foi realizada a associação do comportamento das variáveis, através da estatística descritiva e do Coeficiente de Correlação de Spearman. Resultados – A percentagem de repetições é menor com o uso da 99mTecnécio(Tc)-Tetrofosmina, aquisição de imagens tardias, ingestão de diversos alimentos (água, leite, sumo, pão com manteiga) e com a correção de atenuação. Conclusão – Os resultados obtidos demonstram que a maioria das soluções aplicadas nos SMN resultam numa diminuição das repetições.
Resumo:
Mestrado em Medicina Nuclear.