2 resultados para Tomografia Computorizada com multidetectores
em Portal do Conhecimento - Ministerio do Ensino Superior Ciencia e Inovacao, Cape Verde
Resumo:
Em radiologia, a qualidade diagnóstica está intimamente ligada à qualidade de imagens radiográficas. Sendo a qualidade de imagem (QI) o reflexo da exposição do paciente, a sua a maximização não pode ser conseguida a qualquer custo. É fulcral ter sempre em mente que uma boa QI pode significar maior exposição do paciente. Deste modo, a otimização é fundamental e deve-se guiar pela maximização da fração benefícios/riscos, sendo para isso necessário compreender os parâmetros técnicos que influenciam a dose e a QI. Neste trabalho foi feito um estudo dos efeitos dos parâmetros técnicos (tensão de ampola (kVp) e o produto da intensidade do feixe (mA) pelo tempo de exposição (s) (mA*s)) e da filtração adicional tanto na dose como na QI. A medição da dose, para diferentes valores de kVp, mA*s e espessura de cobre (Cu) usada na filtração adicional, foi feita utilizando uma câmara de ionização e um medidor do produto dose-área (DAP). Utilisando o fantoma CDRAD, a QI foi analisada através de Image Quality Figure (IQF) e parâmetros como contraste, ruído, razão sinal-ruído (SNR) e razão contraste-ruído (CNR). Verificou-se que, no modo manual de exposição, a dose varia de forma direta com kVp e mA*s e, no modo semiautomático, a variação é inversa entre o kVp e a dose. Mantendo fixo o kVp e mA*s, a redução da dose pode ser conseguida com recurso à filtração adicional. A QI é degradada quando o kVp aumenta e na presença da filtração adicional. Melhor QI está associada a maiores valores de dose. CNR é pouca efetada pela variação da dose. Com o aumento do DAP, o ruído diminui e a SNR aumenta, com elevada correlação.
Resumo:
A computação voluntária tem vindo a ganhar uma importância crescente devido a capacidade de computação disponível actualmente nos computadores pessoais. Para muitos trabalhos científicos estima-se que esta estratégia possa complementar (ou até substituir) a necessidade de grandes investimentos em infra-estruturas de computação de elevado desempenho. Esta forma de computação surgiu em 1996 com o projecto GIMPS que consistia na procura computorizada de grandes números primos, utilizando a fórmula de Mersenne, 2p-1, em que “p” representa o número primo. Qualquer pessoa com computador e com uma ligação a Internet podia instalar o programa cliente do GIMPS e participar no projecto disponibilizando poder de computação durante períodos de tempo de não utilização. Seguindo esta analogia seguiram-se os projectos distributed.net em 1997 e SETI@home em 1999, sendo este último o mais popular de todos. Com base neste paradigma de computação muitos projectos de investigação científica foram desenvolvidos, trabalhos na área da física, astronomia, matemática, biologia molecular, normalmente ligados a instituições universitárias que podem beneficiar desta forma de computação, o principal problema é saber como fazer isso e que tecnologias utilizar. Para solucionar esse problema foram propostos protótipos, utilizando as tecnologias BOINC, Condor e Hadoop, onde se pôde avaliar a oportunidade da introdução destes serviços em Instituições Universitárias. Para este fim foram realizados alguns testes nos sistemas implementados com as tecnologias já referidas e definida uma matriz de comparação destas tecnologias focando em características que definem um sistema distribuído.