100 resultados para Processamento de imagem assistida por computador
Resumo:
A filtragem de imagens visando a redução do ruído é uma tarefa muito importante em processamento de imagens, e encontra diversas aplicações. Para que a filtração seja eficiente, ela deve atenuar apenas o ruído na imagem, sem afetar estruturas importantes, como as bordas. Há na literatura uma grande variedade de técnicas propostas para filçtragem de imagens com preservação de bordas, com as mais variadas abordagens, deentrte as quais podem ser citadas a convolução com máscaras, modelos probabilísticos, redes neurais, minimização de funcionais e equações diferenciais parciais. A transformada wavelet é uma ferramenta matemática que permite a decomposição de sinais e imagens em múltiplas resoluções. Essa decomposição é chamada de representação em wavelets, e pode ser calculada atrravés de um algorítmo piramidal baseado em convoluções com filtros passa-bandas e passa-baixas. Com essa transformada, as bordas podem ser calculadas em múltiplas resoluções. Além disso, como filtros passa-baixas são utilizados na decomposição, a atenuação do ruído é um processo intrínseco à transformada. Várias técnicas baseadas na transformada wavelet têm sido propostas nos últimos anos, com resultados promissores. Essas técnicas exploram várias características da transformada wavelet, tais como a magnitude de coeficientes e sua evolução ao longo das escalas. Neste trabalho, essas características da transformada wavelet são exploradas para a obtenção de novas técnicas de filtragem com preservação das bordas.
Resumo:
Neste trabalho foi desenvolvida uma câmara de alta pressão com janela de safira para processamento de filmes finos com pulsos de laser de alta potência, num regime de resfriamento ultra-rápido e geometria confinada. As amostras estudadas consistiram de filmes finos de carbono amorfo depositados sobre substratos de cobre. Os processamentos foram realizados com um laser pulsado Nd:YAG com energia de até 500 mJ por pulso, com duração de 8 ns, focalizada numa região de cerca de 1,5mm2, gerando uma região de elevada temperatura na superfície da amostra durante um intervalo de tempo bastante curto, da ordem do tempo de duração do pulso do laser. Para evitar a evaporação do filme de carbono, aplicava-se através da câmara, uma pressão de 0,5 a 1,0 GPa, confinando a amostra e eliminando o efeito da ablação. Este sistema tornou possível produzir taxas de resfriamento extremamente elevadas, com supressão da formação de uma pluma durante a incidência do laser, sendo o calor dissipado rapidamente pelo contato com os substratos de cobre e safira, ambos com elevada condutividade térmica. As amostras processadas foram analisadas por micro-espectroscopia Raman e os resultados revelaram a formação de estruturas com cadeias lineares de carbono, “carbynes”, caracterizadas pela presença de um pico Raman intenso na região de 2150 cm-1. Outro conjunto de picos Raman foi observado em 996 cm-1, 1116 cm-1 e 1498 cm-1 quando o filme fino de carbono amorfo foi processado dentro da câmara, com uma seqüência de mais de três pulsos consecutivos de laser. Várias tentativas foram feitas para investigar a natureza da fase que origina estes picos. Apesar da similaridade com o espectro Raman correspondente ao poliacetileno (CnHn), não foi possível constatar evidências experimentais sobre a presença de hidrogênio nos filmes de carbono processados. Estes picos Raman não foram observados quando o filme de carbono era depositado sobre outros substratos metálicos, a não ser em cobre. O conjunto de resultados experimentais obtidos indica que estes picos estariam relacionados a pequenos aglomerados lineares de átomos de carbono, diluídos numa matriz de átomos de cobre, formados durante os pulsos subseqüentes de laser e retidos durante o resfriamento ultra-rápido da amostra. A comparação dos resultados experimentais com a simulação do espectro Raman para diferentes configurações, permite propor que estes aglomerados seriam pequenas cadeias lineares, com poucos átomos, estabilizadas frente à formação de grafenos pela presença de átomos de cobre em abundância. Foram também realizados processamentos de materiais carbonáceos por pulsos de laser em meios líquidos, através de câmaras especialmente construídas para este fim. Os resultados, em diversos materiais e configurações, mostraram apenas a formação de estruturas grafíticas, sem evidência de outras fases.
Resumo:
(João Quevedo - Estudo do Processamento das Memórias de Curta e Longa Duração) - Este trabalho apresenta a compilação dos 4 principais experimentos carreados ao longo de 1999-2002: 3 deles envolvem o modelo animal e um quarto utilizase de voluntários humanos. Entretanto, o uso desses diferentes paradigmas não prejudica a unidade do conjunto. O Capítulo 1 apresenta sucintamente o marco teórico dos 4 trabalhos. Inicialmente são discutidos aspectos modulatórios da consolidação da memória. Após, alguns elementos da bioquímica da consolidação da memória são apresentados no intuito de permitir establecer um entendimento das vias da PKA e da MAPK e suas correlações com a via final comum – a síntese protéica. Adicionalmente, a dissociação STM e LTM é discutida a partir do referencial farmacológico. Uma última unidade apresenta conceitos primitivos do papel da amígdala na modulação da memória e das evidências da implicação das emoções, via amígdala, na modulação da memória em humanos. Os experimentos utilizando a esquiva inibitória como paradigma e o rato como sujeito ocupam os Capítulos 2, 3 e 4. No Capítulo 2 é apresentado um corpo de resultados que permite observar uma dissecção farmacológica da STM e LTM. Os dados demonstram um envolvimento de fenômenos dependentes de PKA em ambas STM e LTM, dependentes de MAPK apenas na STM, e dependentes de síntese protéica apenas na LTM. O Capítulo 3 apresenta um trabalho realizado em colaboração com o Prof. Steven P. R. Rose (Open University, UK), que envolve a determinação dos momentos sensíveis à inibição da síntese protéica na consolidação da LTM. Foram observados dois momentos: um inicial, junto ao treino, e um tardio apos 3h. Além disso, foi possível demonstrar que um treino prévio de baixa intensidade, mas não a pré-exposição ao aparato, pode impedir o estabelecimento de amnésia induzida pelo bloqueio da síntese protéica. O Capítulo 4 estende os achados com anisomicina observados no Capítulo 3, estudando também o inibidor da PKA, Rp-cAMPs, e o inibidor da MAPKK, PD 098059. Os dados obtidos confirmam também para essas cascatas a indução em um treino prévio de baixa intensidade de algum fenômeno celular de longa duração que torna o aprendizado de um segundo treino independente de PKA, MAPK ou síntese protéica. O estudo da dissociação da STM e LTM foi ampliado, agora no modelo humano, no experimento descrito no Capítulo 6. Nesse experimento, observamos uma clara influência do conteúdo emocional na LTM, mas a ausência desse efeito na STM. A discussão geral (Capítulo 7) busca integrar esses achados descritos nos capítulos anteriores dentro da nova perspectiva molecular da neurobiologia da memória. Além disso, abre discussão acerca de possíveis novas possibilidades de pesquisa.
Resumo:
Este trabalho é sobre produção de sentidos. Seu propósito está relacionado à investigação das relações do sujeito com a linguagem na sua forma de escrita alfabética no processo de produção textual escolar. O fato de ocorrer a partir da análise de falas de crianças ao escreverem coletivamente histórias no computador possui dois objetivos; de um lado, interrogar sobre a representação do sujeito no texto e, de outro, questionar a utilização do computador nas escolas como uma nova tecnologia da escrita. Para que fosse possível dar alguma visibilidade ao processo de produção textual e não restringir-se apenas ao produto final, quer dizer à história pronta, optou-se por uma metodologia que permitisse algum tipo de acesso ao modo como a criança produzia o texto. Uma solução viável foi encontrada na gravação das situações interativas de conversação, em que cada grupo de alunos estaria produzindo sua história no computador. Esta gravação tornou-se o material a ser analisado. O referencial teórico está fundamentado na psicanálise, a partir de Jacques Lacan, na lingüística enunciativa, representada por Jaqueline Authier-Revuz e na análise de discurso inaugurada por Michel Pêcheux. Seguindo estas teorias, analisamos o sujeito da enunciação e o inconsciente enquanto discurso do Outro. A análise buscou a indicação de autonímias, onde destacam-se as “não-coincidências do dizer”, termo cunhado por Authier-Revuz para explicitar a presença do outro na constituição do discurso. A partir da análise apontamos para o sujeito como um efeito de leitura do discurso do Outro, um acontecimento que reconfigura a estrutura. Disso segue que todo discurso parte de uma escrita, pois se abre à leitura. Também apontamos para a escrita como a presentificação da diferença. Neste sentido postulamos que a autonímia é constitutiva do discurso pedagógico no que se refere à aprendizagem da língua escrita. Ela é um recurso necessário ao alfabeto. Sem a possibilidade da autonímia seria impossível o ensino da língua.. A partir destes resultados temos indícios que confirmam a hipótese de que o computador é uma nova tecnologia da escrita, assim como foram uma vez o papiro, o alfabeto, a imprensa. De certo modo a questão do sujeito e da linguagem ainda é a mesma, ou seja, diante do real o que o sujeito demanda é que ele seja representável. A forma que esta representação vai tomar depende dos discursos em questão.
Resumo:
A informática vem adquirindo papéis cada vez mais importantes na vida cotidiana. Um dos papéis mais significativos, hoje, é o suporte a comunicações; atualmente, é muito difícil pensar em comunicações – mesmo interpessoais – sem fazer associação às áreas de informática e redes. Dentre as aplicações que utilizam informática e redes como suporte, a tecnologia de videoconferência tem recebido papel de destaque. Os avanços na tecnologia de redes e conectividade, aliados à padronização e à crescente oferta de produtos de videoconferência, têm aumentado a aplicabilidade e a popularidade destes produtos, sobretudo utilizados sobre arquitetura de redes TCP/IP. Trata-se de uma tecnologia atraente em termos de resultado, por agregar, além do áudio – recurso comum há muito tempo como suporte à comunicação – os recursos de vídeo e aplicações integradas (como quadro-branco compartilhado, Chat, troca de arquivos e outros). Contudo, essas aplicações são bastante exigentes, tanto em termos de banda quanto de qualidade de serviço (QoS) da rede. O primeiro item se justifica pelo volume de dados gerados pelas aplicações de videoconferência; o segundo, pela significativa influência que os problemas de qualidade da infraestrutura de rede (como elevada latência, jitter e descartes) podem exercer sobre tais aplicações. A busca para as soluções destes problemas não é tarefa simples, pois muitas vezes envolve investimentos que desencorajam a adoção da tecnologia de videoconferência – principalmente para uso pessoal ou por empresas pequenas. Este trabalho propõe uma solução aos problemas mencionados, visando proporcionar uma melhor aceitação e maior disseminação da tecnologia de videoconferência, valendo-se de recursos com pouca demanda de investimento. A estratégia abordada é a adaptação de tráfego, com um enfoque diferenciado: o de levar em conta, para cada aplicação, o comportamento que o processo de adaptação apresentasse. A partir dessa orientação, é proposto um modelo de adaptação de tráfego orientado ao perfil da aplicação, voltado ao interesse do usuário, e que disponibilize uma forma ao mesmo tempo simples e eficiente para que o usuário realize a adequação do mecanismo de adaptação do sistema às suas necessidades e expectativas. A partir desta proposta, foi implementado um protótipo de aplicação, com o objetivo de verificar a funcionalidade do modelo em termos práticos. As observações dos resultados dos testes, bem como as conclusões geradas, serviram como validação da proposta.
Resumo:
Técnicas de Processamento de Imagens e de Computação Gráfica vêm sendo empregadas há bastante tempo para o diagnóstico por imagens em Medicina. Mais recentemente, aplicações baseadas em modelos anatômicos, tanto extraídos de volumes de imagens como criados com base em estudos de anatomia, despontam com força. Tais modelos visam suportar simulação de movimento e de fisiologia. Porém, para que isso se torne realidade, modelos anatômicos do corpo humano precisam ser construídos e aperfeiçoados. Entre outras funcionalidades, esses modelos devem ser capazes de representar o movimento articulado do corpo humano. O problema de modelagem das articulações já foi considerado em diversos trabalhos, principalmente em Robótica e Animação. Entretanto, esses trabalhos não levaram em conta fidelidade anatômica com profundidade suficiente para que pudessem ser utilizados em aplicações de Medicina. O principal objetivo deste trabalho, portanto, é a criação de uma estratégia de representação de articulações embasada em características anatômicas para modelagem de esqueletos humanos virtuais. Um estudo da anatomia do esqueleto humano é apresentado, destacando os tipos de articulações humanas e aspectos do seu movimento. Também é apresentado um estudo dos modelos de articulações encontrados na literatura de Computação Gráfica, e são comentados alguns sistemas de software comercial que implementam corpos articulados. Com base nesses dois estudos, procurou-se identificar as deficiências dos modelos existentes em termos de fidelidade anatômica e, a partir disso, propor uma estratégia de representação para articulações humanas que permitisse a construção de corpos humanos virtuais anatomicamente realísticos. O modelo de articulações proposto foi projetado com o auxílio de técnicas de projeto orientado a objetos e implementado no âmbito do projeto Virtual Patients. Usando as classes do modelo, foi construído um simulador de movimentos, que recebe a descrição de um corpo articulado através de um arquivo em formato XML e apresenta uma animação desse corpo. A descrição do movimento também é especificada no mesmo arquivo. Esse simulador foi utilizado para gerar resultados para verificar a correção e fidelidade do modelo articular. Para isso, um joelho virtual foi construído, seus movimentos foram simulados e comparados com outros joelhos: o modelo de outro simulador, um modelo plástico anatômico e o joelho real.
Resumo:
A linguagem e a imagem, dependendo da forma como são compreendidas e trabalhadas, podem permitir a criação de novos sentidos sobre elas mesmas, sobre o sujeito, sobre a cultura. Nesta dissertação propomos que a linguagem e a imagem se associam às tensões temporais e culturais formando imagens dialéticas e imagens alegóricas que possibilitam ao sujeito despertar de sua condição narcísica e alienada. As imagens dialéticas e alegóricas são constituídas privilegiadamente através da exposição da história, proposta por Walter Benjamin, pelo dispositivo psicanalítico e pela produção artística, que neste trabalho, percebemos a partir das fotografias de Evgen Bavcar. O despertar produzido por essas imagens constitui-se em uma experiência em que irrompe o sujeito do desejo, inconsciente, fazendo com que o sujeito tenha que dar conta desse lugar desejante. Portanto, apresenta-se sob a forma de um choque que desequilibra sua construção identitária, mas que justamente em função disso, abre a possibilidade para novos sentidos identificatórios. Trata-se de uma experiência que compreende em si mesma os paradoxos do pensamento, as contradições do homem e as cisões que o constituem.
Resumo:
A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.
Resumo:
As tarefas de visão computacional incentivam uma significativa parte da pesquisa em todas as áreas científicas e industriais, entre as quais, cita-se a área voltada para o desenvolvimento de arquiteturas de computadores. A visão computacional é considerada um dos problemas mais desafiadores para a computação de alto desempenho, pois esta requer um grande desempenho, bem como um alto grau de flexibilidade. A flexibilidade é necessária pois a visão computacional abrange aplicações em que há diferentes tarefas a serem realizadas com diferentes necessidades de desempenho. Esta flexibilidade é particularmente importante em sistemas destinados a atuar como ambientes experimentais para novas técnicas de processamento visual ou para a prototipação de novas aplicações. Computação configurável tem demonstrado, por meio de exemplos implementados pela comunidade científica, fornecer uma boa relação entre alto desempenho e flexibilidade necessária para a implementação de diferentes técnicas utilizadas na área de visão computacional. Contudo, poucos esforços de pesquisa têm sido realizados na concepção de sistemas completos visando a solução de um problema de visão computacional, incluindo ambos os requisitos de software e de hardware. O principal objetivo deste trabalho é mostrar que as técnicas e tecnologias disponíveis na área de computação configurável podem ser empregadas para a concepção de um sistema capaz de implementar um grande número de aplicações da área de visão computacional na pesquisa e no ambiente industrial. Entretanto, não é escopo deste trabalho implementar um sistema de computação que seja suficiente para abordar os requerimentos necessários para todas as aplicações em visão computacional, mas os métodos aqui introduzidos podem ser utilizados como uma base geral de implementação de várias tarefas de visão computacional. Este trabalho utiliza ambientes que permitem implementações conjuntas de hardware e software, pois os mesmos facilitam a validação das técnicas aqui apresentadas, por meio da implementação de um estudo de caso, sendo parte deste estudo de caso implementado em software e outra parte em hardware.
Resumo:
O presente trabalho estuda a narrativa e a imagem como elementos da linguagem do brincar simbólico. Para isto, três crianças foram acompanhadas em um processo de psicoterapia por um período aproximado de um ano. O brincar simbólico das crianças na caixa de areia - sandplay - foi analisado em termos da organização narrativa e da construção de significado a partir da teoria e do método de Psicologia Analítica de C. G. Jung e da teoria narrativa de J. Bruner. Nosso estudo demonstra que o brincar simbólico é uma forma de linguagem e que através dele a criança constrói um texto o qual apresenta-se como uma narrativa ou como uma imagem; que este texto está repleto de elementos os quais aparecem como outras narrativas ou imagens que se interpõem às narrativas construídas pelas crianças. Mostra também que a criança organiza a sua experiência do mundo e a sua experiência da vida através deste texto. Finalmente, indica que o brincar simbólico tem uma função cognitiva de organizar a experiência de vida da criança.
Resumo:
O rápido avanço tecnológico coloca a tecnologia do Si diante de um grande desafio: substituir o dielétrico de porta utilizado por mais de 40 anos em dispositivos MOSFET (transistor de efeito de campo metal-óxido-semicondutor), o óxido de silício (SiO2), por um material alternativo com maior constante dielétrica. Nesse contexto, vários materiais têm sido investigados. Nesta tese concentramos nossa atenção em três candidatos: o óxido de alumínio (Al2O3), o silicato de zircônio (ZrSixOy) e o aluminato de zircônio (ZrAlxOy). Nossos resultados experimentais baseiam-se em técnicas de análise com feixes de íons ou raios-X e de microscopia de força atômica. No caso do Al2O3, investigamos a difusão e reação de oxigênio através de filmes relativamente espessos (35 nm) quando submetidos a tratamento térmico em atmosfera oxidante, e os efeitos que esses processos provocam em filmes finos (6,5 nm) de Al2O3 depositados sobre uma estrutura SiO2/Si. Observamos que o processo de difusão-reação em filmes de Al2O3 é diferente do observado em filmes de SiO2: no primeiro caso, oxigênio difunde e incorpora-se em todo o volume do filme, enquanto que em filmes de SiO2, oxigênio difunde através do filme, sem incorporar-se em seu volume, em direção à interface SiO2/Si, onde reage. Além disso, quando oxigênio atinge a interface Al2O3/Si e reage com o Si, além da formação de SiO2, parte do Si migra em direção ao Al2O3, deslocando parte dos átomos de Al e de O. Modelos baseados em difusão e reação foram capazes de descrever qualitativamente os resultados experimentais em ambos os casos. A deposição de filmes de Al2O3 sobre Si por deposição química de camada atômica a partir de vapor também foi investigada, e uma nova rotina de deposição baseada em préexposição dos substratos de Si ao precursor de Al foi proposta. As estruturas ZrSixOy/Si e ZrAlxOy/Si (ligas pseudobinárias (ZrO2)z(SiO2)1-z e (ZrO2)z(Al2O3)1-z depositadas sobre Si) foram submetidas a tratamentos térmicos em oxigênio ou vácuo com o objetivo de investigar possíveis instabilidades. Os tratamentos térmicos não provocaram instabilidades na distribuição de Zr, mas migração e incorporação de Si no filme dielétrico foram observadas durante os dois tratamentos para ambos os materiais.
Resumo:
Diversos estudos sugerem que os receptores inibitórios GABAérgicos do tipo A estão envolvidos no processamento da memória. Para examinar o papel dos receptores GABAA na consolidação da memória, ratos foram implantados bilateralmente com cânulas na região CA1 do hipocampo, córtex entorrinal, córtex parietal posterior e núcleo basolateral da amígdala, e treinados na tarefa de esquiva inibitória. Em diferentes tempos depois do treino, o antagonista dos receptores GABAA - bicuculina - foi infundido nas estruturas acima mencionadas. A bicuculina facilitou a memória quando infundida imediatamente após o treino (0h) no hipocampo, córtex entorrinal e córtex parietal posterior; 1,5h no hipocampo; 3h no córtex entorrinal e no córtex parietal. Nos tempos mais tardios da consolidação da memória (4,5h e 6h) não houve facilitação. A bicuculina não teve efeito na memória quando administrada na amígdala em nenhum dos tempos. Nossos dados sugerem que os receptores GABAérgicos inibem os primeiros momentos da consolidação da memória de longa duração no hipocampo, córtex entorrinal e córtex posterior, mas não nos tempos mais tardios.
Resumo:
O objetivo principal deste trabalho é elaborar uma sistemática para estruturar uma rede logística reversa de distribuição para o sistema de coleta, processamento e recuperação de resíduos da construção civil. O trabalho foi estruturado em três partes, sendo que na primeira parte elaborou-se uma introdução geral à logística e à logística reversa em particular, definindo uma estrutura de suporte ao estudo de caso e às conclusões do trabalho; na segunda parte procurou-se vincular a logística reversa à sustentabilidade; e na terceira parte elaborou-se uma sistemática para a rede de distribuição, definindo os dados a serem utilizados na aplicação dos modelos, fazendo análises e tirando conclusões a respeito dos resultados obtidos e indicando possíveis desenvolvimentos futuros para o trabalho. Para a formatação da rede desenvolveu-se o modelo de rede reversa de recuperação de resíduos – MRRR, baseado em programação linear inteira mista. Para aplicação do MRRR ao caso dos resíduos de construção e demolição – RCD no município de Curitiba, definiu- se instalações de transbordo e de reciclagem candidatas, através da aplicação de um modelo de localização de múltiplos centros de gravidade – MMCG. Como nós fixos da rede foram considerados as zonas de consumo e de geração, os mercados secundários de recicláveis e recicladores e o aterro sanitário. Os dados para formatação da rede foram gerados pelo MRRR. Como produtos deste trabalho tem-se a sistemática, que pode ser aplicada para a estruturação de redes similares, e a formatação da rede reversa para os resíduos de construção e demolição em Curitiba. Como conclusão, entre outras, verificou-se que a redução da alíquota de imposto pode ser utilizada como incentivo à melhoria da qualidade do resíduo gerado.
Resumo:
O presente trabalho implementa um método computacional semi-automático para obter medidas de estruturas cardíacas de fetos humanos através do processamento de imagens de ultra-som. Essas imagens são utilizadas na avaliação cardíaca pré-natal, permitindo que os médicos diagnostiquem problemas antes mesmo do nascimento. A dissertação é parte de um projeto desenvolvido no Instituto de Informática da Universidade Federal do Rio Grande do Sul, denominado SEGIME (Segmentação de Imagens Médicas). Neste projeto, está sendo desenvolvida uma ferramenta computacional para auxiliar na análise de exames ecocardiográficos fetais com o apoio da equipe de Cardiologia Fetal do Instituto de Cardiologia do Rio Grande do Sul. O processamento de cada imagem é realizado por etapas, divididas em: aquisição, pré-processamento, segmentação e obtenção das medidas. A aquisição das imagens é realizada por especialistas do Instituto de Cardiologia. No pré-processamento, é extraída a região de interesse para a obtenção das medidas e a imagem é filtrada para a extração do ruído característico das imagens de ultra-som. A segmentação das imagens é realizada através de redes neurais artificiais, sendo que a rede neural utilizada é conhecida como Mapa Auto-organizável de Kohonen. Ao final do processo de segmentação, a imagem está pronta para a obtenção das medidas. A técnica desenvolvida nesta dissertação para obtenção das medidas foi baseada nos exames realizados pelos especialistas na extração manual de medidas. Essa técnica consiste na análise da linha referente à estrutura de interesse onde serão detectadas as bordas. Para o início das medidas, é necessário que o usuário indique o ponto inicial sobre uma borda da estrutura. Depois de encontradas as bordas, através da análise da linha, a medida é definida pela soma dos pixels entre os dois pontos de bordas. Foram realizados testes com quatro estruturas cardíacas fetais: a espessura do septo interventricular, o diâmetro do ventrículo esquerdo, a excursão do septum primum para o interior do átrio esquerdo e o diâmetro do átrio esquerdo. Os resultados obtidos pelo método foram avaliados através da comparação com resultados de referência obtidos por especialistas. Nessa avaliação observou-se que a variação foi regular e dentro dos limites aceitáveis, normalmente obtida como variação entre especialistas. Desta forma, um médico não especializado em cardiologia fetal poderia usar esses resultados em um diagnóstico preliminar.
Caracterização de núcleos celulares no adenocarcinoma primário de reto por análise de imagem digital
Resumo:
O câncer colorretal é um tumor maligno freqüente no mundo ocidental. É o terceiro em freqüência e o segundo em mortalidade nos países desenvolvidos. No Brasil está entre as seis neoplasias malignas mais encontradas e a quinta em mortalidade. Dos tumores colorretais, aproximadamente 40% estão localizados no reto. A sobrevida, em cinco anos, dos pacientes operados por câncer do reto varia entre 40% e 50%, estando os principais fatores prognósticos, utilizados na prática clínica corrente, baseados em critérios de avaliação clínico-patológicos. A avaliação das alterações morfométricas e densimétricas nas neoplasias malignas tem, recentemente, sido estudadas e avaliadas através da análise de imagem digital e demonstrado possibilidades de utilização diagnóstica e prognóstica. A assinatura digital é um histograma representativo de conjuntos de características de textura da cromatina do núcleo celular obtida através da imagem computadorizada. O objetivo deste estudo foi a caracterização dos núcleos celulares neoplásicos no adenocarcinoma primário de reto pelo método da assinatura digital e verificar o valor prognóstico das alterações nucleares da textura da cromatina nuclear para esta doença. Foram avaliados, pelo método de análise de imagem digital, 51 casos de pacientes operados no Hospital de Clínicas de Porto Alegre (HCPA) entre 1988 e 1996 e submetidos à ressecção eletiva do adenocarcinoma primário de reto, com seguimento de cinco anos pós-operatório, ou até o óbito antes deste período determinado pela doença, e 22 casos de biópsias normais de reto obtidas de pacientes submetidos a procedimentos endoscópicos, para controle do método da assinatura digital. A partir dos blocos de parafina dos espécimes estocados no Serviço de Patologia do HCPA, foram realizadas lâminas coradas com hematoxilina e eosina das quais foram selecionados 3.635 núcleos dos adenocarcinomas de reto e 2.366 núcleos dos controles da assinatura digital, totalizando 6.001 núcleos estudados por análise de imagem digital. De cada um destes núcleos foram verificadas 93 características, sendo identificadas 11 características cariométricas com maior poder de discriminação entre as células normais e neoplásicas. Desta forma, através da verificação da textura da cromatina nuclear, foram obtidos os histogramas representativos de cada núcleo ou conjunto de núcleos dos grupos ou subgrupos estudados, também no estadiamento modificado de Dukes, dando origem às assinaturas digitais correspondentes. Foram verificadas as assinaturas nucleares, assinaturas de padrão histológico ou de lesões e a distribuição da Densidade Óptica Total. Houve diferença significativa das características entre o grupo normal e o grupo com câncer, com maior significância para três delas, a Área, a Densidade Óptica Total e a Granularidade nuclear. Os valores das assinaturas médias nucleares foram: no grupo normal 0,0009 e nos estadiamentos; 0,9681 no A, 4,6185 no B, 2,3957 no C e 2,1025 no D e diferiram com significância estatística (P=0,001). A maior diferença do normal ocorreu no subgrupo B de Dukes-Turnbull. As assinaturas nucleares e de padrão histológico mostraram-se distintas no grupo normal e adenocarcinoma, assim como a distribuição da Densidade Óptica Total a qual mostra um afastamento progressivo da normalidade no grupo com câncer. Foi possível a caracterização do adenocarcinoma de reto, que apresentou assinaturas digitais específicas. Em relação ao prognóstico, a Densidade Óptica Total representou a variável que obteve o melhor desempenho, além do estadiamento, como preditor do desfecho.