997 resultados para Processamento de Imagens
Resumo:
OBJETIVO: O estudo analisou a volumetria hepática por tomografia axial computadorizada, através de um programa informatizado semi-automático de aquisição e processamento de imagens digitalizadas, como parâmetro de acompanhamento da regeneração hepática em suínos, após hepatectomia parcial. MÉTODO: Doze suínos fêmeas, da raça Landrace, jovens, foram distribuídos em 3 grupos, conforme tempo de observação após o procedimento cirúrgico: 5(G5), 10(10) ou 15(G15) dias. Todos foram submetidos à hepatectomia parcial e, posteriormente, após acompanhamento, sacrificados, procedendo-se a retirada do fígado regenerado. A peça da hepatectomia e o fígado regenerado foram pesados e submetidos à realização da tomografia e aferição do volume através do software HEPATO®. Para análise estatística foram utilizados os testes não-paramétricos de Kruskal-Wallis e Wilcoxon. Valores de p<0,05 indicaram significância estatística. RESULTADOS: O peso do fígado regenerado foi de: G5=434,5g, G10=449,25g e G15=486,5 g), p=0,592. A regeneração hepática a partir do peso do fígado foi de 83,58% (G5), 94,95% (G10) e 101,63% (G15), p=0,197. O volume do fígado regenerado foi de 403,58 cm² (G5), 450,88 cm² (G10) e 458,93 cm² (G15), p=0,941. A regeneração hepática a partir do volume do fígado foi de 74,25% (G5), 88% (G10) e 100% (G15), p=0,326. Não houve diferença estatística significativa entre os parâmetros. CONCLUSÃO: A avaliação volumétrica por tomografia computadorizada, utilizando um programa informatizado semi-automático de aquisição e processamento de imagens digitalizadas, é método fidedigno para avaliação e acompanhamento da regeneração hepática em suínos, após hepatectomia parcial.
Resumo:
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
Resumo:
Técnicas de Processamento de Imagens e de Computação Gráfica vêm sendo empregadas há bastante tempo para o diagnóstico por imagens em Medicina. Mais recentemente, aplicações baseadas em modelos anatômicos, tanto extraídos de volumes de imagens como criados com base em estudos de anatomia, despontam com força. Tais modelos visam suportar simulação de movimento e de fisiologia. Porém, para que isso se torne realidade, modelos anatômicos do corpo humano precisam ser construídos e aperfeiçoados. Entre outras funcionalidades, esses modelos devem ser capazes de representar o movimento articulado do corpo humano. O problema de modelagem das articulações já foi considerado em diversos trabalhos, principalmente em Robótica e Animação. Entretanto, esses trabalhos não levaram em conta fidelidade anatômica com profundidade suficiente para que pudessem ser utilizados em aplicações de Medicina. O principal objetivo deste trabalho, portanto, é a criação de uma estratégia de representação de articulações embasada em características anatômicas para modelagem de esqueletos humanos virtuais. Um estudo da anatomia do esqueleto humano é apresentado, destacando os tipos de articulações humanas e aspectos do seu movimento. Também é apresentado um estudo dos modelos de articulações encontrados na literatura de Computação Gráfica, e são comentados alguns sistemas de software comercial que implementam corpos articulados. Com base nesses dois estudos, procurou-se identificar as deficiências dos modelos existentes em termos de fidelidade anatômica e, a partir disso, propor uma estratégia de representação para articulações humanas que permitisse a construção de corpos humanos virtuais anatomicamente realísticos. O modelo de articulações proposto foi projetado com o auxílio de técnicas de projeto orientado a objetos e implementado no âmbito do projeto Virtual Patients. Usando as classes do modelo, foi construído um simulador de movimentos, que recebe a descrição de um corpo articulado através de um arquivo em formato XML e apresenta uma animação desse corpo. A descrição do movimento também é especificada no mesmo arquivo. Esse simulador foi utilizado para gerar resultados para verificar a correção e fidelidade do modelo articular. Para isso, um joelho virtual foi construído, seus movimentos foram simulados e comparados com outros joelhos: o modelo de outro simulador, um modelo plástico anatômico e o joelho real.
Resumo:
Os produtos de sensoriamento remoto gerados pelos novos sensores orbitais, aliados ao desenvolvimento de sistemas computacionais e de técnicas de processamento de imagens possibilitam a manipulação numérica das imagens, visando o realce de informações de interesse para a interpretação visual ou automática. O uso dessas técnicas traz boas perspectivas no mapeamento geológico básico, pois possibilita uma visão sinóptica de amplas áreas e a integração de dados litológicos e estruturais de várias fontes. Este trabalho selecionou as imagens do sensor ASTER (Advanced Spaceborne Thermal Emission and Reflection Radiometer) devido as características de suas resoluções espectral e espacial, como as mais promissoras para identificação dos diferentes litotipos da área do Platô da Ramada, em especial as unidades vulcânicas e hipabissais relacionadas e sedimentares subjacentes. O Platô da Ramada, região de Vila Nova do Sul (RS) constitui uma feição geomorfológica de destaque na área, facilmente identificável nas imagens orbitais, sendo formado por uma seqüência vulcânica caracterizada por depósitos efusivos e piroclásticos, de composição dominantemente ácida. Representa uma fração significativa do magmatismo alcalino sódico neoproterozóico no Escudo Sul-rio-grandense e marca um dos ciclos vulcânicos do período pós-colisional do Ciclo Brasiliano Este estudo testou e avaliou diversos processamentos das imagens multiespectrais para diferenciação litológica, a identificação de alvos e a definição de morfoestruturas da área do Platô da Ramada. A integração de dados geológicos existentes com os produtos obtidos neste estudo possibilitou novas informações anexadas ao mapa geológico utilizado como verdade terrestre. O processamento utilizando a técnica de Transformação por Componentes Principais Seletivas proporcionou os melhores resultados realçando diferenças espectrais existentes entre as rochas vulcânicas e hipabissais e as rochas sedimentares. A partir dessa técnica, selecionou-se as imagens CP2 dos pares das bandas 4-5 (R), 3-4 (G) e 8-9 (B) na geração de uma composição colorida. Esta imagem permitiu a diferenciação espectral entre as rochas vulcânicas do Platô da Ramada e as rochas sedimentares do Grupo Maricá, bem como a individualização, no Grupo Maricá, de duas subunidades, levando-se em conta a densidade de intrusões de diques riolíticos ao norte da área. Identificou-se, ainda, um corpo diorítico com forma elíptica na borda SW do Platô da Ramada, não registrado anteriormente.
Resumo:
A temperatura da superfície terrestre (TST), além da ação determinante sobre o crescimento e o desenvolvimento das plantas, influencia também muitos processos físicos, químicos e biológicos, tendo significativa relevância científica em um vasto campo das atividades de pesquisa e gerenciamento dos recursos naturais. O objetivo geral deste estudo foi verificar a adequação do uso de sensores orbitais AVHRR/3 NOAA (National Oceanic and Atmospheric Administration) classe POES (Polar Operational Environmental Satellites) para mapeamento de temperaturas da superfície terrestre no Rio Grande do Sul, visando sua implementação em programas operacionais de monitoramento agrometeorológico. No estudo realizado no período de junho a setembro de 2002, foram utilizadas 11 imagens noturnas e 20 imagens diurnas, captadas na estação de recepção de imagens NOAA pertencente ao Centro Estadual de Pesquisas em Sensoriamento Remoto e Meteorologia (CEPSRM). Após processamento, as imagens foram utilizadas para a determinação da temperatura de brilho da banda 4 e 5 da TST através dos métodos de Becker e Li (1990), Kerr et al. (1992) e Sobrino et al. (1993). A TST obtida a partir das imagens foi comparada aos dados de temperatura do ar obtidos em 13 estações meteorológicas de superfície Os resultados mostraram que os sensores orbitais AVHRR/3 são adequados para o mapeamento noturno de temperaturas da superfície terrestre no Rio Grande do Sul. O método de Sobrino et al. (1993) é o mais adequado entre os métodos testados para a estimativa das temperaturas noturnas no Estado, embora ainda seja necessário um aprofundamento teórico em relação aos efeitos atmosféricos sobre regiões localizadas em baixas latitudes. Também a temperatura estimada por sensores remotos pode ser utilizada para estimar a temperatura do ar nos locais avaliados, sendo que ainda deve ser testada a extrapolação para outros locais.
Resumo:
Este trabalho apresenta o desenvolvimento de uma ferramenta computacional de apoio ao diagnóstico através de imagens ecocardiográficas, denominada de “Echo Offline”. O “Echo Offline” foi projetado para mensuração de grandezas lineares em imagens ecocardiográficas digitais, possibilitando a realização de diagnósticos pós-exame e a integração dos dados colhidos no banco de dados da instituição médica. Um estudo transversal contemporâneo e aleatório foi realizado com uma população de quarenta e nove pacientes submetidos a exames ecocardiográficos, as imagens resultantes deste exame foram digitalizadas e um médico especialista mensurou um conjunto de variáveis pré-definidas utilizando o método convencional, ou seja, usando as facilidades oferecidas pelo equipamento de ultra-som comercial. Um segundo médico especialista produziu outros dois conjuntos de dados utilizando o “Echo offline” e desta forma foi possível avaliar a exatidão e a repetibilidade das medidas realizadas pela ferramenta “Echo offline”. O “Echo offline” apresentou uma elevada concordância com o método convencional e apresentou significativa redução no tempo de realização das medidas.
Resumo:
A velocidade de veículos em vias públicas pode ser obtida de diversas formas. A técnica mais usada é de laços magnéticos, onde se instalam sensores sob o asfalto. Entretanto, esta técnica apresenta desvantagens, tais como, a não detecção de motocicletas (o campo magnético gerado por este tipo de veículo é imperceptível ao sistema) e dificuldade de manutenção da via (se o órgão publico tiver que mexer numa rede cloacal que passa perto dos sensores, por exemplo, pode ser necessário reinstalá-los). Nesse contexto, este trabalho propõe-se a discutir uma nova maneira de se calcular a velocidade de veículos, através do processamento de imagens. Para isto, torna-se fundamental conhecer os conceitos que envolvem as técnicas mais utilizadas (além dos laços magnéticos, a captura de dois quadros consecutivos e o sistema Doppler), os equipamentos disponíveis no mercado (Pardais, Lombadas Eletrônicas, Bandeiras, Caetanos e Radares) e a forma como o INMETRO faz a aferição destes equipamentos. O estudo apresenta, igualmente, os principais fundamentos relacionados ao processamento digital de imagens, com especial atenção para detecção de bordas, de forma que seja possível avaliar a nova técnica proposta, que calcula a velocidade a partir de um único quadro. O presente trabalho objetiva apresentar o Pardalzito como alternativa técnica inovadora para aplicação de um, sistema que implementa esta idéia na prática.
Resumo:
O presente trabalho aborda o desenvolvimento e aplicação de um sistema de visão para um robô industrial, dedicado a tarefas de manipulação. Para seu desenvolvimento, foi feita a integração de equipamentos comerciais de captação de vídeo com um PC, onde é executada a análise das imagens. Os resultados são enviados ao controlador do robô através de um sistema de comunicação, sendo recebidos por um programa de manipulação que executa as tarefas. Como peça central do sistema de captura e processamento de imagens tem-se o programa RobVis, desenvolvido em linguagem Visual Basic e que tem a função principal de identificar a posição e orientação de objetos a serem manipulados pelo robô, que interpreta as imagens captadas por uma câmera de vídeo do tipo CCD, ligada a uma placa de captura de imagens. Após definidas as variáveis de interesse, estas são transmitidas ao controlador do robô, através de um sistema de comunicação IRBCom, desenvolvido no Laboratório de Robótica da UFRGS. No controlador, um programa de manipulação escrito em linguagem Rapid, nativa do manipulador empregado, recebe as variáveis para execução da tarefa de captura de objetos em posições aleatórias e depósito em um ponto de descarga pré-definido. O sistema de visão desenvolvido caracteriza-se como de fácil implementação e aplicação em tarefas de manipulação robótica industrial que exijam a determinação da posição e orientação de objetos de trabalho dentro de uma porção do volume de trabalho do robô, coberta por um sistema de visão.
Resumo:
A restauração de filmes no Brasil se tornou uma atividade mais sistemática a partir dos anos 1990, com a introdução das ferramentas digitais. Ao mesmo tempo em que trouxeram uma possibilidade quase ilimitada de intervenção nos filmes, as ferramentas digitais introduziram também um debate acerca da natureza ética envolvendo a restauração de filmes. Nesse contexto, se destacam os projetos de restauração dedicados aos filmes do Cinema Novo. Este trabalho pretende verificar em que medida a restauração digital vem a afetar os elementos de linguagem de Terra em Transe, de Glauber Rocha, filme marcado por uma grande inventividade formal. A análise da restauração do filme foi pautada por alguns dos conceitos de Cesare Brandi, autor que procurou trabalhar com a questão da ética no campo das artes plásticas. Algumas questões relacionadas à ética e à conceituação de restauração, bem como à trajetória histórica da restauração de filmes no Brasil, também são debatidas no texto.
Resumo:
O processamento de imagens tem sido amplamente utilizado para duas tarefas. Uma delas é o realce de imagens para a posterior visualização e a outra tarefa é a extração de informações para análise de imagens. Este trabalho apresenta um estudo sobre duas teorias multi-escalas chamadas de espaço de escala e transformada wavelet, que são utilizadas para a extração de informações de imagens. Um dos aspectos do espaço de escalas que tem sido amplamente discutido por diversos autores é a sua base (originalmente a gaussiana). Tem se buscado saber se a base gaussiana é a melhor, ou para quais casos ela é a melhor. Além disto, os autores têm procurado desenvolver novas bases, com características diferentes das pertencentes à gaussiana. De posse destas novas bases, pode-se compará-las com a base gaussiana e verificar onde cada base apresenta melhor desempenho. Neste trabalho, foi usada (i) a teoria do espaço de escalas, (ii) a teoria da transformada wavelet e (iii) as relações entre elas, a fim de gerar um método para criar novas bases para o espaço de escalas a partir de funções wavelets. O espaço de escala é um caso particular da transformada wavelet quando se usam as derivadas da gaussiana para gerar os operadores do espaço de escala. É com base nesta característica que se propôs o novo método apresentado. Além disto, o método proposto usa a resposta em freqüência das funções analisadas. As funções bases do espaço de escala possuem resposta em freqüência do tipo passa baixas. As funções wavelets, por sua vez, possuem resposta do tipo passa faixas Para obter as funções bases a partir das wavelets faz-se a integração numérica destas funções até que sua resposta em freqüência seja do tipo passa baixas. Algumas das funções wavelets estudadas não possuem definição para o caso bi-dimensional, por isso foram estudadas três formas de gerar funções bi-dimensionais a partir de funções unidimensionais. Com o uso deste método foi possível gerar dez novas bases para o espaço de escala. Algumas dessas novas bases apresentaram comportamento semelhante ao apresentado pela base gaussiana, outras não. Para as funções que não apresentaram o comportamento esperado, quando usadas com as definições originais dos operadores do espaço de escala, foram propostas novas definições para tais operadores (detectores de borda e bolha). Também foram geradas duas aplicações com o espaço de escala, sendo elas um algoritmo para a segmentação de cavidades cardíacas e um algoritmo para segmentação e contagem de células sanguíneas.
Resumo:
Este trabalho é uma síntese da transformada de Fourier na forma discreta e uma de suas principais aplicações à computação gráfica, a restauração de imagens corrompidas por movimento, seja do aparelho óptico ou da própria imagem.
Resumo:
In the last years the number of industrial applications for Augmented Reality (AR) and Virtual Reality (VR) environments has significantly increased. Optical tracking systems are an important component of AR/VR environments. In this work, a low cost optical tracking system with adequate attributes for professional use is proposed. The system works in infrared spectral region to reduce optical noise. A highspeed camera, equipped with daylight blocking filter and infrared flash strobes, transfers uncompressed grayscale images to a regular PC, where image pre-processing software and the PTrack tracking algorithm recognize a set of retro-reflective markers and extract its 3D position and orientation. Included in this work is a comprehensive research on image pre-processing and tracking algorithms. A testbed was built to perform accuracy and precision tests. Results show that the system reaches accuracy and precision levels slightly worse than but still comparable to professional systems. Due to its modularity, the system can be expanded by using several one-camera tracking modules linked by a sensor fusion algorithm, in order to obtain a larger working range. A setup with two modules was built and tested, resulting in performance similar to the stand-alone configuration.