90 resultados para Processamento de imagens multitemporais


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho objetivou-se estudar como as diferenças no nível de conhecimento do decisor afetam a tomada de decisões, procurando aumentar o entendimento de diferentes resultados do processo decisório. Contemplou-se três grandes áreas: o processo decisório, a perspectiva cognitiva no processo decisório e a influência do nível de conhecimento sobre o objeto de decisão no processo de decisão. Utilizando uma tarefa decisória com múltiplas alternativas e múltiplos atributos realizou-se uma pesquisa do tipo experimental onde foram controladas as variáveis qualidade da informação, complexidade da tarefa decisória e tomadores de decisão especialistas e novatos. Após formuladas e testadas as hipóteses, chegou-se à conclusão de que decisores com menos conhecimento possuem menor autoconfiança excessiva e menor consistência no resultado da decisão do que decisores com mais conhecimento, sendo indiferente o consenso na comparação entre os mesmos. Quanto às estratégias decisórias, os decisores com menos conhecimento se utilizam mais de estratégias não compensatórias para chegar a escolha do que decisores com mais conhecimento. Tomadores de decisão com mais conhecimento cometem menor número de transgressões do método multicritério do que aqueles com menos conhecimento, porém há indicações de que os primeiros possuem mais motivos explícitos para as transgressões do que os últimos. Os dois grupos não diferem significativamente no tempo e número de passos para resolução das tarefas, mas durante o processo decisório para chegar a decisão final, os decisores com mais conhecimento são mais lineares do que aqueles com menos conhecimento, ou seja, se valem de menor número de passos e repetições para chegar à escolha final.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho descreve uma proposta para a representação geométrica de imagens. Através da subdivisão espacial adaptativa de uma imagem em triângulos, uma representação simplificada da estrutura da imagem pode ser obtida. Demonstramos que a representação gerada é adequada para aplicações como a segmentação e a compressão de imagens. O método de segmentação de imagens desenvolvido faz uso deste tipo de representação para obter resultados robustos e compactos, comparados a outros métodos existentes na literatura, e adequado para aplicações como a detecção, descrição e codificação de objetos. Utilizando uma representação geométrica semelhante a métodos de modelagem de superfícies, criamos um novo método de compressão de imagens que apresenta vantagens em relação a outros métodos existentes, em especial na compressão de imagens sem perdas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Astronomia, como origem e, talvez, como fim de todas as Ciências, sempre esteve voltada à observação dos astros e à busca de novas técnicas e instrumentos que permitissem ampliar os limites e a qualidade destas observações. Dessa busca resultou o desenvolvimento do telescópio óptico, em 1608, por Galileu Galilei. Com o passar dos anos, esse instrumento foi sofrendo incontáveis aperfeiçoamentos, chegando aos nossos dias como um aparelho preciso e de sofisticada tecnologia. Apesar das fronteiras observacionais terem avançado para além do espectro visível, o telescópio óptico ainda é indispensável à Astronomia. O Brasil, embora não apresente condições meteorológicas ideais para observações astronômicas, possui observatórios ópticos de razoável qualidade, como o Laboratório Nacional de Astrofísica, LNA, em Minas Gerais, entre outros. Em seu extremo sul, no entanto, o País carece de bons instrumentos ópticos, destacando-se unicamente o telescópio da UFRGS instalado no Observatório do Morro Santana, em Porto Alegre. O aumento da iluminação artificial na Região Metropolitana de Porto Alegre e, conseqüentemente, da claridade do céu noturno tem praticamente inviabilizado a operação do Observatório. Assim, a escolha de novos locais para a futura instalação de telescópios ópticos no Estado é imprescindível. Acrescenta-se a isto o fato do ciclo climático desta região diferenciarse daquele das demais regiões do País, fato relevante, dado que um dos fatores determinantes na escolha de novos sítios para telescópios ópticos é a taxa de nebulosidade. Levantamentos in situ de nebulosidade são longos e custosos. Como alternativa, neste trabalho foi realizado um estudo estatístico do Estado, a partir da montagem de um banco de 472 imagens noturnas dos satélites GOES e MeteoSat. A combinação das imagens, por processo de superposição e cálculo de valores médios de contagens (brilho), à escala de pixel, forneceu informações em nível de préseleção, ou indicativo, de locais com altas taxas de noites claras. Foram cobertos os períodos de 1994-1995 e 1998-1999, com focalização nas áreas em torno de Bom Jesus, Vacaria e Caçapava do Sul. Como controle, foi também monitorada a área em torno do LNA em Minas Gerais. Ademais da demonstração metodológica, os dados orbitais indicaram que, na média destes anos, estas áreas são adequadas à instalação de observatórios astronômicos, pela conjugação dos fatores de nebulosidade e altitude.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho será feita uma análise da quantidade de pontos de controle para correção geométrica de imagens, mais especificamente, do satélite CBERS-I, utilizando o sensor CCD, através de análises estatísticas para o cálculo da quantidade de pontos e estudo quantitativo através da análise de variância da média dos resíduos obtidos de amostras de tamanhos variados. Os pontos de controle foram coletados com receptor GPS e foi utilizado um modelo polinomial de segunda ordem para a correção geométrica da imagem. Os resultados experimentais obtidos na análise da média para o cálculo da quantidade de pontos mostram que o erro residual tende a se estabilizar para a quantidade de pontos definidos pela estatística. Apresenta-se ao final, considerações iniciais sobre a aplicação desta proposta para diversos outros sensores, permitindo um maior aproveitamento destes na atualização cartográfica e na geração de cartas imagens.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação, História do Povo Surdo em Porto Alegre, Imagens e Sinais de uma Trajetória Cultural traz a narrativa, através de fotografias, da evolução das políticas surdas em Porto Alegre. O Referencial teórico utilizado para embasar as narrativas em seus contextos históricos e culturais foi o dos Estudos Surdos, Estudos Culturais e Análise de Fotografias. A documentação destes eventos importantes para o povo surdo local possibilitou o registro do desenvolvimento e das articulações feitas pelas pessoas surdas em busca de seu reconhecimento como grupo cultural e não como sujeitos deficitários, desde a década de 1950 até os dias atuais. As histórias registradas nas fotografias, narradas por seus protagonistas, mostram a construção do Povo Surdo, passo a passo, historicamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desenvolvimento de novos, e mais eficientes, métodos de classificação de imagem digitais em Sensoriamento Remoto se constitui em uma importante área que tem chamado a atenção de muitos pesquisadores. Nesta área em particular, um problema que freqüentemente surge para a classificação de imagens digitais provenientes de cenas naturais, é a ocorrência de classes espectrais com resposta espectral muito similar. Nestes casos, os sistemas sensores mais comuns e os métodos tradicionais de classificação de imagem apresentam muito baixa precisão ou mesmo falham completamente. Várias abordagens vem sendo propostas na literatura. Uma das possíveis abordagens consiste em fazer uso de informações auxiliares que possuam poder discriminante para as classes sob análise. Esta é a possibilidade explorada nesta dissertação, utilizar-se de dados auxiliares, provenientes de fontes diversas, tais como: temperatura, precipitação, altitude e classes de solo. Estes dados são então combinados com dados provenientes de imagens multiespectrais de acordo com a Teoria de Evidência proposta por Dempster e Shafer. Esta abordagem é testada usando dados de uma área no Estado do Rio Grande do Sul, Brasil, com a finalidade de delimitar a ocorrência da Mata Nativa com Araucária (composta pela conifera Araucaria angustifolia), que é de difícil separação em relação a outras classes espectrais que ocorrem na região, tornando difícil o processo preciso de classificação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho se ocupa do problema da localização de sítios adequados para a operação de observatórios astronômicos. O constante crescimento das cidades e a urbanização de grandes áreas vizinhas é acompanhada por um aumento proporcional da iluminação artificial, o que resulta em níveis maiores de brilho do céu noturno. Isto tem consequências extremas para a astronomia óptica, a qual exige um céu escuro, e justifica buscas de novos sítios para a instalação de futuros telescópios ópticos. Um dos critérios mais importantes para sítios astronômicos, além de céu escuro, é uma alta proporção de céu claro, sem nuvens. Buscas de sítios astronômicos são estudos conduzidos ao longo de períodos de tempo de anos. É sugerido que imagens de satélites meteorológicos podem ser úteis para a seleção preliminar destes sítios. A metodologia utilizada é fundamentada em correções geométricas de imagens de dados orbitais das naves NOAA12 e NOAA14 e na soma de imagens obtidas em datas diferentes. As imagens foram coletadas pela estação de recepção instalada no Centro Estadual de Pesquisas em Sensoriamento Remoto e Meteorologia da UFRGS. Somando, pixel por pixel, imagens colhidas em datas diferentes, após correções geométricas, obtém-se médias temporais de cobertura de nuvens, o que é o equivalente moderno da construção de médias a partir de uma série temporal de dados meteorológicos de estações terrestres. Nós demonstramos que esta metodologia é factível para este tipo de dado, originário de órbitas de menor altitude e melhor resolução, se comparado com imagens vindas de satélites de órbitas altas, geoestacionários, com menor resolução, imagens estas de manipulação muito mais fácil, pois o ponto de observação tende a ser estável no tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo geral deste trabalho é desenvolver estudos relacionados à dispersão de poluentes, considerando a queima de carvão para geração de energia nas Usinas Termoelétricas de Charqueadas e São Jerônimo. O período de estudo foi do dia 17 a 23 de junho de 2003. Neste período houve a passagem de um sistema frontal. Sendo possível avaliar a dispersão dos poluentes em condições pré-frontal, frontal e pós-frontal. Para simular o comportamento dos poluentes neste período, foi utilizada uma subrotina de dispersão acoplada ao modelo RAMS (Regional Atmospheric Modeling System). Os resultados mostraram que nos dias classificados como pré-frontal e pós-frontal as concentrações do material particulado, dióxido de enxofre e do óxido de nitrogênio, atingiram seus valores máximos, pelo fato da umidade relativa do ar estar bastante baixa em torno de 60%, pressão atmosférica da ordem de 1021 hPa e a intensidade dos ventos fraca. No dia classificado como frontal, as concentrações estavam praticamente nulas, devido à passagem do sistema frontal que causou a queda na pressão atmosférica, aumento da umidade relativa e também pelo fato da ocorrência de precipitação atmosférica neste dia. As comparações dos resultados simulados, com os dados observados na estação de qualidade do ar mostraram-se satisfatórios. Com exceção do dia 22 de junho, que apresentou uma diferença da ordem de 90%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tradicional técnica de regressão logística, muito conhecida e utilizada em estudos médicos, permitia apenas a modelagem de variáveis-resposta binárias. A extensão do modelo logístico para variáveis-resposta multinominais ampliou em muito as áreas de aplicação de regressão logística. Na área de reconhecimento de padrões o modelo logístico multinominal recebeu a denominação de discriminação logística apresenta aparentes vantagens em relação a métodos convencionais de classificação. O método da máxima verossimilhança gaussiana, amplamente difundido e utilizado, necessita da estimação de um número muito grande de parâmetros, pois supõe que as distribuições subjacentes de cada classe sejam normais multivariadas. A discriminação logística por sua vez, não faz restrições quanto a forma funcional das variáveis, e o número de parâmetros do modelo é relativamente pequeno. Nesse estudo, os princípios da técnica de discriminação logística são apresentados detalhadamente, bem como aplicações práticas de classificação de imagens Landsat-TM e AVIRIS. Os procedimentos de discriminação logística e da máxima verossimilhança gaussiana foram comparados a partir de dados reais e simulados. Os resultados sugerem que a discriminação logística seja considerada como uma alternativa ao método da máximaverossimilhança gaussiana, principalmente quando os dados apresentarem desvios da normalidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O rei castelhano Afonso X, o Sábio (1221-1284) é considerado como o idealizador de uma vasta obra que inclui textos de caráter jurídico, historiográfico, científico e sua produção poética. Este estudo propõe evidenciar o caráter propagandístico da obra afonsina considerando as condições de produção e difusão dos textos e a sua relação com o projeto político centralizador do Rei Sábio. Procurando observar a maneira pela qual o pensamento político afonsino é revelado em sua obra, são aqui analisadas as imagens do rex christianus, cujo poder provém de Deus, do rex iustus, cuja função é administrar a justiça em seu reino, e do rex sapiens, que dispõe da virtude e do conhecimento necessários para bem governar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O armazenamento de grandes quantidades de informações em bases de dados cria a necessidade de se usar Métodos de Acesso a esses dados de uma forma mais eficiente do que uma busca linear. Dessa forma, diversos Métodos de Acesso vêm sendo propostos há décadas. Desde os mais simples Métodos de Acesso como árvores B até os mais sofisticados Métodos de Acesso Métrico tem-se o mesmo objetivo: a eficiência na consulta. Para cada tipo de dados, para cada tipo de consulta, existe uma diferente forma de acesso mais adequada. Se os dados puderem ser ordenados, pode-se usar uma àrvore B. Na busca por pequenas cadeias de caracteres, pode-se utilizar uma árvore de sufixos. Com a evoluçãocomputacional, não se quer armazenar apenas números ou pequenas seqüências de texto. Já existem diversas bases de dados muito mais complexas, como seqüências de sons, imagens ou até mesmo vídeos armazenados. A complexidade desse tipo de dados e do tipo de consulta feita em cima deles gerou a necessidade de novos Métodos de Acesso. Os chamados Métodos de Acesso Métrico são estruturas capazes de acessar dados bastante complexos, como arquivos multimídia, com uma boa eficiência. Esse tipo de estrutura vem sendo estudada há muitos anos, mas a primeira delas realmente eficaz foi a árvore M. Depois dela, vários outros Métodos de Acesso Métricos surgiram, como a árvore Slim, M2, M+, DF, DBM aprimorando sua estrutura básica Esse trabalho propõe a árvore TM, que inova a forma como os dados são indexados, aprimorando a árvore M. Essa nova estrutura, usa o espaço métrico para a busca dos dados, o que é feito por todos Métodos de Acesso Métricos. Mas sua inovação está na forma como os dados são indexados, usando-se um espaço novo também proposto nesse trabalho, o espaço distorcido. Experimentos mostram uma melhora significativa na eficiência da consulta tanto em quantidade de acesso a disco quando em custo de processamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal deste trabalho é propor uma metodologia de classificação de imagens de sensoriamento remoto que integre a importância de atributos de textura na seleção de feições, através da utilização de freqüências espaciais de cada classe textural e sua direção, com a eficiência das redes neurais artificiais para classificá-las. O processo é composto por uma etapa de filtragem baseada nos filtros de Gabor, seguida de uma fase de classificação através de uma rede neural Multi-Layer Perceptron com algoritmo BackPropagation. A partir da transformada de Fourier são estimados os parâmetros a serem utilizados na constituição dos filtros de Gabor, adequados às freqüências espaciais associadas a cada classe presente na imagem a ser classificada. Desta forma, cada filtro gera uma imagem filtrada. O conjunto de filtros determina um conjunto de imagens filtradas (canais texturais). A classificação pixel a pixel é realizada pela rede neural onde cada pixel é definido por um vetor de dimensionalidade igual ao número de filtros do conjunto. O processo de classificação através da rede neural Multi-Layer Perceptron foi realizado pelo método de classificação supervisionada. A metodologia de classificação de imagens de sensoriamento remoto proposta neste trabalho foi testada em imagens sintética e real de dimensões 256 x 256 pixels. A análise dos resultados obtidos é apresentada sob a forma de uma Matriz de Erros, juntamente com a discussão dos mesmos.