78 resultados para Análise computacional de imagens
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
A superfamília das fosfolipases A2 (FLA2) é composta por proteínas dotadas de propriedades diferenciadas que as tornam capazes de apresentar distintas atividades biológicas, além de sua atividade catalítica. Esta diversidade funcional é intrigante devido à alta similaridade de seqüência primária e de estrutura entre essas proteínas. O principal objetivo deste trabalho é o desenvolvimento de uma metodologia para a predição de atividades biológicas específicas em FLA2 de peçonha de serpentes a partir da análise de seqüências primárias. A metodologia desenvolvida compreende: a) seleção de seqüências anotadas quanto à função ou atividade biológica que desempenham; b) detecção e validação estatística de motivos de seqüência relacionados à atividade estudada; e c) construção de Modelos Ocultos de Markov (MOMs) representando cada motivo. MOM consiste em uma modelagem estatística que tem sido aplicada com sucesso em diversas áreas onde se faz necessária a detecção e representação de padrões de informação; por sua base matemática robusta e formal, pode ser utilizada na automação deste tipo de processo. A metodologia foi testada para duas atividades de FLA2 de peçonha de serpente: neurotoxicidade e miotoxicidade. Para as FLA2 neurotóxicas, foram detectados seis motivos conservados, dos quais três foram validados estatisticamente como sendo adequados na discriminação de seqüências neurotóxicas de não neurotóxicas. Para as FLA2 miotóxicas, foram detectados seis motivos conservados, dos quais quatro foram validados. Os MOMs dos motivos validados podem ser usados na predição de atividade neurotóxica e miotóxica. As relações entre seqüência, estrutura, função e evolução das FLA2s são discutidas. Os dados obtidos foram coerentes com a hipótese apresentada por Kini (2003), da existência de diferentes sítios farmacológicos na superfície das FLA2, interagindo independente ou cooperativamente com diferentes receptores, para gerar as diversas funções biológicas observadas. Por não haver, até o momento, qualquer ferramenta automatizada para a predição de função biológica de FLA2, os resultados deste trabalho foram a base para a construção de uma ferramenta (disponível em www.cbiot.ufrgs.br/bioinfo/phospholipase) para a identificação de miotoxicidade e neurotoxicidade em FLA2.
Resumo:
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
Resumo:
Atualmente, pesquisadores das mais diversas áreas, tais como: Geologia, Física, Cartografia, Oceanografia, entre outras, utilizam imagens de satélite como uma fonte valiosa para a extração de informações sobre a superfície terrestre. Muitas vezes, a análise (classificação) destas imagens é realizada por métodos tradicionais sejam eles supervisionados (como o Método de Máxima Verossimilhança Gaussiana) ou nãosupervisionados (como o Método de Seleção pelo Pico do Histograma). Entretanto, pode-se utilizar as Redes Neurais Artificiais como uma alternativa para o aumento da acurácia em classificações digitais. Neste trabalho, utilizou-se imagens multi-espectrais do satélite LANDSAT 5-TM para a identificação de espécies vegetais (Mata Nativa, Eucalyptus e Acácia) em uma região próxima aos municípios de General Câmara, Santo Amaro e Taquari, no Estado do Rio Grande do Sul, Brasil. Comparou-se qualitativamente e quantitativamente os resultados obtidos pelo método de Máxima Verossimilhança Gaussiana e por uma Rede Neural Artificial Multinível com BackPropagation na classificação da área de estudo. Para tanto, parte desta área foi mapeada através de uma verificação de campo e com o auxílio de classificadores nãosupervisionados (Kohonen, que é uma Rede Neural, e o método de Seleção pelo Pico do Histograma). Com isto, foi possível coletar dois conjuntos de amostras, sendo que um deles foi utilizado para o treinamento dos métodos e o outro (conjunto de reconhecimento) serviu para a avaliação das classificações obtidas. Após o treinamento, parte da área de estudo foi classificada por ambos os métodos. Em seguida, os resultados obtidos foram avaliados através do uso de Tabelas de Contingência, considerando um nível de significância de 5%. Por fim, na maior parte dos testes realizados, a Rede Neural Artificial Multinível com BackPropagation apresentou valores de acurácia superiores ao Método de Máxima Verossimilhança Gaussiana. Assim, com este trabalho observou-se que não há diferença significativa de classificação para as espécies vegetais, ao nível de 5%, para a área de estudo considerada, na época de aquisição da imagem, para o conjunto de reconhecimento.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).
Resumo:
A utilização de programas de processamento de imagens digitais e de sistemas de informações geográficas que admitem a importação e exportação de inúmeros formatos de apresentação de dados, aliado a modernos equipamentos de computação, tem tornado a integração de dados, de diferentes sensores, um caminho padrão em Geociências, pela otimização da relação custo/tempo na execução de serviços de mapeamento. Neste contexto, esse trabalho resulta da análise da integração de dados de sensoriamento remoto e geofísica, com o objetivo de verificar sua aplicabilidade na identificação e caracterização litológica e estrutural de uma área-teste, localizada na Região de Quitéria -Várzea do Capivarita, no Estado do Rio Grande do Sul. A metodologia usada, em um primeiro momento, priorizou o processamento e análise individual de dados cartográficos, de imagens TM/LANDSAT-5 e dados de aeromagnetometria e aerogamaespectrometria nos canais Contagem Total (CT), Potássio (K), Tório (Th) e Urânio (U). Os dados foram, a seguir, convertidos para o formato digital na forma de imagens (“raster”) com resolução espacial de 30 x 30 m, a fim de permitir o cruzamento de informações através de técnicas de Processamento Digital de Imagens e de Sistemas de Informações Geográficas (SIG’s). A integração das imagens TM e geofísicas foi realizada com o uso da Transformação IHS, através da conversão das bandas TM para as componentes individuais I, H e S; substituindo-se a componente H, pela imagem geofísica no retorno ao espaço RGB. A análise dos produtos de sensoriamento remoto e geofísica obtidos nessa pesquisa, permitiram identificar os Domínios Morfoestruturais; identificar e delimitar as diferentes Unidades Fotolitológicas; reconhecer os principais sistemas estruturais a partir da extração e análise de lineamentos; obter informações do padrão de relevo magnético; e, principalmente, a geração de imagens temáticas de teores de radioelementos com a identificação de áreas promissoras de mineralizações. Os resultados comprovam a eficiência do emprego de técnicas de integração de dados digitais, via computador, tanto para fins de mapeamento litoestrutural, como em caráter prospectivo, em serviços geológicos de grandes áreas.
Resumo:
Esta dissertação analisa potencialidades de uso da ferramenta de simulação computacional em atividades de um Armazém Geral. Para tanto, foi realizado um estudo de caso em um Armazém Geral onde se aplicou a ferramenta segundo o método de desenvolvimento de projetos de simulação computacional proposto por Barrônio (2000). O desenvolvimento do projeto de simulação foi, então, focado na atividade de apanha separação, integrante do sub-processo de separação de pedidos. O substrato teórico utilizado envolve uma abordagem sobre a logística e caracterização de armazém geral, bem como uma revisão dos conceitos principais da ferramenta de simulação computacional. No desenvolvimento da pesquisa, identificaram-se diversas aplicações da simulação tanto no armazém geral e terminais de cargas da empresa, quanto na análise da malha de rotas da empresa. A partir da análise dos resultados da simulação, em diversos cenários desenvolvidos e do entendimento sistêmico da situação em estudo, identificou-se como oportunidade de melhoria a definição de horários fixos de parada para descanso ao longo da jornada de trabalho na atividade de apanha separação O desenvolvimento do projeto de simulação computacional contribuiu como instrumento de aprendizagem e tomada de decisões sobre a realidade organizacional. Através de experimentação no modelo computacional o grupo de trabalho pôde testar e mudar seus pressupostos e sua compreensão do mundo real, aprimorando a aprendizagem. Identificou-se ainda, que os armazéns gerais dotados de sistema de gerenciamento automatizado apresentam um grande potencial para desenvolvimento de projetos de simulação, principalmente, devido à disponibilidade de dados característicos destas organizações.
Resumo:
A concorrência nos mercados locais e internacionais tem levado as empresas a tomarem-se cada vez mais competitivas e atentas as mud3nças no mercado, possibilitando-Ihes melhorias em seus processos produtivos. Este trabalho apresenta a modelagem e análise de melhorias no processo produtivo de uma empresa de montagem de câmaras de bronzeamento. A simulação computacional foi utilizada como ferramenta de análise das possíveis oportunidades de melhorias a serem introduzidas no processo produtivo. O processo original foi modelado com o objetivo de identificar e caracterizar a distribuição de tempos e utilização dos equipamentos e rerorsos presentes no processo produtivo da empresa. Diferentes propostas de melhorias foram investigadas e uma nova modelagem do processo foi sugerida, considerando exigências do mercado e características do processo produtivo empresarial. Comparações matemáticas entre os resultados foram elaboradas e as conclusões sobre o estudo são apresentadas ao final do trabalho. Os resultados da simulação estão sendo usados para avaliar possíveis alterações no processo produtivo da empresa, bem como para gerar documentos que registram conhecimento corporativo sobre possíveis arranjos na produção.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.
Resumo:
O presente trabalho implementa um método computacional semi-automático para obter medidas de estruturas cardíacas de fetos humanos através do processamento de imagens de ultra-som. Essas imagens são utilizadas na avaliação cardíaca pré-natal, permitindo que os médicos diagnostiquem problemas antes mesmo do nascimento. A dissertação é parte de um projeto desenvolvido no Instituto de Informática da Universidade Federal do Rio Grande do Sul, denominado SEGIME (Segmentação de Imagens Médicas). Neste projeto, está sendo desenvolvida uma ferramenta computacional para auxiliar na análise de exames ecocardiográficos fetais com o apoio da equipe de Cardiologia Fetal do Instituto de Cardiologia do Rio Grande do Sul. O processamento de cada imagem é realizado por etapas, divididas em: aquisição, pré-processamento, segmentação e obtenção das medidas. A aquisição das imagens é realizada por especialistas do Instituto de Cardiologia. No pré-processamento, é extraída a região de interesse para a obtenção das medidas e a imagem é filtrada para a extração do ruído característico das imagens de ultra-som. A segmentação das imagens é realizada através de redes neurais artificiais, sendo que a rede neural utilizada é conhecida como Mapa Auto-organizável de Kohonen. Ao final do processo de segmentação, a imagem está pronta para a obtenção das medidas. A técnica desenvolvida nesta dissertação para obtenção das medidas foi baseada nos exames realizados pelos especialistas na extração manual de medidas. Essa técnica consiste na análise da linha referente à estrutura de interesse onde serão detectadas as bordas. Para o início das medidas, é necessário que o usuário indique o ponto inicial sobre uma borda da estrutura. Depois de encontradas as bordas, através da análise da linha, a medida é definida pela soma dos pixels entre os dois pontos de bordas. Foram realizados testes com quatro estruturas cardíacas fetais: a espessura do septo interventricular, o diâmetro do ventrículo esquerdo, a excursão do septum primum para o interior do átrio esquerdo e o diâmetro do átrio esquerdo. Os resultados obtidos pelo método foram avaliados através da comparação com resultados de referência obtidos por especialistas. Nessa avaliação observou-se que a variação foi regular e dentro dos limites aceitáveis, normalmente obtida como variação entre especialistas. Desta forma, um médico não especializado em cardiologia fetal poderia usar esses resultados em um diagnóstico preliminar.
Resumo:
Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.
Resumo:
Neste trabalho será feita uma análise da quantidade de pontos de controle para correção geométrica de imagens, mais especificamente, do satélite CBERS-I, utilizando o sensor CCD, através de análises estatísticas para o cálculo da quantidade de pontos e estudo quantitativo através da análise de variância da média dos resíduos obtidos de amostras de tamanhos variados. Os pontos de controle foram coletados com receptor GPS e foi utilizado um modelo polinomial de segunda ordem para a correção geométrica da imagem. Os resultados experimentais obtidos na análise da média para o cálculo da quantidade de pontos mostram que o erro residual tende a se estabilizar para a quantidade de pontos definidos pela estatística. Apresenta-se ao final, considerações iniciais sobre a aplicação desta proposta para diversos outros sensores, permitindo um maior aproveitamento destes na atualização cartográfica e na geração de cartas imagens.
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.