18 resultados para Engel, Antke

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

10.00% 10.00%

Publicador:

Resumo:

As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma parte importante da química de orgametálicos atual centra-se no estudo de compostos heterobimetálicos com o propósito de avaliar de que modo as possíveis interações entre os metais podem alterar a reatividade dos centros metálicos presentes na molécula. Os ligantes ferrocenilas tem sido bastante utilizados para obter-se compostos desta natureza. Dentro desta classe de ligantes destaca-se o 1,1'-bis(difenilfosfina)ferroceno(dppf). Muitos trabalhos surgiram na literatura nos últimos dez anos descrevendo a síntese, caracterização estrutural, no estado sólido ou em solução, de novos complexos metálicos derivados deste metaloligante, bem como o estudo de suas propriedades catalíticas. O objetivo deste trabalho foi sintetizar novos compostos derivados do 1,1'-bis(difenilfosfina) ferroceno (dppf) e estudá-los no estado sólido ou em solução. Desta forma, foram pela primeira vez sintetizados os compostos dppfFe(NO)2(1), [dppfCo(NO)2][SBf6](2) e dppfNicod(3) e [dppfNi(MeCN)4]2 (4) os quais foram caracterizados por espectroscopia na região do infravermelho, ressonância magnética nuclear de ¹H e ³¹P{¹H}, análise elementar de C,H e N, condutividade molar no caso do composto catiônico(2) e difração de Raios-X de monocristal, no caso do composto(1). A espectroscopia Mössbauer de 57Fe constitui-se uma técnica adequada para a análise deste metaligante, que contém um átomo de Fe na sua molécula, pois pode fornecer informações estruturais e evidenciar eventuais efeitos interativos que ocorram entre os centros metálicos quando o ligante encontra-se complexado a outros metais. Foram, então, estudados por espectroscopia Mössbauer, à baixa temperatura, os compostos (1),(2),(3),(4) e dppfFe(CO)3 (5) e os resultados obtidos comparados com os apresentados na literatura para compostos análogos contendo o ligante dppf. Os complexos derivados do dppf exibem um processo de oxidação centrado no ferroceno além dos processos de oxiredução presentes nos outros centros metálicos da molécula. O estudo das alterações que podem ocorrer neste processo devido à presença de um segundo metal de transição ou dos ligantes é importante pois pode fornecer informações sobre como modular o potencial redox centrado no ligante ferrocenila, permitindo assim um controle de sua reatividade. Sendo assim, neste trabalho foi realizado um estudo eletroquímico, por voltametria cíclica, dos compostos (1),(2) e (5). Compostos de Ni(0) ou Ni(II) são conhecidos catalisadores em reações de oligomerização e polimerização de olefinas e dienos. Compostos ferrodinitrosilas e cobaltodinitrosilas, na presença de redutores, apresentam alta seletividade em reações de ciclomerização de dienos. Nestes sistemas catalíticos a atividade e seletividade doscompostos está intimamente relacionada com a natureza dos ligantes unidos ao metal de transição do percussor catalítico. Devido às características dos compostos sintetizados e estudados neste trabalho, decidiu-se verificar a possível influência do ligante ddpf, na atividade e seletividade das reações com dienos, escolhendo-se o butadieno como substrato modelo. Estudou-se, então, a atividade catalítica dos compostos (1),(2),(3),(4),(5) e dppfNiCl2 (6) frente ao butadieno, na ausência e presença do cocatalisador, AlEt2Cl.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aborda implicações das alternativas de comunicação oferecidas pela Internet na sociabilidade contemporânea. Para este estudo, foi desenvolvida pesquisa junto a usuários da Rede. A pesquisa Rotinas Digitais de Comunicação Pessoal buscou identificar alterações nas formas de comunicação interpessoal e mudanças nas rotinas comunicacionais do sujeito propiciadas por estas novas formas de comunicação, além de verificar implicações destas mudanças nas relações interpessoais. O suporte teórico da dissertação abordou aspectos referentes a tecnologia, informação, comunicação e sociabilidade, buscando subsídios teórico-metodológicos para a compreensão de características da sociabilidade contemporânea importantes para o alcance dos objetivos estabelecidos. Os resultados da investigação indicam que as novas alternativas para comunicação disponibilizadas pela Internet estão alterando as práticas comunicacionais dos indivíduos, incluindo no seu cotidiano rotinas digitais para o acesso à informação e aos meios de comunicação, para trabalho e para relacionamento social.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Óleo de soja epoxidado foi curado com os anidridos: dodecenilsuccínico (DDS), maleico (MAL), ftálico (FTA), succínico e hexahidroftálico (CH). As reações foram iniciadas com aminas terciárias tais como trietilamina (TEA), N,N’-dimetilanilina (ARO) e 1,4- diazobiciclo[2,2,2]octano (DABCO). Calorimetria diferencial de varredura (DSC) foi aplicada com êxito no estudo da reação de cura e usada para a determinação dos parâmetros cinéticos e termodinâmicos. Foram estudados os efeitos eletrônicos, os fatores estéreos e a rigidez do segmento diéster formado devido na conversão de grupos anidridos. Foi observado que os anidridos maleico e ftálico reagem mais rápido do que os outros anidridos. A influência do iniciador e da razão molar (anidrido/grupo epóxido) foi igualmente considerada. As propriedades mecânicas e térmicas das resinas epóxi curadas usando TEA como iniciador foram investigadas por análise térmica dinâmico-mecânica (DMTA) e termogravimétrica (TGA). Todas as amostras apresentaram características de materiais termofixos. Os materiais termofixos obtidos a partir de anidridos com estruturas rígidas (FTA, MAL e CH) mostraram alta temperatura de transição vítrea e densidade de reticulação. Quando um excesso de grupos epóxido foi usado (R= 0,5), a temperatura de transição vítrea do material diminuiu. As resinas epóxi exibiram estabilidade térmica até 300ºC. Um comportamento inesperado foi observado para aquelas resinas obtidas com o anidrido dodecenilsuccínico (DDS). A influência do grau de epoxidação do óleo de soja nas propriedades mecânicas e na temperatura de transição vítrea foi investigada. Quanto maior o conteúdo de grupos epóxido, maior é a Tg e a dureza do material. As resinas epóxi preparadas a partir de óleo de soja epoxidado mostram excelente resistência química em NaOH e ácido sulfúrico, mas resistência pobre quando em contato com solventes orgânicos (tolueno, acetona, gasolina e etanol).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente, pesquisadores das mais diversas áreas, tais como: Geologia, Física, Cartografia, Oceanografia, entre outras, utilizam imagens de satélite como uma fonte valiosa para a extração de informações sobre a superfície terrestre. Muitas vezes, a análise (classificação) destas imagens é realizada por métodos tradicionais sejam eles supervisionados (como o Método de Máxima Verossimilhança Gaussiana) ou nãosupervisionados (como o Método de Seleção pelo Pico do Histograma). Entretanto, pode-se utilizar as Redes Neurais Artificiais como uma alternativa para o aumento da acurácia em classificações digitais. Neste trabalho, utilizou-se imagens multi-espectrais do satélite LANDSAT 5-TM para a identificação de espécies vegetais (Mata Nativa, Eucalyptus e Acácia) em uma região próxima aos municípios de General Câmara, Santo Amaro e Taquari, no Estado do Rio Grande do Sul, Brasil. Comparou-se qualitativamente e quantitativamente os resultados obtidos pelo método de Máxima Verossimilhança Gaussiana e por uma Rede Neural Artificial Multinível com BackPropagation na classificação da área de estudo. Para tanto, parte desta área foi mapeada através de uma verificação de campo e com o auxílio de classificadores nãosupervisionados (Kohonen, que é uma Rede Neural, e o método de Seleção pelo Pico do Histograma). Com isto, foi possível coletar dois conjuntos de amostras, sendo que um deles foi utilizado para o treinamento dos métodos e o outro (conjunto de reconhecimento) serviu para a avaliação das classificações obtidas. Após o treinamento, parte da área de estudo foi classificada por ambos os métodos. Em seguida, os resultados obtidos foram avaliados através do uso de Tabelas de Contingência, considerando um nível de significância de 5%. Por fim, na maior parte dos testes realizados, a Rede Neural Artificial Multinível com BackPropagation apresentou valores de acurácia superiores ao Método de Máxima Verossimilhança Gaussiana. Assim, com este trabalho observou-se que não há diferença significativa de classificação para as espécies vegetais, ao nível de 5%, para a área de estudo considerada, na época de aquisição da imagem, para o conjunto de reconhecimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A mineração de dados constitui o processo de descoberta de conhecimento interessante, com a utilização de métodos e técnicas que permitem analisar grandes conjuntos de dados para a extração de informação previamente desconhecida, válida e que gera ações úteis, de grande ajuda para a tomada de decisões estratégicas. Dentre as tarefas de mineração de dados, existem aquelas que realizam aprendizado não-supervisionado, o qual é aplicado em bases de dados não-classificados, em que o algoritmo extrai as características dos dados fornecidos e os agrupa em classes. Geralmente, o aprendizado não-supervisionado é aplicado em tarefas de agrupamento, que consistem em agrupar os dados de bancos de dados volumosos, com diferentes tipos de dados em classes ou grupos de objetos que são similares dentro de um mesmo grupo e dissimilares em diferentes grupos desses bancos de dados, de acordo com alguma medida de similaridade. Os agrupamentos são usados como ponto de partida para futuras investigações. Este trabalho explora, mediante a realização de um estudo de caso, o uso de agrupamento como tarefa de mineração de dados que realiza aprendizado nãosupervisionado, para avaliar a adequação desta tecnologia em uma base de dados real da área de saúde. Agrupamento é um tema ativo em pesquisas da área pelo seu potencial de aplicação em problemas práticos. O cenário da aplicação é o Sistema de Informações Hospitalares do SUS, sob a gestão da Secretaria Estadual de Saúde do Rio Grande do Sul. Mensalmente, o pagamento de um certo número de internações é bloqueado, uma vez que a cobrança de internações hospitalares é submetida a normas do SUS e a critérios técnicos de bloqueio estabelecidos pela Auditoria Médica da SES para verificar a ocorrência de algum tipo de impropriedade na cobrança dos procedimentos realizados nessas internações hospitalares. A análise de agrupamento foi utilizada para identificar perfis de comportamentos ou tendências nas internações hospitalares e avaliar desvios ou outliers em relação a essas tendências e, com isso, descobrir padrões interessantes que auxiliassem na otimização do trabalho dos auditores médicos da SES. Buscou-se ainda compreender as diferentes configurações de parâmetros oferecidos pela ferramenta escolhida para a mineração de dados, o IBM Intelligent Miner, e o mapeamento de uma metodologia de mineração de dados, o CRISP-DM, para o contexto específico deste estudo de caso. Os resultados deste estudo demonstram possibilidades de criação e melhora dos critérios técnicos de bloqueio das internações hospitalares que permitem a otimização do trabalho de auditores médicos da SES. Houve ainda ganhos na compreensão da tecnologia de mineração de dados com a utilização de agrupamento no que se refere ao uso de uma ferramenta e de uma metodologia de mineração de dados, em que erros e acertos evidenciam os cuidados que devem ser tomados em aplicações dessa tecnologia, além de contribuírem para o seu aperfeiçoamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As tarefas de visão computacional incentivam uma significativa parte da pesquisa em todas as áreas científicas e industriais, entre as quais, cita-se a área voltada para o desenvolvimento de arquiteturas de computadores. A visão computacional é considerada um dos problemas mais desafiadores para a computação de alto desempenho, pois esta requer um grande desempenho, bem como um alto grau de flexibilidade. A flexibilidade é necessária pois a visão computacional abrange aplicações em que há diferentes tarefas a serem realizadas com diferentes necessidades de desempenho. Esta flexibilidade é particularmente importante em sistemas destinados a atuar como ambientes experimentais para novas técnicas de processamento visual ou para a prototipação de novas aplicações. Computação configurável tem demonstrado, por meio de exemplos implementados pela comunidade científica, fornecer uma boa relação entre alto desempenho e flexibilidade necessária para a implementação de diferentes técnicas utilizadas na área de visão computacional. Contudo, poucos esforços de pesquisa têm sido realizados na concepção de sistemas completos visando a solução de um problema de visão computacional, incluindo ambos os requisitos de software e de hardware. O principal objetivo deste trabalho é mostrar que as técnicas e tecnologias disponíveis na área de computação configurável podem ser empregadas para a concepção de um sistema capaz de implementar um grande número de aplicações da área de visão computacional na pesquisa e no ambiente industrial. Entretanto, não é escopo deste trabalho implementar um sistema de computação que seja suficiente para abordar os requerimentos necessários para todas as aplicações em visão computacional, mas os métodos aqui introduzidos podem ser utilizados como uma base geral de implementação de várias tarefas de visão computacional. Este trabalho utiliza ambientes que permitem implementações conjuntas de hardware e software, pois os mesmos facilitam a validação das técnicas aqui apresentadas, por meio da implementação de um estudo de caso, sendo parte deste estudo de caso implementado em software e outra parte em hardware.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho relata o desenvolvimento de uma aplicação capaz de reconhecer um vocabulário restrito de comandos de direcionamento pronunciados de forma isolada e independentes do locutor. Os métodos utilizados para efetivar o reconhecimento foram: técnicas clássicas de processamento de sinais e redes neurais artificiais. No processamento de sinais visou-se o pré-processamento das amostras para obtenção dos coeficientes cepstrais. Enquanto que para o treinamento e classificação foram utilizadas duas redes neurais distintas, as redes: Backpropagation e Fuzzy ARTMAP. Diversas amostras foram coletadas de diferentes usuários no sentido de compor um banco de dados flexível para o aprendizado das redes neurais, que garantisse uma representação satisfatória da grande variabilidade que apresentam as pronúncias entre as vozes dos usuários. Com a aplicação de tais técnicas, o reconhecimento demostrou-se eficaz, distinguindo cada um dos comandos com bons índices de acerto, uma vez que o sistema é independente do locutor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A maioria das empresas interage com seus clientes através de computadores. Com o passar do tempo está armazenado nos computadores um histórico da atividade da empresa que pode ser explorado para a melhoria do processo de tomada de decisões. Ferramentas de descoberta de conhecimento em bancos de dados exploram este histórico a fim de extrair vários tipos de informação. Um dos tipos de informação que pode ser extraída destes tipos de bancos de dados são as regras de associação que consistem em relacionamentos ou dependências importantes entre itens tal que a presença de alguns itens em uma transação irá implicar a presença de outros itens na mesma transação. Neste trabalho são aplicadas técnicas de descoberta de conhecimento na área do comércio varejista de confecção. Foram detectadas algumas peculiaridades dos bancos de dados desta área sendo proposto um novo algoritmo para melhorar o desempenho da tarefa de extração de regras de associação. Para a validação dos resultados apresentados pelo algoritmo foi desenvolvido o protótipo de uma ferramenta para extração de regras de associação. Foram realizados experimentos com bancos de dados reais de uma empresa da área de comércio varejista de confecção para análise de desempenho do algoritmo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta e discute uma estratégia e discute uma estratégia inédita para o problema de exploração e mapeamento de ambientes desconhecidos usandoo robô NOMAD 200. Esta estratégia tem como base a solução numéricqa de problemas de valores de contorno (PVC) e corresponde ao núcleo da arquitetura de controle do robô. Esta arquitetura é similar à arquitetura blackboard, comumente conhecida no campo da Inteligência Artificial, e é responsável pelo controle e gerenciamento das tarefas realizadas pelo robô através de um programa cleinte. Estas tarefas podem ser a exploração e o mapeamento de um ambiente desconhecido, o planejamento de caminhos baseado em um mapa previamente conhecido ou localização de um objeto no ambiente. Uma características marcante e importante é que embora estas tarefas pareçam diferentes, elas têm em comum o mesmo princípio: solução de problemas de valores de contorno. Para dar sustentabilidade a nossa proposta, a validamos através de inúmeros experimentos, realizados e simulação e diretamente no robô NOMAD 200, em diversos tipos de ambientes internos. Os ambientes testados variam desde labirintos formados por paredes ortogonais entre si até ambientes esparsos. Juntamente com isso, introduzimos ao longo do desenvolvimento desta tese uma série de melhorias que lidam com aspectos relacionados ao tempo de processamento do campo potencial oriundo do PVC e os ruídos inseridos na leitura dos sensores. Além disso, apresentamos um conjunto de idéias para trabalhos futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho é devotado à avaliação do risco de tráfego em concessões de infra-estruturas rodoviárias. Apresenta as principais causas de discrepâncias entre previsões e a realidade do tráfego em concessões de infra-estruturas rodoviárias, abordando as conseqüências dessas diferenças e os meios propostos e/ou utilizados para a reduzir os riscos proporcionados aos concessionários pelas incertezas inerentes ao tráfego. Dentre os principais meios encontrados para minimizar os efeitos do risco de tráfego aos concessionários encontra-se a utilização de mecanismos de concessão baseado em contratos com prazo variável. Dois mecanismos têm sido desenvolvidos com este objetivo e foram avaliados neste trabalho: LPVR, proposto por Engel, Fischer e Galetovic e implantado no Chile em meados da década de 1990; e LPVNR, proposto por Nombela e De Rus a partir do final da mesma década. A avaliação dos mecanismos foi realizada com um método quantitativo de análise de riscos, utilizando simulação Monte Carlo. Para a realização da avaliação, foi desenvolvido um modelo financeiro que propiciasse análises de projetos com duração não definida ex-ante. 81 simulações foram realizadas, sendo 27 para cada um dos três tipos de concessão de rodovias testados: BOT, ROT e concessões para a operação e manutenção (O&M). As variáveis utilizadas nos testes foram: as taxas de desconto utilizadas nos projetos; os horizontes de tempo das concessões (duração esperada); e a extensão máxima que a duração pode ter, além da duração esperada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta a sistemática do Desdobramento da Função Qualidade (QFD), como método de planejamento, aplicado numa empresa do ramo oftalmológico. A premissa básica utilizada é o levantamento dos requisitos do cliente e a transformação destes requisitos em metas a serem alcançadas pela empresa. O QFD foi utilizado como meio de translado destas informações. A utilização do QFD, como forma de captar as necessidades do mercado, interpretá-las e conduzi-las, ao longo do processo de desenvolvimento das matrizes, atingindo os setores na organização, é o estudo abordado neste trabalho. O modelo de QFD utilizado neste trabalho é uma adaptação do modelo de AKAO, proposto por Ribeiro et al., para processos de manufatura. O modelo foi aplicado em uma empresa do grupo Bausch&Lomb. Os resultados encontrados ao desdobrar os requisitos de qualidade dos clientes permitiram que a empresa desenvolvesse planos de ação objetivando conquistar uma maior fatia de mercado. A área de pintura foi priorizada e como principais ações pode-se citar o desenvolvimento de uma nova tinta e automação do processo de pintura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho analisa diferentes modelos de representação temporal usados em arquiteturas conexionistas e propõe o uso de um novo modelo neural, chamado Neurônio Diferenciador-Integrador (NDI) para aplicação com processamento de sinais temporais. O NDI pode ser interpretado como filtro digital. Seu funcionamento exige poucos recursos computacionais e pode ser de grande valia em problemas onde a solução ideal depende de uma representação temporal instantânea, facilidade de implementação, modularidade e eliminação de ruído. Após a definição do modelo, o mesmo é sujeito a alguns experimentos teóricos utilizado em conjunto com arquiteturas conexionistas clássicas para resolver problemas que envolvem o tempo, como previsão de séries temporais, controle dinâmico e segmentação de seqüências espaço-temporais. Como conclusão, o modelo neural apresenta grande potencialidade principalmente na robótica, onde é necessário tratar os sinais sensoriais ruidosos do robô de forma rápida e econômica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo principal deste trabalho é propor uma metodologia de classificação de imagens de sensoriamento remoto que integre a importância de atributos de textura na seleção de feições, através da utilização de freqüências espaciais de cada classe textural e sua direção, com a eficiência das redes neurais artificiais para classificá-las. O processo é composto por uma etapa de filtragem baseada nos filtros de Gabor, seguida de uma fase de classificação através de uma rede neural Multi-Layer Perceptron com algoritmo BackPropagation. A partir da transformada de Fourier são estimados os parâmetros a serem utilizados na constituição dos filtros de Gabor, adequados às freqüências espaciais associadas a cada classe presente na imagem a ser classificada. Desta forma, cada filtro gera uma imagem filtrada. O conjunto de filtros determina um conjunto de imagens filtradas (canais texturais). A classificação pixel a pixel é realizada pela rede neural onde cada pixel é definido por um vetor de dimensionalidade igual ao número de filtros do conjunto. O processo de classificação através da rede neural Multi-Layer Perceptron foi realizado pelo método de classificação supervisionada. A metodologia de classificação de imagens de sensoriamento remoto proposta neste trabalho foi testada em imagens sintética e real de dimensões 256 x 256 pixels. A análise dos resultados obtidos é apresentada sob a forma de uma Matriz de Erros, juntamente com a discussão dos mesmos.